Découvrir

Claude, une intelligence artificielle plus éthique, capable de rivaliser avec ChatGPT ?

Il n’y a pas que ChatGPT dans la vie. Derrière la plus connue des intelligences artificielles, de nombreuses alternatives se développent. Character.ai, Bard, Socratic, LlaMa, Replika… ces IA sont moins connues mais méritent qu’on s’y intéresse également. Tout comme Claude, l’intelligence artificielle mise au point par la start-up Anthropic, créée par des anciens d’OpenAI, Dario et Daniela Amodei. Pour rappel, OpenAI, c’est la firme qui a mis au point… ChatGPT. Et Anthropic est notamment soutenu par Google, qui a investi quelque 400 millions de dollars dans le projet. La Silicon Valley reste encore et toujours un petit monde…

Pourquoi ce nom de Claude ? C’est un hommage à Claude Shannon. Cet Américain (1916-2001) fut mathématicien et ingénieur en génie électrique. Il est considéré comme le père de la théorie de l’information. Son travail a jeté les bases de la communication numérique moderne et de la compression des données. Deux des composants essentiels des systèmes d’IA. Claude se destine avant tout aux entreprises mais peut être utilisée par le grand public via des outils comme Notion, Quora (via Poe), DuckDuckGo ou encore Slack.

Claude, une AI éthique qui se veut “utile, honnête et inoffensive”

À la différence de ChatGPT, cette IA a été pensée dès le début avec un prisme éthique. Les travaux de recherche d’Anthropic visent en effet à former des systèmes d’IA “utiles, honnêtes et inoffensifs”. Fonctionnant de la même manière que ses concurrents – c’est une IA générative conversationnelle –, Claude se différencie par sa technologie appelée “IA constitutionnelle”.

L’IA constitutionnelle est une méthode qui entraîne les systèmes d’IA utilisant un ensemble de règles ou de principes qui agissent comme une « constitution ». Cette approche permet au système d’IA de fonctionner dans un cadre socialement accepté et l’aligne sur les intentions humaines.

L’intelligence artificielle est donc formée pour objectivement rejeter des requêtes qui semblent malveillantes ou nuisibles. À chaque fois, elle va motiver sa décision de ne pas répondre en vue d’être la plus transparente possible. Ses réponses, aussi, se veulent plus objectives. Comment ? En limitant au maximum l’influence humaine dans les classements initiaux des résultats affinés. Une manière de limiter les biais, selon Anthropic.

Un assistant d’intelligence artificielle plus sûr ?

Résumer, rechercher, répondre à des questions dans le cadre d’une conversation, proposer de l’écriture créative et collaborative, coder, etc. Réalisant les mêmes tâches que ChatGPT, Claude propose une interface assez similaire à son concurrent. Kristi Hines, journaliste pour le site SearchEngineJournal a pu comparer l’efficacité de différentes IA (ChatGPT, Claude, Bing et Bard). Elle en a conclu que Claude était l’outil qui fonctionnait le plus vite mais aussi avec le plus de précision.

La question qui se pose est : peut-on davantage faire confiance à Claude qu’à ChatGPT dans la qualité et l’objectivité de ses réponses ? Les premiers tests semblent trancher en faveur d’Anthropic. Sans qu’il soit cependant possible de dire que l’IA ne se trompe jamais ni ne souffre d’aucun biais. Comparativement, Claude semble plus fiable et éthique.

Cela peut s’expliquer par la technologie sur laquelle elle repose. Le chatbot d’Open AI fonctionne selon le modèle RLHF (Reinforcement Learning from Human Feedback, amélioration de l’apprentissage grâce aux remarques humaines). Claude, lui, repose sur la méthode RLAIF (Reinforcement Learning from Artificial Intelligence Feedback, amélioration de l’apprentissage grâce aux remarques de l’IA). Selon Anthropic, cette différence de méthodologie rend son IA plus sûre.

Claude, une IA capable de traiter davantage de données instantanément que ChatGPT

Anthropic a annoncé que son IA était désormais capable de traiter un texte de la taille d’un roman entier. En moins d’une minute. Claude a la capacité d’absorber en une seule fois 100 000 jetons de données, sachant qu’un jeton correspond à 4 caractères, soit les 3/4 d’un mot en moyenne. Auparavant, l’IA était limitée à 9 000 jetons. À titre de comparaison, ChatGPT peut traiter au maximum 32 000 jetons en une fois.

Quel intérêt d’étendre ce nombre de jetons ? Analyser beaucoup plus vite un vaste corpus de données. Dans le cas d’un roman, il est possible ensuite de poser tout un tas de questions à Claude sur les personnages, les rebondissements de l’histoire, etc. Mais cela vaut aussi pour traiter un gros rapport financier (voire plusieurs en même temps), une grosse base de données, etc.

Vous pouvez demander l’accès pour Claude ici : https://www.anthropic.com/product

SOUTENEZ WE DEMAIN, SOUTENEZ UNE RÉDACTION INDÉPENDANTE
Inscrivez-vous à notre newsletter hebdomadaire
et abonnez-vous à notre magazine.

Recent Posts

  • Déchiffrer

Christophe Cordonnier (Lagoped) : Coton, polyester… “Il faut accepter que les données scientifiques remettent en question nos certitudes”

Cofondateur de la marque de vêtements techniques Lagoped, Christophe Cordonnier défend l'adoption de l'Éco-Score dans…

10 heures ago
  • Ralentir

Et si on interdisait le Black Friday pour en faire un jour dédié à la réparation ?

Chaque année, comme un rituel bien huilé, le Black Friday déferle dans nos newsletters, les…

16 heures ago
  • Partager

Bluesky : l’ascension fulgurante d’un réseau social qui se veut bienveillant

Fondé par une femme, Jay Graber, le réseau social Bluesky compte plus de 20 millions…

2 jours ago
  • Déchiffrer

COP29 : l’Accord de Paris est en jeu

À la COP29 de Bakou, les pays en développement attendent des engagements financiers à la…

3 jours ago
  • Déchiffrer

Thomas Breuzard (Norsys) : “La nature devient notre actionnaire avec droit de vote au conseil d’administration”

Pourquoi et comment un groupe français de services numériques décide de mettre la nature au…

3 jours ago
  • Respirer

Les oursins violets, sentinelles de la pollution marine en Corse

Face aux pressions anthropiques croissantes, les écosystèmes côtiers subissent une contamination insidieuse par des éléments…

4 jours ago