© Phonlamai Photo / Shutterstock
© Phonlamai Photo / Shutterstock

Claude arrive dans sa deuxième version, nettement plus aboutie. Mais au fait, qui est Claude 2 ? C'est un modèle de chatbot spécialisé dans la génération de texte. Fondé sur une IA constitutionnelle, il n'a pas appris de la même manière que ses concurrents et est plus performant dans certains domaines.

Claude a été créé par Anthropic, une start-up installée à San Francisco et créée par d'anciens cadres d'OpenAI, le créateur de ChatGPT. La société a récemment annoncé l'arrivée de Claude 2, qui sera disponible en bêta au Royaume-Uni et aux États-Unis. Par rapport à Claude 1.3, son prédécesseur, il a été largement amélioré, sur deux aspects notamment : les performances et l'éthique.

Un boost de performances dans plusieurs domaines clés

Le chatbot Claude, comme n'importe lequel de ses compatriotes, exécute ses tâches en puisant dans des milliards de données différentes. Il est en revanche bien plus rapide que les autres chatbots disponibles sur le marché. Le cœur du fonctionnement de Claude 2 et les raisons de sa rapidité ne sont pas encore clairement explicables. On sait néanmoins qu'il a été entraîné sur un immense corpus de textes, bien plus large que celui de ChatGPT-3.

Claude 2 a été évalué dans plusieurs domaines pour comparer ses résultats à ceux de Claude 1.3. Selon le site TechCrunch, Claude 2 a fait mieux que son ancêtre dans 4 domaines d'études : le droit, le médical, la programmation et les mathématiques. Si l'on établit une moyenne sur l'ensemble des tests réalisés par la nouvelle version de Claude, celui-ci est environ 17,8 % meilleur que son aîné. Une très belle progression.

Anthropic a également redoublé d'efforts pour que Claude 2 améliore sa capacité de raisonnement et développe une conscience de lui-même. Cela passe par une formation à partir de données plus récentes issues de sources plus diversifiées. Désormais, Claude 2 traite mieux et plus rapidement les instructions, tout en gardant une forme de conscience primaire de ses limitations.

 © Anthropic
© Anthropic

L'IA constitutionnelle : une approche éthique novatrice

Pour se différencier de la concurrence, Anthropic a adopté une approche différente pour développer son bébé. Claude 2 a été créé en s'appuyant sur ce que l'entreprise nomme une « IA constitutionnelle ». Cela signifie que Claude est guidé par un ensemble de principes éthiques pour générer ses réponses textuelles. Selon la société, ces principes incluent l'autonomie et la bienfaisance, entre autres. Même si ces données ne sont pas totalement publiques, Claude 2 repose sur 10 grands piliers éthiques qui lui permettent d'être plus honnête dans ses réponses. Cette approche permettrait théoriquement d'agir comme un filtre et de limiter les mauvaises utilisations qui pourraient être faites d'un chatbot.

Pour autant, tout n'est pas rose pour Claude 2, Anthropic le reconnaît volontiers. Des limites persistent encore, et il lui arrive encore de générer des réponses inappropriées, voire toxiques. Néanmoins, la société affirme que Claude 2 a deux fois moins de chances de générer du contenu nuisible par rapport à Claude 1.3. Affirmation qu'il nous est parfaitement impossible à vérifier factuellement en tant qu'utilisateurs.

Cette nouvelle approche de l'apprentissage de chatbot pourrait mener Claude 2 à se faire une place au soleil rapidement au milieu de la scène de l'IA. Il est rapide et très performant, mais il n'en demeure pas moins que des débordements sont encore possibles. Il ne suffit apparemment pas d'une approche éthique pour effacer cette limite par magie.