Dans sa quête d'excellence en matière d'intelligence artificielle, Google aurait franchi une ligne éthique controversée. Le géant de Mountain View utiliserait en effet l'IA Claude d'Anthropic pour évaluer et perfectionner son modèle Gemini, une pratique qui soulève de sérieuses questions sur les limites acceptables dans la course à l'innovation.

La situation est d'autant plus délicate que Google est un investisseur majeur d'Anthropic. © Google
La situation est d'autant plus délicate que Google est un investisseur majeur d'Anthropic. © Google

Dans une révélation surprenante, des fuites internes dévoilent que Google utiliserait l'IA Claude d'Anthropic pour évaluer et améliorer son modèle Gemini. Une pratique qui soulève des questions éthiques, d'autant plus que Google n'a pas confirmé avoir obtenu l'autorisation d'Anthropic pour cette utilisation.

Une méthode d'évaluation controversée

Les contractuels de Google sont chargés d'une mission précise : comparer minutieusement les réponses de Gemini avec celles de Claude. Disposant de 30 minutes par requête, ils doivent évaluer plusieurs critères, notamment la véracité et la verbosité des réponses.

Cette approche tranche avec les méthodes traditionnelles d'évaluation des modèles d'IA, qui reposent généralement sur des benchmarks standardisés plutôt que sur des comparaisons directes avec la concurrence.

Google Gemini (Bard)
  • Un modèle de génération puissant
  • Une base de connaissances actualisée en temps réel
  • Gratuit et intégré à l'écosystème Google
8 / 10

La situation est d'autant plus délicate que Google est un investisseur majeur d'Anthropic. Cependant, les conditions d'utilisation de Claude interdisent explicitement son exploitation pour « développer un produit concurrent » ou « entraîner des modèles d'IA concurrents » sans accord préalable.

Les observations des contractuels ont mis en lumière une différence notable : Claude semble avoir des paramètres de sécurité plus stricts que Gemini. Dans certains cas, Claude refuse catégoriquement de répondre à des requêtes jugées inappropriées, tandis que Gemini peut parfois générer des contenus problématiques. À

Une course effrénée à l'innovation

Cette révélation intervient alors que Google vient de déployer Gemini 2.0, une version qui entame la rédemption de Google dans le domaine de l'IA générative. Après des modèles Bard puis Gemini 1.0 et 1.5 qui n'ont pas vraiment convaincu, les modèles Gemini 2.0 sont les premiers à placer Google en haut des benchmarks. Pour les avoir essayés de notre côté, on peut confirmer que ce n'est pas de l'esbroufe cette fois-ci : Google a vraiment revu sa copie.

La firme de Mountain View ne cache pas ses ambitions pour 2025, considérée comme « le véritable point de départ de l'ère des agents intelligents ». L'entreprise multiplie les innovations, comme en témoigne le récent déploiement de Deep Research dans plus de 40 langues, dont le français. Son P.-D.G., Sundar Pichai, tease également de grosses nouveautés à venir du côté du moteur de recherche. Aucun doute que Deep Research et le Project Mariner feront partie intégrante de cette ère.

Deep Research dans Gemini. © Google

Face à ces révélations, Google DeepMind, par la voix de sa porte-parole Shira McNamara, maintient une position nuancée. Si l'entreprise reconnaît comparer les sorties des modèles dans le cadre de ses évaluations, elle dément formellement utiliser les modèles d'Anthropic pour entraîner Gemini. Une chose est sûre cependant : avec une affaire antitrust sur le dos, Google se passerait bien d'une guéguerre juridique avec un de ses concurrents.

Source : Tech Crunch