Le chatbot de Google arrive après ses principaux concurrents. Une opportunité de ne pas commettre les mêmes erreurs qu'eux, mais qui ne garantit pas que les choses ne peuvent pas mal tourner.
Si l'intelligence artificielle générative ne produit pas que de grandes œuvres d'art, elle a au moins le mérite d'être au centre de quelques histoires rocambolesques. C'est le cas de Gemini, le nouveau surnom de Google Bard, dont les capacités de génération d'images ont été vivement critiquées.
En effet, l'outil a la fâcheuse manie de réécrire l'histoire quand on ne le lui demande pas. Un problème qui n'est pas anodin et dû à… ses garde-fous.
Les bonnes intentions de Google
Les récents déboires de Taylor Swift avec des deepfakes nous ont rappelé qu'il est nécessaire de contrôler plus étroitement ce qui peut être fait avec un outil génératif. Une image convaincante peut causer beaucoup de torts, à petite échelle comme au sommet de nos États, et la modération d'outils comme DALL·E ou Midjourney devient une préoccupation cruciale pour les entreprises qui les développent.
Google en est bien conscient, et a rendu Gemini public avec les garde-fous nécessaires pour éviter les déboires que d'autres ont connus (ou permis). Il est ainsi impossible de créer des images à caractère violent ou sexuel avec le programme, ou même de représenter une personne réelle, par exemple. Un réglage est aussi précis qu'essentiel pour les développeurs, car nombreux sont les petits malins qui tentent de trouver la faille qui leur permettra de faire faire n'importe quoi à une IA.
Mais, à Mountain View, on veut bien faire les choses. Outre la mise en place de garde-fous, l'entreprise a souhaité montrer la diversité de nos sociétés au sein des images générées par Gemini. Ainsi, dans des contextes crédibles, et lorsque cela n'est pas spécifié par l'utilisateur, les personnages dessinés par le programme peuvent avoir n'importe quelle couleur de peau ou être de n'importe quel sexe.
De bonnes idées, mais qui se sont retournées contre Google.
07 novembre 2024 à 14h16
Quand la modération fait du zèle
Dans un billet de blog publié ce week-end, Prabhakar Raghavan, vice-président de Google, explique pourquoi Gemini semble avoir manqué les cours d'histoire. « Tout d'abord, notre réglage pour s'assurer que Gemini montre un éventail de personnes n'a pas pris en compte les cas qui ne devraient manifestement pas montrer d'éventail », a-t-il expliqué. « Deuxièmement, au fil du temps, le modèle est devenu beaucoup plus prudent que nous ne l'avions prévu et a refusé de répondre à certaines requêtes, interprétant à tort des questions très inoffensives comme étant sensibles. »
Pas question de réécrire l'histoire à la sauce californienne, donc. Ici, l'IA a eu tendance « à surcompenser dans certains cas et à être trop prudente dans d'autres, ce qui a donné lieu à des images maladroites et erronées », conclu Raghavan. Les programmes comme Gemini sont incroyablement complexes, et le géant américain s'est fait avoir par sa prudence pourtant essentielle.
En attendant de régler ce problème, Google a désactivé la possibilité de générer des images avec des êtres humains sur Gemini. Une décision aussi critiquée qu'applaudie, mais qui donnera à l'entreprise un peu plus de temps pour affiner ses garde-fous.
- Un modèle de génération puissant
- Une base de connaissances actualisée en temps réel
- Gratuit et intégré à l'écosystème Google
Source : Neowin