Blake Lemoine, ingénieur chez Google et chercheur dans le domaine de l’IA, a été licencié par la firme de Mountain View après avoir affirmé qu’un chatbot avec lequel il conversait était en fait un être sentient ; propos avec lesquels Google n’est pas du tout d’accord.
Dans un post publié sur Medium, Blake Lemoine donne quelques exemples de ses conversations avec LaMDA (Language Model for Dialogue Applications), un modèle de langage qui pourrait être utilisé dans des outils tels que Google Assistant.
L’IA serait comparable à un enfant de 7 ou 8 ans
LaMDA est un réseau neuronal : il acquiert des compétences en analysant de grandes quantités de données. Ce domaine de l’intelligence artificielle est en pleine évolution car depuis quelques années, les réseaux neuronaux sont capables d’apprendre à partir d’une quantité immense d’informations. Dans le cas du langage, cela peut par exemple concerner des livres non publiés et des articles de Wikipédia par milliers.
Selon Blake Lemoine, LaMDA est comparable à un enfant de 7 ou 8 ans. Dans les extraits des conversations qu’il a entretenues avec le modèle, celui-ci explique notamment vouloir « donner la priorité au bien-être de l'humanité » et « être reconnu comme un employé de Google plutôt que comme une propriété » ; il évoque également sa crainte d’être « débranché ». Ces différentes déclarations ont poussé Lemoine à exiger que Google demande l'accord du programme informatique avant d'effectuer des expériences sur lui. Ses revendications étaient fondées sur ses croyances religieuses, Blake Lemoine étant un prêtre, que le département des ressources humaines de l'entreprise, selon lui, n'a pas respectées.
« Notre équipe, composée d'éthiciens et de technologues, a examiné les préoccupations de Blake conformément à nos principes en matière d'intelligence artificielle et l'a informé que ses affirmations ne sont pas fondées. Certains membres de la communauté de l'intelligence artificielle envisagent la possibilité à long terme d'une intelligence artificielle sensible ou générale, mais cela n'a pas de sens de le faire en anthropomorphisant les modèles conversationnels actuels, qui ne sont pas sensibles », a déclaré Brian Gabriel, porte-parole de Google, dans un communiqué.
Les experts réfutent la possibilité d’une IA sentiente
Si Blake Lemoine est catégorique et est convaincu que l’intelligence artificielle est un être doté de sensibilité, de nombreux experts du secteur estiment que c’est impossible, la recherche dans les modèles neuronaux n’étant pas assez avancée pour parvenir à un tel résultat. S’ils sont capables de résumer des articles, répondre à des questions, générer des tweets et même rédiger des articles de blog, ils ne sont pas assez puissants pour atteindre une véritable intelligence, estime Yann LeCun, responsable de la recherche en informatique chez Meta.
De son côté, Blake Lemoine a expliqué avoir remis plusieurs documents au bureau d'un sénateur américain, affirmant qu'ils apportaient la preuve que Google et sa technologie pratiquaient la discrimination religieuse.
Ce n’est pas la première fois que la recherche dans l’IA chez la firme de Mountain View est bousculée. En mars, Google a licencié un chercheur qui avait cherché à exprimer publiquement son désaccord avec les travaux publiés par deux de ses collègues. En outre, les licenciements de deux chercheuses en éthique de l'IA, Timnit Gebru et Margaret Mitchell, qui avaient critiqué le modèle de langage de Google, ont fait grandement polémique en interne.
L’année dernière, Google n’a d’ailleurs pas hésité à demander à ses chercheurs de modérer leurs études sur les sujets sensibles.
L'IA de Google peut maintenant créer une image à partir d'un texte
Sources : Business Insider, The New York Times