© Reuters
© Reuters

L'intelligence artificielle pourrait bien faire planer un danger mortel au-dessus de l'humanité, selon le spécialiste Geoffrey Hinton.

Les humains commencent maintenant à être habitués aux rappels sur les dangers de l'intelligence artificielle. Mais si un consensus se forme sur les problèmes potentiels de cette nouvelle technologie, pour certains, comme pour cet ancien de Google, le danger est encore plus élevé qu'attendu.

L'IA bientôt plus intelligente que nos énarques ?

L'intelligence artificielle, combien de dangers ? On le sait, l'IA peut poser de nombreux problèmes, que ce soit dans son contact avec des publics fragiles ou même de manière plus globale avec son impact sur les emplois occupés par des êtres humains. Pourtant, le principal péril de la technologie ne serait pas là selon Geoffrey Hinton, pionner de l'IA chez Google, et qui a démissionné de l'entreprise de Moutain View.

« Je suis parti pour pouvoir parler des dangers de l'IA sans tenir compte de l'impact sur Google », a-t-il ainsi expliqué sur Twitter. Car pour ce chercheur spécialisé dans l'IA, l'humanité serait arrivée à un tournant de son histoire, avec la possibilité que l'intelligence artificielle devienne rapidement plus intelligente… que les humains.

« La plupart des gens pensaient que c'était une erreur. Et moi aussi. Je pensais que c'était dans 30 à 50 ans, voire plus. Évidemment, je ne suis plus de cet avis », a déclaré Geoffrey Hinton au New York Times.

L'IA, quel danger ? © Shutterstock
L'IA, quel danger ? © Shutterstock

Google, une entreprise responsable

Dans une interview avec le même média, il a aussi dit craindre que le développement rapide de l'intelligence artificielle puisse nous plonger dans un monde où le faux n'aurait plus de différence apparente avec le vrai. Car avec la génération par IA de plus en plus réussie d'images et de textes, le public finirait par « ne plus pouvoir savoir ce qui est vrai. »

S'il est pourtant alarmiste, Geoffrey Hinton a dans le même temps tenu à rendre hommage à son ex-employeur Google, qu'il estime à la hauteur quant aux questions de sécurité sur ce sujet. Il a ainsi nié avoir quitté son poste pour pouvoir critiquer le géant américain de la tech, dont la filiale DeepMind travaille depuis de nombreuses années sur l'intelligence artificielle.

Source : Reuters