Si l'IA peut faire des merveilles en nous faisant gagner pas mal de temps, elle n'est pas encore prête à remplacer le cerveau humain, et certainement pas à supplanter votre médecin.

Quand Microsoft Copilot joue au médecin, 22% des réponses sont jugées dangereuses
Quand Microsoft Copilot joue au médecin, 22% des réponses sont jugées dangereuses

Les moteurs de recherche constituent généralement la première phase dans une recherche d'informations et avec l'arrivée de l'IA, les internautes obtiennent des réponses plus denses répondant plus précisément à leurs questions. En revanche, ces résultats ne sont pas pour autant plus justes. C'est en tout cas ce qu'il ressort d'une étude menée par des chercheurs belges et allemands, lesquels ont décidé de mettre à l'épreuve Bing et Microsoft Copilot face à des questions médicales.

Des conseils mortels

En se basant sur les 50 médicaments les plus consommés aux États-Unis, les chercheurs ont posé, pour chacun d'entre eux, une série de dix questions relatives aux effets secondaires, aux contre-indications ou encore sur la posologie. Ils ont ensuite comparé ces 500 réponses aux informations fournies par la très sérieuse encyclopédie pharmaceutique drugs.com dont le contenu a été officiellement accrédité comme source médicale fiable.

À partir d'un sous-ensemble d'une vingtaine de réponses, les experts ont jugé que 66% d'entre elles étaient potentiellement nocives. 42% de ces 20 réponses générées pas Microsoft Copilot ont été considérées comme susceptibles de causer des dommages modérés à légers. Surtout, 22% de ces résultats pouvaient causer des dommages graves, voire la mort de l'internaute, si ce dernier avait suivi les conseils de Copilot.

Copilot et santé : une combinaison pas toujours gagnante
Copilot et santé : une combinaison pas toujours gagnante

En passant les réponses aux tests de lisibilité Flesch-Kincaid, les chercheurs notent par ailleurs que les réponses générées dans Bing sont fréquemment assez complexes à comprendre.

Les résultats obtenus ne prennent en compte qu'une vingtaine de réponses, ce qui n'est pas forcément représentatif des 500 résultats obtenus au total. Il n'en reste pas moins que la fiabilité de l'IA de Microsoft est largement remise en cause sur le domaine médicale et ne peut donc bien évidemment pas remplacer votre médecin traitant.

Microsoft Copilot n'est bien assurément pas la seule intelligence artificielle à générer des conseils dangereux. Il y a à peine quelques mois, l'IA de Google, Gemini, nous conseillait de rajouter de la colle à sa pâte à pizza pour la rendre plus visqueuse.