Voilà qui fait tache pour Apple, l'entreprise portant une attention très particulière à son image de marque. Son outil d'intelligence artificielle (IA) permettant de résumer les notifications sur iOS a diffusé de fausses informations, et qui plus est sur un sujet très sensible.
Apple Intelligence, qui n'est pour l'instant pas disponible au sein de l'Union européenne (UE), comprend un outil capable d'analyser et de résumer les notifications. Une fonctionnalité qui a pour but de réduire le nombre d'alertes reçues par les usagers de la marque à la pomme. Mais malheureusement, il semblerait que son approche de déploiement progressif de l'IA ne soit pas suffisante pour pallier les failles inhérentes à la technologie.
Fausses informations
Et c'est la BBC, l'un des médias les plus suivis au monde, qui en a payé les frais. Apple Intelligence a incorrectement résumé un article de l'organe de presse britannique traitant de Luigi Mangione, le suspect pour l'assassinat du P.-D.G d'une assurance américaine. La notification générée par l'IA a clairement indiqué qu'il s'était « tiré dessus », suggérant qu'il était donc décédé.
« BBC News est le média d'information le plus fiable au monde. Il est essentiel pour nous que notre public puisse se fier aux informations ou au journalisme publiés en notre nom, ce qui inclut les notifications », a réagi un porte-parole de l'organisme.
Ceci est d'autant plus problématique que d'autres médias sont concernés par ces erreurs. Le 21 novembre dernier, la fonctionnalité d'Apple a résumé trois notifications différentes du New York Times, avec l'en-tête « Netanyahou arrêté ». Ce titre sous-entendait très clairement l'interpellation du président israélien. Or, il s'agissait en fait d'un résumé inexact d'un article concernant l'émission par la Cour pénale internationale d'un mandat d'arrêt à son encontre.
Phénomène récurrent
Ces erreurs prouvent que, sans surprise, Apple Intelligence a aussi tendance à halluciner. Ce phénomène, qui pousse les IA à partager de fausses informations en les faisant passer pour vraies, pose un réel défi aux créateurs de modèles d'IA. Par exemple, la fonctionnalité AI Overviews de Google a, lors de son déploiement, partagé de nombreuses informations erronées.
À l'époque, la firme de Mountain View avait minimisé les faits, assurant qu'il s'agissait surtout de faits isolés. Apple, de son côté, n'a pas réagi pour le moment.
13 décembre 2024 à 20h41
Source : BBC