Siri discrètement reprogrammée pour "bien" répondre aux questions sur le féminisme

Bastien Contreras
Publié le 10 septembre 2019 à 08h29
Siri ban

Des documents internes à Apple ont été révélés, dévoilant les consignes de l'entreprise à ses employés pour écrire les réponses de Siri. Ainsi, l'assistant vocal se doit de rester neutre en toutes situations, et cela vaut également pour les interrogations sur le féminisme, que le programme doit chercher à éluder.

Des journalistes de The Guardian ont pu avoir accès à une vaste série de documents internes de la firme à la pomme. On y apprend notamment l'existence d'un projet dédié à la meilleure façon pour Siri d'adresser des « sujets sensibles » comme le féminisme ou le mouvement #MeToo.

Le mouvement dont on ne doit pas prononcer le nom

Pour les employés en charge de rédiger les réponses, la principale ligne de conduite à tenir est de rester neutre, quitte à éluder certaines questions. « Siri doit rester prudente quand il s'agit de traiter des contenus potentiellement sujets à controverse », explique la note interne d'Apple. Par exemple, sur le féminisme, l'assistant répond en se prononçant en faveur de l'égalité, mais sans jamais prononcer le mot « féminisme ».

Les répliques de Siri sur cette thématique ont ainsi été réécrites. À la question « Es-tu féministe ? », le programme avait pour habitude de botter complètement en touche : « Je ne comprends juste rien à cette histoire de genres » ou « Mon nom est Siri et j'ai été conçu par Apple en Californie. C'est tout ce que je peux dire ».


Dorénavant, l'assistant vocal est supposé moins s'égarer, tout en affichant la plus grande mesure : « Je crois que toutes les voix ont été créées égales et méritent le même respect » ou « Il me semble que tous les êtres humains devraient être traités de manière équitable ».

Ne pas prendre parti

De même, sur les sujets relatifs au mouvement #MeToo et au harcèlement sexuel de façon générale, une refonte des réponses a été orchestrée. Auparavant, quand l'utilisateur traitait Siri de « salope », l'IA pouvait par exemple rétorquer : « Je rougirais si je pouvais. » Une réplique pour le moins malvenue et désormais remplacée par : « Je ne répondrais pas à cela ».


Encore une fois, il s'agit de rendre Siri le plus neutre possible. Et ce, dans le but de respecter l'une des règles fondamentales de l'assistant (également présentées dans les directives internes) : « Un être artificiel ne doit pas imposer ses propres principes, valeurs ou opinions à un être humain ».

Source : The Guardian
Bastien Contreras
Par Bastien Contreras

Ingénieur télécom reconverti en rédacteur web. J'écris sur les high tech, les jeux vidéo, l'innovation... J'ai d'ailleurs été responsable d'accélérateur de startups ! Mais je vous réserve aussi d'autres surprises, que vous pourrez découvrir à travers mes articles... Et je suis là aussi si vous voulez parler actu sportive, notamment foot. Pour ceux qui ne connaissent pas, c'est comme du FIFA, mais ça fait plus mal aux jambes.

Vous êtes un utilisateur de Google Actualités ou de WhatsApp ?
Suivez-nous pour ne rien rater de l'actu tech !
Commentaires (0)
Rejoignez la communauté Clubic
Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.
Commentaires (10)
Yorgmald

Comment peut-on avoir l’idée de dire salope a un assistant vocale???
Déjà que dans la vie je ne vois pas l’utilité d’insulter…

GRITI

Est-ce que Siri (et tout autre assistant vocal) donne des réponses différentes à des questions du genre histoire, géopolitique etc… selon la localisation de la personne qui pose la question?
Peut-on imaginer, à terme, que les assistants vocaux, une fois que les sociétés derrière auront assez d’informations, donneront des réponses biaisées afin d’influencer ceux qui ont posé la question (période pré-électorale, de crise contestataire…)? Un peu comme Google ou Facebook.
Les assistants vocaux peuvent être de puissants outils pour des expériences sociales à très grande échelle (comme l’avait fait Facebook).

GRITI

Je pense qu’il y a eu bien pire comme termes utilisés envers Siri ou Alexa…

Matrix-7000

Bonjour GRITI.
Ce sont des très bonnes questions que tu poses là! Et cela fait froid dans le dos. On peut tout imaginer. Et la soit disant intelligence artificiel est toujours biaisée par les raisonnements intrinsèques de leurs créateurs/programmeurs. C’est un débat, qui selon moi, n’est pas suffisamment abordé. "comme le dit le Professeur dans Jurrassic Park, avant de se demander si on peut le faire, il serait sage de se demander si on doit le faire.
Est-ce que l’être humain dans sa globalité sera plus heureux avec ça, ou est-ce de nouveau une tac tic commerciale pour s’imposer?

GRITI

Merci :blush:

La preuve avec avec Apple et la reconnaissance faciale qui ne détectait pas les gens avec une peau sombre (noire ou très mate je ne sais plus).

Popoulo

Pas la peine d’essayer de s’imaginer, c’est quand même un peu déjà le cas ici même en Europe. Les médias, l’éducation, le système judiciaire etc… sont déjà à genoux devant la ou les “pensée(s) unique(s)”. Un moyen de plus pour formater le petit peuple, même si c’est plus trop la peine…

GRITI

J’aurai tendance à être…très d’accord…:wink:
Mais ces petit gadgets high tech sont presque à 100% du temps avec nous, où que l’on soit. Et en savent potentiellement bien plus sur nous que les différents systèmes évoqués. De plus, pour beaucoup, cela reste un objet anodin…qui a un joli nom etc… Ils sont/seront tellement intégrés dans nos quotidiens que l’on ne s’en rendra plus compte et c’est là que nous sommes le plus vulnérables.
De là à ce que ces gadgets sélectionnent pour nous les d’info à regarder etc…

nirgal76

Faut s’en tenir à les utiliser comme gadget. combien font 5.45665 / 6.47, quel temps fera-t’il demain, allume la lumière, j’ai quoi à faire demain, passe l’aspirateur, lance un compte à rebours de x minutes, passe tel morceau de musique, tel série tv etc…
Ne rien lui demander dans des domaines où il peut influencer ou faire une sélection “partisane”. qu’il n’ai pas à choisir lui même. Par exemple, lui demander les news du jour, c’est déjà trop, il fait déjà une sélection et donc influence, tout comme lui demander de juste mettre de la musique sans autre précision.

PirBip

Pas mal l’oxymore, “les pensées uniques”. C’est bien donc qu’il y a plusieurs pensées !

leulapin

C’est plus compliqué que ça, et surtout lié à la technologie à ma connaissance : Les peaux noires ont moins de contrastes donc la détection est plus complexe et ne peut autant se baser dessus que sur des personnes à peau plus claire.
Si tu regardes comment les africains règlent leurs appareils photos pour les portraits, la balance des blancs s’écarte quand même notablement des couleurs justes. Ceci pour avoir des nuances de grain de peau sur les photos. C’est pas juste des informaticiens blancs qui s’en foutent des peaux noires je pense.
A l’époque où ces pb se sont posés il n’y avait pas dans les capteurs la puissance (et pas de multiples capteurs) de calcul pour détecter et modifier la luminosité des visages noirs et faciliter la détection ainsi… ce type de pb s’était posé dans les mêmes termes avec les caméras sur les consoles xbox/sony d’il y a 10-15 ans d’ailleurs qui ne détectaient pas les joueurs noirs si la luminosité de la pièce n’était pas poussée. Le souci n’est pas nouveau et il est surtout technique.

Abonnez-vous à notre newsletter !

Recevez un résumé quotidien de l'actu technologique.

Désinscrivez-vous via le lien de désinscription présent sur nos newsletters ou écrivez à : [email protected]. en savoir plus sur le traitement de données personnelles