Twitter, raciste ? Sur une photo, l'algorithme de recadrage aurait tendance à privilégier systématiquement les visages d'individus blancs…
Les algorithmes ne sont pas neutres. Utilisés notamment par la justice ou la police, ils comportent des biais, souvent racistes, qui favoriseraient certaines personnes plutôt que d'autres. Sur Twitter aussi ? Explications.
Un filtre blanc sur les photos ?
Ce n’est plus un secret : Twitter utilise le machine learning depuis 2018 pour recadrer les photos. Or ce weekend, des utilisateurs ont pointé du doigt un biais raciste. L’algorithme privilégierait en effet les visages blancs au détriment des visages de couleurs.
Lorsqu’un visage mat et un visage clair sont présents sur une même photo, c’est sur ce dernier que le recadrage est automatiquement effectué par Twitter.
Démonstration :
Si l’expérience ne suit pas une méthode scientifique, les tests effectués vont dans le même sens. Conséquence : le problème est remonté jusqu’aux dirigeants de Twitter, qui se sont emparés de la question.
Twitter fait la mise au point
Dans la foulée, le chief design officer de Twitter, Dantley Davis, a donc annoncé qu’une enquête était en cours afin de déterminer les causes de ce biais.
En postant à nouveau une série de tests, Dantley Davis tente de montrer que l’algorithme ne se base pas uniquement sur la couleur des visages, mais aussi sur d’autres variables (indéterminées pour le moment).
Encore une fois, ces tests ne sont pas scientifiques, et ne permettent pas encore de tirer des conclusions sur le fonctionnement de l’algorithme.
Selon Liz Kelley, membre de l’équipe de communication de Twitter, aucune preuve d’un biais racial ou genré n'aurait été mis en évidence par les équipes de Twitter. « Nous mettrons nos travaux en open source afin que d’autres puissent les relire et les dupliquer, » a-t-elle déclaré dimanche.
Affaire à suivre…
Source : The Verge