Amazon aurait utilisé (et abandonné) un outil de recrutement sexiste

Louise Millon
Publié le 11 octobre 2018 à 07h53
Amazon entrepôt

La compagnie de ecommerce se serait débarrassée d'un outil de recrutement basé sur l'intelligence artificielle, après avoir découvert que celui-ci pénalisait largement les femmes à l'embauche.

Selon un rapport réalisé par l'agence de presse Reuters, Amazon aurait abandonné ce projet interne après avoir jugé que les candidatures féminines étaient mises de côté au profit de celle des hommes. En effet, l'outil basé sur l'intelligence artificielle exploité pour analyser les demandes excluait l'essentiel des documents contenant le mot « femme ».

La tentation de l'automatisation poussée à l'extrême

Comme le précise Reuters, l'objectif initial de l'outil était d'accélérer le processus d'embauche. En effet, une source a déclaré à ce sujet : « Tout le monde voulait ce Saint Graal [...] Ils voulaient littéralement qu'il s'agisse d'une machine qui, en analysant 100 CV, en cracherait les 5 meilleurs ». Si l'équipe en charge du projet a tenté de modifier ce biais sexiste dès qu'elle s'est aperçue de son existence, d'autres préjugés ont pu se glisser à sa place.

Amazon travaillerait sur l'outil depuis 2014 avant de se rendre compte, un an plus tard, de la discrimination faite à l'égard des femmes. La prise en compte de cette vision biaisée n'est pas sans représenter un aspect réel des conditions de travail au sein de la firme, à savoir que la présence des hommes est prédominante.

Finalement, le projet a été dissous au début de l'année dernière car les cadres d'Amazon ont perdu l'espoir d'arriver à en tirer de bons résultats. Pour sa part, la compagnie n'a pas souhaité commenter, mais elle a indiqué qu'elle était engagée pour la diversité et l'égalité au travail.

Un outil d'Amazon déjà visé pour discrimination

Une fois de plus, ces révélations ne font qu'attester d'un élément qui constitue l'un des dangers inhérents à l'intelligence artificielle. Si l'on parle de machine, il ne faut pas oublier que l'origine de tels outils reste l'homme, ses imperfections et ses préjugés pouvant être transmis à la machine.

Pour rappel, l'ACLU, une association américaine militant en faveur des libertés civiles, avait déjà épinglé Amazon et son outil de reconnaissance faciale. Pour ce faire, elle avait comparé les photos des membres du Congrès avec celles de criminels américains. En plus d'établir 28 correspondances fallacieuses, l'outil a particulièrement accusé les membres afro-américains, alors que ceux-ci ne sont pas très nombreux au Congrès. De fait, 39% des soi-disant criminels étaient afro-américains là où ces derniers constituent moins de 20% de l'institution.
Louise Millon
Par Louise Millon

Rédactrice web. Intéressée par les réseaux sociaux et la question des données personnelles. J'aime écrire et surfer.

Vous êtes un utilisateur de Google Actualités ou de WhatsApp ?
Suivez-nous pour ne rien rater de l'actu tech !
Commentaires (0)
Rejoignez la communauté Clubic
Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.
Commentaires (7)
BetaGamma

Plutôt que de faire les pleureuses et hurler au loup, Le plus utile serait de comprendre pourquoi un outil objectif et technologique a décidé de prioriser des profils masculins…

greyvador

Simplement parce que l’IA n’invente pas des règles mais ne fait que reproduire les biais des êtres humains qui “l’éduque”.
Exemple caricatural pour comprendre : Si on donne à une IA des données du temps de l’esclavagisme, il considérera que certains êtres sont inférieurs.
Dans le cas d’Amazon, s’ils ont pris les recrutements des années précédentes, peut-être trop sexistes, cela a introduit un biais.

KaspOu

Les “pleureuses”, ah parce que une pleureuse c’est pire qu’un pleureur ? Il faut avoir des seins pour pleurer ?
Bel exemple de biais…

tmtisfree

La réponse est simple : c’est parce que les “profils masculins” sont plus adaptés (traits, compétence, force physique, etc.) aux opérations d’Amazon.

La même raison qui fait qu’on retrouve une majorité d’hommes en STEM. Ou de femmes dans les professions “sociales” (bizarrement, personne ne vient couiner de cette distribution complètement “sexiste” et inégalitaire).

En fait dans les pays où on a poussé le plus à l’égalité au niveau éducationnel, économique et législatif (typiquement les pays nordiques), ce sont dans ces pays qu’on retrouve les différences et distributions professionnelles entre hommes et femmes les plus marquées. Oh l’ironie !

Le biais “sexiste” n’existe que dans la tête dérangée des égalitaristes forcenés qui font la pluie et le beau temps idéologique dans les merdias FR.

lordypakna

Toi tu n’as jamais travaillé dans le bâtiment, c’est un milieu très patriarcal.

nrik_1584

Un peu de culture générale ça fait jamais de mal avant de polémiquer sur des expressions françaises : https://fr.wikipedia.org/wiki/Pleureuse_(profession)

greyvador

:slight_smile:
Et bien justement, Le patriarcat est « une forme d’organisation sociale et juridique fondée sur la détention de l’autorité par les hommes »
Donc comme c’est basé sur cela, normal que l’IA ne fasse que reproduire !

Abonnez-vous à notre newsletter !

Recevez un résumé quotidien de l'actu technologique.

Désinscrivez-vous via le lien de désinscription présent sur nos newsletters ou écrivez à : [email protected]. en savoir plus sur le traitement de données personnelles