Google retire les pronoms « elle » et « il » des suggestions automatiques de Gmail

Mathieu Grumiaux
Par Mathieu Grumiaux, Expert maison connectée.
Publié le 28 novembre 2018 à 21h14
Gmail Smart Compose

Les pronoms sont désormais retirés des suggestions intelligentes de Gmail. Google veut éviter de confondre le genre de la personne à qui l'utilisateur répond.

Les algorithmes sont encore perfectibles face à la définition du genre

Google fait un nouveau pas dans la lutte contre la discrimination liée au genre. Le moteur de recherche va retirer les pronoms genrés de son outil de suggestion automatique intégré dans Gmail. Les propositions seront neutres pour éviter toute erreur sur le genre supposé de la personne à qui l'utilisateur composer un e-mail.

L'entreprise a essayé de trouver des solutions en se basant sur ses techniques d'apprentissage automatique, avant d'arriver à la conclusion qu'aucun dispositif ne pouvait prédire le genre d'un individu. Google a préféré jouer la sécurité, en raison de ses efforts de représentation des personnes LGBTQ et abandonner les algorithmes pour ce cas précis.

Source : Reuters
Mathieu Grumiaux
Par Mathieu Grumiaux
Expert maison connectée

Journaliste pour Clubic, je couvre essentiellement les sujets concernant la maison connectée et les objets connectés, mais aussi les dernières nouvelles de l'industrie du streaming vidéo, entre autres sujets. Je suis également l'actu d'Apple, marque qui m'accompagne depuis mon premier iPod mini en 2005 (ça ne nous rajeunit pas…)

Vous êtes un utilisateur de Google Actualités ou de WhatsApp ?
Suivez-nous pour ne rien rater de l'actu tech !
Commentaires (0)
Rejoignez la communauté Clubic
Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.
Commentaires (10)
Felaz

C’est corrigé, merci

fraizer

comment créer une population de dégénéré sans base et valeur… -_-

Blap

Ca fait longtemps que’elle est dégénérée, mais la société va en s’améliorant notamment en valeurs. Enfin des fois on se pose des questions en lisant les commentaires sur internet :smiley:

CM35

“JE NE SUIS PAS UN HOMME, Monsieur.” :joy:

gosupermario

Grande nouvelle pour la communauté des LGBTQFGSFDS+

Prochaine etape retirer les statements “>” et “<” des languages de programmation: c’est très oppressant pour les integer.

tampigns

Donc on perd en efficacité (basée sur de la statistique et donc pas sur une éventuelle denigration) pour ne pas “oppresser” une minorité…
Non mais sérieusement… le problème de ce genre de “limitation” c’est que ca crée des tensions entre communautés. On renforce la différence au lieu de la rendre normale et compréhensible.

PirBip

Tu te trompes de cible.

La vérité c’est que les AI sont très imparfaites pour faire des équations sémantiques, c’est-à-dire que la déduction du genre est impossible sur la base des données en entrée. Si tu fais :

Roi - Homme + Femme = ?

L’AI est capable de te sortir :

Roi - Homme + Femme = Reine

Ce qui est tout a fait plausible. En revanche si tu lui mets ceci dans le pif :

Docteur - Homme + Femme = ?
ou alors
Directeur - Homme + Femme = ?

L’AI va te sortir une réponse du genre

Docteur - Homme + Femme = Infirmière.
ou alors
Directeur - Homme + Femme = Secrétaire

C’est donc une erreur. Toi, en tant qu’individu , tu diras docteur <=> doctoresse ou Directeur <=> Directrice. Or l’IA, nourrie des données et des statistiques, fera systématiquement les amalgames.

PirBip

Ce n’est pas une histoire d’oppression de minorité, comme l’entend Clubic et son sous-entendu de l’image de Google face aux LGBTQ qui est très mal venue, mais le fait qu’une IA est un phallus en équations de sémantique. Voir ma réponse à gosupermario.

Popoulo

Joli “Edit” de votre com en réponse à gosupermario. Merci pour lui :slight_smile:
C’est super intéressant ce que vous dites PirBip. Mais effectivement, si on ne connait pas trop le domaine, d’après l’article, on déduit la même chose que gosupermario sans penser plus loin.
Alors merci pour toutes ces précisions et votre analyse qui font voir le problème sous un autre angle.

tampigns

Mais on s’en moque d’avoir des erreurs car ce sont des propositions et pas des réponses donc comme on se base sur des statistiques, on SAIT que dans la majorité des cas, on gagnera du temps.

Abonnez-vous à notre newsletter !

Recevez un résumé quotidien de l'actu technologique.

Désinscrivez-vous via le lien de désinscription présent sur nos newsletters ou écrivez à : [email protected]. en savoir plus sur le traitement de données personnelles