© rafapress / Shutterstock
© rafapress / Shutterstock

Ce seraient quelques dizaines de milliers de faux comptes qui auraient servi à collecter les informations de quelques centaines de milliers de profils utilisateur.

Les outils d'analyse basés sur l'intelligence artificielle sont de plus en plus performants, au point de voir émerger des solutions capables, sur le papier, de prédire des comportements criminels. Mais ces solutions peuvent reposer sur des données collectées en ligne, et l'une d'entre elles vient d'entrer en collision avec les conditions d'utilisation de Facebook, donnant un aperçu de l'étendue des moyens mis en œuvre.

Profiler pour prédire des comportements criminels

Dans un billet de blog daté du 12 janvier, Meta a annoncé une action en justice contre une société nommée Voyager Labs. En effet, la maison mère de Facebook allègue que plus de 38 000 faux comptes utilisateurs ont été créés sur son réseau social. Grâce à ceux-ci, un logiciel de surveillance aurait collecté les données de plus de 600 000 profils entre juillet et septembre 2022. Meta demande à la justice d'interdire à Voyager Labs l'accès à l'ensemble de ses réseaux sociaux et services associés, mais également une compensation financière, le plaignant affirmant que la société d'analyse se serait injustement enrichie à ses dépens.

Au total, 60 000 faux comptes et pages liés à Facebook et Instagram ont été désactivés, mais d'autres réseaux sociaux seraient surveillés par la même entreprise, notamment Twitter, YouTube et Telegram. Voyager Labs analyse massivement l'activité des utilisateurs pour en dresser un profil en vue d'une éventuelle activité criminelle à venir. Si tout cela a un arrière-goût de roman dystopique, cela n'a rien de fictionnel. En effet, The Guardian a rapporté, en 2021, que l'entreprise avait déjà collaboré avec le département de police de Los Angeles.

Minority Report en version bêta

Si la surveillance de l'activité des utilisateurs est préjudiciable, l'efficacité de telles solutions reste à démontrer. En effet, elles seraient défectueuses et leurs algorithmes, pas assez avancés, ne seraient pas en mesure de prédire avec pertinence et efficacité la criminalité. De plus, un audit au sein de la police de Los Angeles aurait révélé que cette technologie est incohérente, et biaisée sur le plan social et racial. La police de La Nouvelle-Orléans en a d’ailleurs déjà fait les frais récemment.

Il est encore ardu de prédire jusqu'où ira l'utilisation de ce type d'outils. En attendant, un responsable de Meta émet des doutes quant à la conduite de leurs fournisseurs :

Les entreprises comme Voyager font partie d'une industrie qui fournit des services de récupération de données à n'importe qui, quels que soient les utilisateurs qu'elles ciblent et dans quel but, y compris comme moyen de profiler les gens pour des comportements criminels. Cette industrie collecte secrètement des informations que les gens partagent avec leur communauté, leur famille et leurs amis, sans surveillance ni responsabilités, et d'une manière qui peut impliquer les droits civils des personnes.

Source : The Verge