L'algorithme est bête souvent, méchant parfois. C'est un peu ce qui ressort du document de 29 pages qui vient d'être publié par l'administration Obama. Prenant soin de ne pas être taxé de rétrograde ou technophobe, le texte ne manque pas pour autant de lister les dérives actuelles de telles pratiques :
- Beaucoup d'américains ne parviennent pas à obtenir de crédits car ils ne sont pas listés dans les bons fichiers.
- Les nouvelles techniques de recrutement excluent de façon inexpliquée des candidats qui ont pourtant les compétences requises.
- Les étudiants sont de plus en plus nombreux à se voir refuser l'accès aux études supérieures pour des motifs arbitraires et peu clairs.
- La volonté croissante de l'exécutif d'utiliser les nouvelles techniques d'analyse de données peuvent représenter un risque.
Le rapport explique qu'il ne faut pas écouter les données aveuglément : selon Megan Smith - qui appuie sur les analyses de bon nombre d'universitaires -, un risque existe que l'homme délègue sa pensée et son analyse contre celle des algorithmes, et de cette dérive il faudrait se prémunir.
Le rapport « Big data: entre opportunité et droits fondamentaux » a été produit par le premier cercle des collaborateurs de Barack Obama
D'abord, elle explique que le big data ne répond pas au rêve d'objectivité qu'on voudrait bien lui prêter, où les chiffres parlent d'une seule voix, débarassée de la pesante subjectivité humaine. Selon la chercheuse Kate Crawford qui a servi de consultante dans l'établissement du rapport, les chiffres gardent toujours la trace de la pensée humaine : « On donne aux chiffres une voix, on leur soutire des conclusions hatives, leur trouvons un sens grâce à nos propres interprétations. »
Car c'est un peu le miroir aux alouettes du big data : penser que cette technique nous délivre enfin des parti-pris et préjugés humains, d'autant plus imparfaits qu'ils sont pour la plupart « inconscients », lit-on dans le rapport. Ainsi Megan Smith nous montre à quel point il est urgent d'exclure cette tentation de l'esprit, car ces parti-pris que nous fuyons, « sont aussi présents non seulement dans la collecte mais aussi dans l'analyse faite par les algorithmes auto-apprenants. »
« Il n'y a pas de données brutes »
La solution avancée par le dossier serait un « plan d'équité », appliqué à tous les systèmes d'extraction de données en masse. Celui-là préconise d'abord une transparence totale sur les algorithmes utilisés par les différentes institutions, et demande à ce que les « départements » d'analyse de données (en entreprise), respectent un « principe de responsabilité » : « les individus doivent garder le pouvoir de corriger des données qu'ils jugeraient incorrectes, ou même de contester les décisions prises par les algorithmes. »Megan Smith est directrice technique de l'administration d'Obama
Evoquée également, la possibilité de rendre interdite l'utilisation des données relatives aux réseaux sociaux, qui selon Megan Smith peut vite aboutir à une utilisation « abusive, discriminatoire et intrusive de la donnée. » Ce plan institutionnaliserait aussi la mise en commun du travail des data scientists avec celui des sociologues et des docteurs en sciences humaines (philosophie, linguistique psychologie...), afin que chaque conclusion soit prise à l'aune du contexte particulier qui englobe chaque donnée brute.
D'ailleurs pour Lisa Gitelman, une autre spécialiste du sujet, il n'y a pas de donnée brute, « le terme même de donnée brute est une oxymore ». Un point de vue qui amène les chercheurs comme Kate Crawford à statuer : « il faut arrêter de se focaliser sur le terme "big" de big data, il faut quelque chose de plus tridimensionnel, de la data "with depth" (avec de la profondeur). »
A lire également