Au centre des préoccupations : la propagation d'informations erronées  © PopTika / Shutterstock
Au centre des préoccupations : la propagation d'informations erronées © PopTika / Shutterstock

L'Organisation mondiale de la Santé (OMS) tire la sonnette d'alarme. L'IA peut représenter un risque pour les pays à plus faibles revenus à mesure qu'elle gagne du terrain dans le secteur médical. Une régulation de la part des décideurs politiques devient de plus en plus urgente.

Dans un récent rapport intitulée Ethics and governance of
artificial intelligence for health
, l'OMS s'est exprimé au sujet des LLM (Large Languages Models). C'est le terme technique pour désigner les systèmes d'IA générative programmés pour traiter le langage naturel, comme Google Bard ou ChatGPT. Si le développement de ces technologies émergentes est laissé aux mains des pays riches et des entreprises, elles pourraient impacter négativement les pays à faibles revenus, notamment dans le domaine de la santé.

Si les données des populations les moins ressourcées ne sont pas utilisées pour entraîner ces modèles, cela pourrait induire des biais dans l'algorithme. L'inégalité d'accès à ces nouvelles technologies est aussi un facteur aggravant.

Inégalités et biais potentiels

Lors d'une conférence de presse, Alain Labrique, directeur du numérique et de l'innovation à l'OMS, a déclaré : « la dernière chose que nous voulons voir se produire avec cette avancée technologique est la propagation ou l'amplification des inégalités et des biais dans le tissu social des pays du monde entier ». Une inquiétude qui va dans le sens d'un des derniers rapports du FMI concernant l'impact de l'IA sur les inégalités salariales. Avec la popularité explosive des LLM grand public, l'OMS a déjà dû actualiser ses directives concernant l'IA, moins de trois ans après leur première publication en 2021.

L'OMS souligne que les LLM ont été « adoptés plus rapidement que toute autre application grand public dans l'histoire ». Capable de produire des images, du texte ou des vidéos, il est de plus en plus fréquent de voir le secteur de la santé s'en emparer. Notre époque est un peu celle du Far West de l'IA ; l'OMS craint un phénomène de nivellement par le bas, où un grand nombre d'entreprises, pressées par la concurrence, s'empresseraient de développer des modèles d'IA de piètre qualité. Un autre risque évoqué est celui d'un effondrement des modèles, un grand cycle de désinformation dans lequel les LLM entraînés à partir de données faussées propageraient des informations erronées en polluant les sources d'information publiques.

Un autre aspect à considérer est celui de l'inégalité d'accès aux LLM. L'OMS explique à la page 21 de son rapport : « la fracture numérique […] limite l'utilisation des outils numériques à certains pays, régions ou segments de la population. Cette fracture entraîne d'autres inégalités, qui affectent l'utilisation de l'IA, et l'IA elle-même peut renforcer et aggraver ces disparités ».

L'OMS craint également de voir les populations les plus démunies utiliser des LLM gratuits pour s'informer en substitut à de réels professionnels de santé, dont seuls les individus les plus riches pourraient se payer les services. Un problème majeur étant que la plupart de ces modèles sont programmés en anglais. « Ainsi, bien qu'ils puissent recevoir des entrées et fournir des sorties dans d'autres langues, ils sont plus susceptibles de générer des informations fausses ou erronées » explique l'organisme.

Le monopole du secteur privé sur les technologies reposant sur l'IA inquiète, à juste titre  © PeopleImages.com - Yuri A / Shutterstock
Le monopole du secteur privé sur les technologies reposant sur l'IA inquiète, à juste titre © PeopleImages.com - Yuri A / Shutterstock

La réglementation et la formation comme seuls cordons de sécurité ?

L'OMS insiste sur l'importance d'établir un réel cadre réglementaire pour réguler le développement et l'utilisation des technologies fondées sur l'IA. À la manière de la Loi sur l'intelligence artificielle de l'UE, « les gouvernements de tous les pays doivent diriger de manière coopérative les efforts pour réguler efficacement le développement et l'utilisation des technologies d'IA » affirme Labrique. Une autre recommandation de l'OMS est d'accroître la participation de la société civile au développement de ces modèles de langage. Pour le moment, le développement des outils d'IA comme les LLM est loin d'être participatif.

L'OMS met également en garde contre la « captation industrielle » du développement des LLM. En effet, au vu des coûts très élevés de leur développement et de leur maintenance, la plupart des géants de la tech ont déjà devancé les gouvernements et universités dans la recherche en IA. « Un nombre sans précédent » de doctorants quittent déjà le milieu académique pour aller travailler dans le privé. Autre point important que l'OMS développe dans son rapport : la nécessité de proposer aux développeurs de LLM une formation éthique, à l'instar de celle des médecins. Une sorte de « Serment d'Hippocrate de l'IA », qui garantirait une conduite plus responsable dans la création et les applications de ces modèles.

Si l'IA appliquée au domaine médical porte en elle un formidable potentiel, il ne faut pas nier les risques qu'elle représente. Rien de nouveau sous le soleil, puisque ces risques concernent davantage les pays les moins dotés en ressources, d'où le caractère urgent de la situation. Tant que le secteur privé marchera en tête du troupeau en boudant la collaboration avec les institutions politiques, cette épée de Damoclès restera suspendue dans les airs.