Le Government Accountability Office (GAO) publie un rapport sur les effets de l’IA générative. L’agence pointe un manque de transparence des entreprises du secteur, qui rend difficile l’évaluation de son impact environnemental et humain. Les risques liés à l'usage massif de ces technologies restent encore très mal documentés.

Le Government Accountability Office est l'organisme d'audit, d'évaluation et d'investigation du Congrès des États-Unis chargé du contrôle des comptes publics du budget fédéral des États-Unis. Il fait partie de la branche législative du gouvernement fédéral des États-Unis. - © T. Schneider / Shutterstock
Le Government Accountability Office est l'organisme d'audit, d'évaluation et d'investigation du Congrès des États-Unis chargé du contrôle des comptes publics du budget fédéral des États-Unis. Il fait partie de la branche législative du gouvernement fédéral des États-Unis. - © T. Schneider / Shutterstock
L'info en 3 points
  • Le GAO dénonce le manque de transparence des entreprises d'IA, compliquant l'évaluation des impacts environnementaux et sociaux.
  • L'impact écologique réel de l'IA générative est flou en raison d'une faible communication des grandes entreprises du secteur.
  • Les conséquences humaines mal comprises incluent des suppressions d'emplois et des menaces sur la cybersécurité, faute de recherches indépendantes.

L’intelligence artificielle évolue vite, parfois plus vite que la capacité des institutions à en mesurer les conséquences. Le Government Accountability Office, organisme chargé de conseiller le Congrès américain, vient de publier une nouvelle évaluation des effets de l’IA générative.

L’agence s’inquiète d’un manque d’informations critiques de la part des entreprises, ce qui empêche d’évaluer précisément la consommation énergétique, les émissions de carbone ou encore les conséquences sociales de ces technologies. Alors que l’administration Trump multiplie les initiatives pour déployer l’IA dans le secteur public, la question de l'impact à long terme reste largement ouverte.

L'impact environnemental réel de l'IA générative reste difficile à évaluer sans accès aux données nécessaires

Le rapport du GAO est clair. Malgré l'essor spectaculaire des IA génératives, personne ne sait exactement combien d’énergie elles consomment ni quelles quantités de CO2 elles produisent réellement. L'agence souligne que « l'entraînement et l'utilisation de l'IA générative peuvent entraîner une consommation d'énergie, des émissions de carbone et une consommation d'eau substantielles », mais que très peu d’informations fiables circulent.

Le problème vient surtout du silence des développeurs privés. Les grands acteurs du secteur, comme OpenAI ou Anthropic, publient peu, voire pas du tout, de données précises sur les ressources utilisées pour entraîner et faire tourner leurs modèles. Sans ces informations, impossible pour les chercheurs indépendants d’évaluer l’impact écologique de manière rigoureuse.

La plupart des études existantes se concentrent sur l’entraînement initial des modèles, décrit comme particulièrement énergivore. En revanche, l'utilisation quotidienne de ces IA, qui mobilise aussi d'importantes ressources sur la durée, reste très peu documentée.

Il existe aussi un angle peu exploré : la consommation d’eau liée au refroidissement des centres de données. Dans certaines régions, déjà marquées par des pénuries d’eau, l’installation de grandes infrastructures pour alimenter l'IA pourrait aggraver les tensions locales. Pourtant, aucune évaluation systématique n’est disponible.

Le GAO recommande de renforcer les obligations de transparence pour les entreprises technologiques. Il rappelle que si des politiques publiques ne sont pas mises en place rapidement, la croissance de l'IA pourrait continuer sans que personne ne mesure réellement son coût environnemental.

 L'administration Trump encourage l'intégration de l'IA dans les services publics, notamment par la création d'un groupe de travail dédié à l'éducation - ©Rokas Tenys / Shutterstock
L'administration Trump encourage l'intégration de l'IA dans les services publics, notamment par la création d'un groupe de travail dédié à l'éducation - ©Rokas Tenys / Shutterstock

Les conséquences humaines de l'IA générative restent largement floues faute de transparence et d’évaluations indépendantes

Le rapport du GAO dresse aussi un constat sévère sur les risques humains liés à l'IA générative. Suppressions d'emplois, manipulation de l'information, atteintes à la vie privée, menaces sur la cybersécurité : autant d'effets possibles qui restent très mal compris faute de données fiables.

L’agence note que « l'IA générative peut entraîner des déplacements de travailleurs, favoriser la diffusion de fausses informations et créer ou accroître des risques pour la sécurité nationale ». Mais tant que les entreprises refuseront de publier des informations sur la manière dont leurs modèles sont conçus et entraînés, il restera difficile d’évaluer la portée exacte de ces risques.

Le GAO alerte aussi sur un point souvent sous-estimé. Si des décisions importantes, comme l'attribution de crédits, le recrutement ou l'accès aux soins, s’appuient sur des systèmes biaisés ou opaques, les effets pourraient se prolonger sur plusieurs générations.

Le contexte politique n’aide pas à freiner cette dynamique. L'administration Trump encourage l'intégration de l'IA dans les services publics, notamment par la création d'un groupe de travail dédié à l'éducation. Plusieurs garde-fous instaurés sous l'administration précédente ont été levés. Les États-Unis ont également choisi de ne pas signer les accords internationaux récents, comme celui du sommet de Paris sur l’IA inclusive.

Le GAO appelle à une multiplication des recherches indépendantes et à l'instauration d'exigences de transparence plus strictes pour les entreprises.

Source : Mashable, GAO