© rokas91 / Shutterstock
© rokas91 / Shutterstock

De plus en plus de régulateurs annoncent des mesures ou des enquêtes visant à mieux encadrer ChatGPT et l'usage de l'intelligence artificielle plus globalement. Tour d'horizon des décisions prises par les pays qui se sont exprimés jusqu'à présent.

L'Italie a été la première à agir. Estimant qu'OpenAI avait enfreint le RGPD avec ChatGPT, le pays a décidé de bloquer son accès jusqu'à ce que l'entreprise se remette en règle.

Plusieurs pays dénoncent un non-respect des données personnelles

L'Allemagne a rapidement réagi à l'annonce italienne en expliquant qu'elle n'excluait pas la possibilité de suspendre ChatGPT. Dans la foulée, le Canada a lancé une enquête à propos de l'IA d'OpenAI et de ses possibles violations de la législation sur les données personnelles. En France, la CNIL a pour sa part révélé avoir reçu deux plaintes portant elles aussi sur la protection des données.

Les choses sont également en train de bouger en Espagne. L'agence de protection des données du pays a demandé au Comité européen de la protection des données d'évaluer les problèmes de protection de la vie privée liés à ChatGPT. L'organisme espagnol espère qu'à travers cette démarche, « des actions harmonisées » au sein de l'Union européenne (UE) pourront être mises en œuvre dans le cadre de l'application du RGPD.

© sinonimas / Shutterstock
© sinonimas / Shutterstock

Encadrer l'usage de l'IA de manière globale

Des préoccupations se font également entendre aux États-Unis. Après que Joe Biden a déclaré la semaine dernière qu'il restait à voir si l'intelligence artificielle était dangereuse, rejetant la responsabilité quant à la sûreté de leur produit sur les entreprises qui la développent, le gouvernement américain durcit lui aussi le ton à l'égard de la technologie.

La National Telecommunications and Information Administration (NTIA), agence du département du commerce qui conseille la Maison-Blanche, s'est exprimée sur d'éventuelles mesures de responsabilisation pour les systèmes d'intelligence artificielle afin de garantir qu'ils soient « légaux, efficaces, éthiques, sûrs et dignes de confiance ». Dans ce sens, elle va établir un rapport sur les « efforts visant à garantir que les systèmes d'IA fonctionnent comme prévu et sans causer de dommages ».

« Les systèmes d'IA responsables pourraient apporter d'énormes avantages, mais seulement si nous nous attaquons à leurs conséquences et inconvénients potentiels. Pour que ces systèmes atteignent leur plein potentiel, les entreprises et les consommateurs doivent pouvoir leur faire confiance », commente Alan Davidson, administrateur de la NTIA.

Vraisemblablement, les gouvernements veulent mieux encadrer les usages de l'intelligence artificielle, dont l'utilisation et le déploiement évoluent de manière exponentielle depuis plusieurs mois. Si les réglementations vont différer selon les pays, l'UE est sur la voie pour légiférer à l'échelle du bloc sur cette technologie à travers l'AI Act, un texte en développement dont l'objectif sera de réguler l'utilisation de l'IA en Europe.

  • Chat dans différentes langues, dont le français
  • Générer, traduire et obtenir un résumé de texte
  • Générer, optimiser et corriger du code
10 / 10

Source : Reuters