Si les États-Unis sont à la pointe du développement des modèles d'IA générative les plus sophistiqués, ils peinent à imposer un cadre réglementaire adapté. La situation semble toutefois évoluer doucement, avec plusieurs avancées ces dernières semaines.
Popularisée par le lancement de ChatGPT fin 2022, cette technologie est considérée comme révolutionnaire. Les experts préviennent toutefois des nombreux risques qu'elle présente, notamment vis-à-vis de l'emploi, de la propagation de fausses informations, ou encore des potentiels biais algorithmiques dont les modèles peuvent faire preuve.
Alors que les géants de la technologie se sont lancés dans une course effrénée au développement de l'IA, la réglementer devient une nécessité. Au sein de l'Union européenne, l'AI Act est déjà entré en vigueur. Il établit un cadre juridique clair pour l'utilisation de l'intelligence artificielle, en plus d'imposer des mesures strictes aux fournisseurs, déterminées selon les risques soulevés par leurs modèles.
Outre-Atlantique, les régulateurs semblent bien moins pressés que leurs homologues européens. Aucune loi fédérale n'a été promulguée pour réguler l'IA, bien qu'un décret signé par Joe Biden en octobre 2023 ait ouvert la voie à un encadrement de la technologie. Si plusieurs géants du secteur à l'instar de Google, Meta, Microsoft ou OpenAI se sont engagés à développer des modèles de manière responsable, ces promesses ne sont assorties d'aucune obligation légale.
OpenAI et Anthropic acceptent de faire évaluer leurs modèles
Les autorités américaines ne sont pas restées inactives pour autant. L'année dernière, l'US AI Safety Institute voyait le jour. Visant à promouvoir le développement et le déploiement de l'IA de manière saine en mitigeant ses risques, il doit faire appliquer le décret du président démocrate grâce à un consortium de 200 entreprises.
L'instance va notamment se concentrer sur les tests, l'évaluation et l'élaboration de lignes directrices pour accompagner l'évolution de la technologie. Et bonne nouvelle, OpenAI et Anthropic, deux des start-up les plus puissantes du secteur, ont conclu un accord avec cette dernière et lui permettront d'accéder à leurs modèles avant et après leur diffusion publique. Objectif : évaluer leurs capacités et leurs risques pour la sécurité, et élaborer des méthodes d'atténuation de ces risques.
« Ces accords marquent une étape cruciale alors que nous nous efforçons de guider de manière responsable l'avenir de l'IA », s'est félicitée Elizabeth Kelly, directrice de l'US AI Safety Institute.
La Californie en potentielle pionnière
Faute de législation à l'échelle fédérale, certains États ont également pris la décision d'agir. Ce 29 août, la Chambre des représentants et le Sénat de la Californie ont adopté l'une des premières réglementations majeures en matière d'intelligence artificielle dans le pays.
Elle se concentre spécifiquement sur les modèles de fondation. Les entreprises devront par exemple s'assurer qu'ils sont protégés contre les « modifications dangereuses après leur entraînement », et maintenir une procédure de test pour évaluer si un modèle ou ses dérivés risquent particulièrement de « causer ou de permettre un préjudice grave ». Le gouverneur Gavin Newsom a jusqu'au 30 septembre pour décider de promulguer la loi.
Si c'est le cas, les répercussions pourraient être majeures. Abritant la Silicon Valley, la Californie est le siège de nombreux géants technologiques et start-up aux États-Unis. Ils seraient tous forcés à respecter ces nouvelles règles.
La spécificité américaine
Si l'initiative est soutenue par certains acteurs majeurs, à l'instar d'Elon Musk, elle a surtout fait l'objet d'une vive opposition. Google, OpenAI et Meta ont exprimé leurs inquiétudes quant au texte, assurant qu'il porterait préjudice aux petits développeurs. Certains investisseurs, comme l'éminente firme de capital-risque Andreessen Horowitz, sont également montés au créneau.
Et ce n'est pas surprenant. Aux États-Unis, l'accent est avant tout mis sur la promotion de l'innovation, et les investissements dans la recherche et le développement, plutôt que sur une réglementation stricte, qu'il s'agisse de l'IA ou d'une autre technologie.
Les autorités ne veulent surtout pas désavantager les entreprises américaines face à la concurrence internationale, quitte à reléguer les risques posés par la technologie au second plan. Ceci est d'autant plus vrai dans un contexte de guerre technologique et commerciale contre la Chine. Ainsi, le pays adopte une approche bien plus fragmentée de la réglementation, reposant principalement sur l'engagement volontaire des fournisseurs à respecter une série de mesures.
Au-delà de l'IA, cela s'observe aussi au regard d'autres secteurs technologiques. Il n'existe pas d'équivalent au RGPD, au Digital Services Act ou au Digital Markets Act dans le pays de l'Oncle Sam. Les récentes réglementations mises en œuvre en Europe ont d'ailleurs fait frémir les législateurs américains, estimant qu'ils menaçaient directement la compétitivité de leurs géants technologiques.