À la surprise d'absolument personne, les nouvelles capacités développées par l'intelligence artificielle sont presque aussitôt intégrées à l'appareil répressif et de censure de pays autoritaires.
Un rapport de l'ONG Freedom House, qui suit les évolutions de la démocratie dans le monde, a récemment pointé l'adoption rapide par des pays comme la Chine ou la Russie de technologies à base d'intelligence artificielle pour étendre un peu plus encore le contrôle sur leur population. Ces derniers développent d'ailleurs leurs propres modèles, qui répondent aux mêmes règles de contrôle de l'information que les médias traditionnels.
Mais il n'est pas nécessaire d'aller dans des pays totalitaires pour trouver des usages au pire à visée autoritaire, au mieux dont le but est de tordre la vérité. Des personnalités politiques dans les démocraties occidentales, notamment aux États-Unis, ont également commencé à utiliser les deepfakes, sans réellement s'en cacher, pour discréditer leurs opposants.
Le PCC pour ouvrir la voie
Bien avant l'éclosion et le succès de ChatGPT, il était bien établi que le gouvernement chinois utilisait la reconnaissance faciale pour suivre et contrôler ses citoyens. Et il a apparemment été convaincu par l'expérience car désormais, le rôle de l'IA en Chine est encore bien plus important dans l'appareil autoritaire.
Ainsi, lorsque ChatGPT a fait son apparition dans le pays, il répondait aux questions de ses utilisateurs, Chinois ou autres, sans respecter la vérité officielle, notamment sur le massacre de Tiananmen de 1989 qui n'a officiellement jamais eu lieu selon les autorités du pays. Un écart inacceptable de la part du chatbot, et qui a donné une bonne idée aux autorités chinoises, au moment de développer Ernie, un équivalent national : étendre et automatiser le contrôle de l'information grâce à l'intelligence artificielle. En juillet, le PCC a clarifié la situation en contraignant les IA du pays à respecter les mêmes règles de censure que les médias traditionnels et à se conformer aux « valeurs socialistes ». Ainsi, quand on lui demande, Ernie n'a par exemple pas d'informations à délivrer concernant la persécution des Ouïghours.
De la même manière, le gouvernement russe a également publié son propre règlement concernant le développement de modèles d'IA. Et parmi les règles édictées se trouve la « souveraineté technologique », qui contraint les chatbots du pays à respecter le récit national, notamment sur l'invasion de l'Ukraine par le pays. Sans forcément développer leurs propres chatbots, des pays comme le Vietnam ou le Venezuela ont également largement discrédité ChatGPT, accusé de donner des réponses « insuffisamment patriotiques ».
Enfin, la pratique qui consiste à générer des vidéos de présentateurs blancs parlant anglais et discréditant les gouvernements occidentaux comme s'il s'agissait de réelles émissions d'actualité semble également en pleine croissance.
Les démocraties occidentales loin d'être à l'abri
Dès le début, et parfois même à la demande des principaux intéressés, les pays occidentaux ont de leur côté pris très au sérieux le développement de l'IA, tentant d'y apposer des garde-fous légaux. Un processus qui semble déjà avoir pris du retard puisque l'IA, sans être mise directement au service de l'État, a déjà fait une entrée remarquée dans la sphère politique.
Le meilleur exemple est probablement les États-Unis, où les candidats à la primaire républicaine Trump et Desantis tentent de se discréditer à coup de vidéos deepfakes. Et sans forcément que cela vienne directement de personnalités politiques, des chercheurs et des activistes alertent également sur le potentiel des chatbots quand il s'agit de créer de la désinformation.