« Réduire le risque d'extinction à cause de l'IA devrait être une priorité mondiale, au même titre que des risques de société comme les pandémies et la guerre nucléaire. »
Cette phrase lapidaire constitue l'intégralité du communiqué posté sur le site du Center for AI Safety, une organisation dont le but est de réduire les risques posés sur la société par le développement de l'IA. Loin d'être la première du genre, son originalité est à chercher chez ses signataires. On y trouve les dirigeants d'Open AI, de la division DeepMind de chez Google, ou encore des chercheurs reconnus dans le domaine. Espérons qu'ils trouveront les responsables de tout cela.
Les risques existentiels de l'IA, une probabilité réelle
Ce n'est pas la première fois que des acteurs concernés au premier chef par le développement des intelligences artificielles expriment leurs inquiétudes sur le sujet. En mars, une lettre signée par plus de 1 000 d'entre eux appelait à une pause de 6 mois dans le développement de la technologie. Si les risques évoqués sont largement crédibles, la pause dans le développement de l'IA semble un vœu pieux, tant elle fait l'objet d'une course effrénée depuis qu'elle est sortie des laboratoires.
La probabilité qu'un événement grave, voire cataclysmique soit causé dans le futur par l'intelligence artificielle ne relève absolument pas de la science-fiction. Les risques, tant envisagés (deepfakes, manipulation des élections, perte de contrôle de systèmes d'armement, etc.) qu'encore inconnus sont pris très au sérieux par les chercheurs et autres acteurs du sujet. Au point de développer le concept de P(doom), qui symbolise la probabilité estimée par chacun que l'IA cause une extinction de l'humanité ou une autre catastrophe mondiale irréversible. Rares sont ceux qui placent leur P(doom) à moins de 10 %…
La dissonance cognitive des leaders de l'industrie
Seulement, il est permis d'avoir des doutes, ou au moins de s'interroger sur l'honnêteté ou les motivations de certains de ces acteurs qui, rappelons-le, vivent littéralement du développement de cette technologie. Le laboratoire OpenAI, dirigé par Sam Altman, a été créé en 2015 spécifiquement pour contrer les dérives des « mauvaises » IA, et était sans but lucratif. Ce dernier point a été rapidement abandonné à partir de 2019. Quant au premier… cela reste à voir.
Le personnage même de Sam Altman est complexe. S'il est vrai qu'il ne fait rien pour minimiser auprès du public les risques posés par son bébé ChatGPT, allant même jusqu'à appeler de ses vœux une régulation, certains critiquent ses propositions en la matière, qui ne viseraient qu'à graver dans le marbre une situation établie, dans laquelle il joue un rôle de premier plan. Il est également difficile de saisir le vrai du faux quand il explique être terrifié par ce que l'IA est capable de faire au monde, pour vanter toutes les raisons pour lesquelles elle en fera un meilleur endroit dans la phrase suivante.
Enfin, il n'est peut-être pas inutile de rappeler que, comme il l'a lui-même expliqué dans une interview, Altman est un survivaliste. Cela signifie qu'il a déjà préparé (armes et masques à gaz, entre autres) tout ce qui sera nécessaire à sa survie quand l'heure de l'Apocalypse aura sonné.