Un smartphone affichant ChatGPT devant le logo d'OpenAI © T. Schneider / Shutterstock.com
Un smartphone affichant ChatGPT devant le logo d'OpenAI © T. Schneider / Shutterstock.com

OpenAI a mis en place plusieurs nouvelles mesures destinées à réduire les risques créés par le développement d'intelligences artificielles puissantes.

L'année 2023 avait commencé avec ChatGPT, qui avait émerveillé la planète avec ses capacités exceptionnelles. Elle s'achève avec plus d'inquiétudes sur cette technologie, surtout que le secteur a pour leader OpenAI, une start-up qui a connu de grosses turbulences avec le vrai faux départ de son patron Sam Altman, le tout sur fond de crainte sur les risques créés par l'IA. L'entreprise cherche depuis à rassurer, avec de nouvelles mesures.

La direction pourra être contrée par le Conseil d'administration

Lors du psychodrame Sam Altman, le public avait appris que son entreprise avait déjà atteint un niveau de développement technologique qui lui permettait de disposer d'une IA potentiellement extrêmement dangereuse. C'était semble-t-il une des raisons qui avaient poussé le scientifique en chef Ilya Sutskever à alors mener sa fronde.

OpenAI a depuis appris sa leçon, et souhaite éviter ce genre de problème à l'avenir. C'est sûrement pour cette raison que la firme californienne a en début de semaine produit de nouvelles lignes directrices pour la société. D'après celles-ci, le Conseil d'administration pourra bloquer le déploiement d'une IA qu'il considère comme risquée, et ce même si la direction affirme de son côté qu'elle est sûre. Une façon d'ajouter un nouveau garde-fou.

© Vitor Miranda / Shutterstock
© Vitor Miranda / Shutterstock

OpenAI va évaluer en continu les risques potentiels

Mais les mesures qui ont été construites ne s'arrêtent pas à une meilleure surveillance de la direction. Une équipe menée par Aleksander Madry aura pour mission d'évaluer continuellement les risques posés par les modèles de langages développés, et ce, au niveau de quatre grandes catégories, comprenant notamment la cybersécurité ou les menaces chimiques, bactériologiques et nucléaires.

L'équipe sera en alerte sur les risques considérés comme potentiellement « catastrophiques. » Une dénomination qui s'applique « à tout risque qui pourrait entraîner des centaines de milliards de dollars de dommages économiques ou conduire à des dommages graves ou à la mort de nombreuses personnes. »

Cette même équipe enverra par ailleurs un rapport mensuel pour détailler les résultats des recherches menées. Sera-ce assez pour rassurer les gouvernants, qui sont de plus en plus nombreux à vouloir réguler la technologie ?

Source : Bloomberg