Une faille de sécurité a permis à un hacker de mettre la main sur des conversations internes entre des employés et des chercheurs travaillant pour l'entreprise.
C'est une nouvelle qui fait tache, à plus forte raison quand elle éclate au grand jour un an après les faits. Un pirate aurait réussi à exploiter une faille dans les systèmes de messagerie interne d'OpenAI et à mettre la main sur des conversations entre employés et chercheurs.
Parmi les informations sensibles dérobées : des détails concernant la conception des technologies déployées par l'entreprise. En revanche, l'attaquant ne serait pas parvenu à accéder aux systèmes sur lesquels OpenAI héberge et développe son intelligence artificielle.
Un secret bien gardé
Révélée par le New York Times, cette intrusion avait été communiquée aux équipes d'OpenAI en avril 2023, au cours d'une réunion générale au siège de San Francisco. Depuis lors, silence radio. L'information n'a jamais quitté les locaux de l'entreprise, qui a jugé bon de ne prévenir ni ses utilisateurs et utilisatrices, ni le FBI, ni aucune autre autorité légitime. Une décision plus que discutable, mais que les dirigeants d'OpenAI ont justifiée par l'absence de fuite de données personnelles compromettante.
En effet, dans le cadre de ce piratage, seules des conversations échangées sur la messagerie interne de l'entreprise ont été volées, et avec elles des détails généraux sur la conception des technologies sous-jacentes à ChatGPT. Aucune information relative aux comptes clients et partenaires n'aurait fuité, et le code de son IA aurait également été épargné.
Toujours selon le NYT, qui cite deux sources internes anonymes, la direction d'OpenAI aurait estimé que ce piratage avait été orchestré par un particulier, convaincue qu'il n'avait aucun lien connu avec des gouvernements étrangers. En sa qualité d'entité apte à statuer sur ce genre d'information (non), l'entreprise en a conclu que cette intrusion ne représentait pas de menace sérieuse pour la sécurité nationale. Cette décision n'a pas rencontré d'écho favorable chez certains employés de la firme.
Des problèmes de sécurité interne qui soulèvent la question de la sécurité nationale
À visage découvert cette fois-ci, Leopold Aschenbrenner, ancien responsable technique chargé de contrôler que les futures technologies fondées sur l'IA ne soient pas détournées à des fins malveillantes, s'est exprimé sur YouTube au sujet du manque de sécurité chez OpenAI.
Licencié par l'entreprise au printemps dernier après avoir fait part au conseil d'administration de ses doutes concernant les protocoles de sécurité internes, il estime qu'OpenAI ne met pas suffisamment de moyens en œuvre pour lutter contre l'espionnage et le vol d'informations confidentielles dans le cas où des instances gouvernementales étrangères parviendraient à s'introduire dans les systèmes de l'entreprise.
Pour autant, il existe, à l'heure actuelle, peu de preuves concernant les dangers que peuvent représenter les technologies de l'intelligence artificielle vis-à-vis de la sécurité nationale. Certaines entreprises comme Meta n'hésitent d'ailleurs pas à partager publiquement leurs travaux sous licence open source, de manière à permettre à la recherche et aux ingénieurs de faire avancer la technologie. Ce qui n'empêche pas certains acteurs de l'IA d'ajouter des garde-fous à leurs applications et de verrouiller leurs opérations techniques avant de les déployer auprès du grand public.
Des chercheurs et responsables de la sécurité nationale entendent aussi rappeler que si les algorithmes au cœur des systèmes d'intelligence artificielle sont aujourd'hui peu menaçants, rien n'exclut qu'ils puissent le devenir à terme. D'où l'importance d'appeler à des contrôles plus stricts.
- Chat dans différentes langues, dont le français
- Générer, traduire et obtenir un résumé de texte
- Générer, optimiser et corriger du code