OpenAI s'est fait pirater... il y a plus d'un an

Chloé Claessens
Par Chloé Claessens, Spécialiste cybersécurité.
Publié le 04 juillet 2024 à 18h02
Un an après les faits, OpenAI est confrontée à un scandale de piratage © rafapress / Shutterstock
Un an après les faits, OpenAI est confrontée à un scandale de piratage © rafapress / Shutterstock

Une faille de sécurité a permis à un hacker de mettre la main sur des conversations internes entre des employés et des chercheurs travaillant pour l'entreprise.

C'est une nouvelle qui fait tache, à plus forte raison quand elle éclate au grand jour un an après les faits. Un pirate aurait réussi à exploiter une faille dans les systèmes de messagerie interne d'OpenAI et à mettre la main sur des conversations entre employés et chercheurs.

Parmi les informations sensibles dérobées : des détails concernant la conception des technologies déployées par l'entreprise. En revanche, l'attaquant ne serait pas parvenu à accéder aux systèmes sur lesquels OpenAI héberge et développe son intelligence artificielle.

Un secret bien gardé

Révélée par le New York Times, cette intrusion avait été communiquée aux équipes d'OpenAI en avril 2023, au cours d'une réunion générale au siège de San Francisco. Depuis lors, silence radio. L'information n'a jamais quitté les locaux de l'entreprise, qui a jugé bon de ne prévenir ni ses utilisateurs et utilisatrices, ni le FBI, ni aucune autre autorité légitime. Une décision plus que discutable, mais que les dirigeants d'OpenAI ont justifiée par l'absence de fuite de données personnelles compromettante.

En effet, dans le cadre de ce piratage, seules des conversations échangées sur la messagerie interne de l'entreprise ont été volées, et avec elles des détails généraux sur la conception des technologies sous-jacentes à ChatGPT. Aucune information relative aux comptes clients et partenaires n'aurait fuité, et le code de son IA aurait également été épargné.

Toujours selon le NYT, qui cite deux sources internes anonymes, la direction d'OpenAI aurait estimé que ce piratage avait été orchestré par un particulier, convaincue qu'il n'avait aucun lien connu avec des gouvernements étrangers. En sa qualité d'entité apte à statuer sur ce genre d'information (non), l'entreprise en a conclu que cette intrusion ne représentait pas de menace sérieuse pour la sécurité nationale. Cette décision n'a pas rencontré d'écho favorable chez certains employés de la firme.

Des informations relatives à la conception de l'intelligence artificielle développée par OpenAI auraient été dérobées © Golden Dayz / Shutterstock
Des informations relatives à la conception de l'intelligence artificielle développée par OpenAI auraient été dérobées © Golden Dayz / Shutterstock

Des problèmes de sécurité interne qui soulèvent la question de la sécurité nationale

À visage découvert cette fois-ci, Leopold Aschenbrenner, ancien responsable technique chargé de contrôler que les futures technologies fondées sur l'IA ne soient pas détournées à des fins malveillantes, s'est exprimé sur YouTube au sujet du manque de sécurité chez OpenAI.

Licencié par l'entreprise au printemps dernier après avoir fait part au conseil d'administration de ses doutes concernant les protocoles de sécurité internes, il estime qu'OpenAI ne met pas suffisamment de moyens en œuvre pour lutter contre l'espionnage et le vol d'informations confidentielles dans le cas où des instances gouvernementales étrangères parviendraient à s'introduire dans les systèmes de l'entreprise.

Pour autant, il existe, à l'heure actuelle, peu de preuves concernant les dangers que peuvent représenter les technologies de l'intelligence artificielle vis-à-vis de la sécurité nationale. Certaines entreprises comme Meta n'hésitent d'ailleurs pas à partager publiquement leurs travaux sous licence open source, de manière à permettre à la recherche et aux ingénieurs de faire avancer la technologie. Ce qui n'empêche pas certains acteurs de l'IA d'ajouter des garde-fous à leurs applications et de verrouiller leurs opérations techniques avant de les déployer auprès du grand public.

Des chercheurs et responsables de la sécurité nationale entendent aussi rappeler que si les algorithmes au cœur des systèmes d'intelligence artificielle sont aujourd'hui peu menaçants, rien n'exclut qu'ils puissent le devenir à terme. D'où l'importance d'appeler à des contrôles plus stricts.

  • Chat dans différentes langues, dont le français
  • Générer, traduire et obtenir un résumé de texte
  • Générer, optimiser et corriger du code
10 / 10
Par Chloé Claessens
Spécialiste cybersécurité

Débarquée chez Clubic en 2020 pour parler logiciels, applications et systèmes d’exploitation, je me suis peu à peu spécialisée dans le domaine de la cybersécurité. J’écris essentiellement sur les VPN, mais je couvre aussi les sujets liés à la sécurité des systèmes et des réseaux.

Vous êtes un utilisateur de Google Actualités ou de WhatsApp ?
Suivez-nous pour ne rien rater de l'actu tech !
Commentaires (0)
Rejoignez la communauté Clubic
Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.
Commentaires (3)
codeartemis37

du coup, c’était quoi la faille??? un xss??? un accès a la database via une injection sql??? on ne saura jamais :man_shrugging:

Mr_Electro84

Ou peut être plus simplement du phishing !

codeartemis37

sans doute, oui