Le géant américain a été l'objet d'un piratage, qui a permis de détourner DALL-E. Il a en conséquence porté plainte aux États-Unis contre une dizaine de hackers.
Les IA génératives ont pris une place importance dans la vie numérique depuis un an au moins, du fait de leur amélioration constante. Mais les outils comme ChatGPT ont rapidement pu être utilisés pour effectuer des actions illicites, ce qui a poussé les géants à l'origine des IA à améliorer leurs procédures de sécurité. Des mesures de sécurité qui doivent être encore afinées semble-t-il !
Des hackers se sont infiltrés dans Azure OpenAI et ont réussi à désactiver le filtrage de Dall-E
Le 19 décembre dernier, Microsoft déposait plainte dans un tribunal de la Virginie contre 10 personnes appartenant à un groupe de hackers étrangers. Ceux-ci auraient réussi à infiltrer Azure OpenAI puis, à l'aide d'un logiciel personnalisé, désactivé le filtrage de Dall-E, l'IA générative d'images.
Ils ont ainsi pu « créer du contenu offensant et nuisible » à travers la production de milliers d'images. Mais ils ne se sont pas arrêtés là, et ont rendu leur opération plus grave en revendant des accès.
L'accès était revendu à des acteurs malveillants
En effet, le groupe de pirates avait multiplié les vols de clés API Microsoft. Il a ainsi pu ensuite transformer son intrusion en proposition de « hacking as a service », et offrir un accès à cette version de Dall-E sans filtrage à des acteurs malveillants, contre monnaie sonnante et trébuchante.
Dès que l'attaque a été détectée, Microsoft a révoqué les accès en cause et ajouté de nouvelles mesures de sécurité, pour éviter que l'opération ne puisse se reproduire à l'avenir. Reste maintenant à savoir à quel point ces mesures seront efficaces, alors que les pirates du monde entier ont trouvé dans les grands modèles de langage (LLM) un outil puissant pour améliorer la portée et l'efficacité de leurs attaques.
Source : MSPowerUser
30 décembre 2024 à 11h37