Face à la popularité grandissante des IA génératives d’images, certains artistes veulent se protéger de l’appétit insatiable de ces machines. Nightshade permet très exactement de faire cela.
Au début du mois de janvier 2024, OpenAi a créé une polémique en déclarant qu’il était « impossible d’entraîner les principaux moteurs d’intelligence artificielle existants sans utiliser des contenus protégés par le droit d’auteur ». Beaucoup de graphistes, d’auteurs et d’autrices de BD ou de vidéastes y voyaient une justification un peu facile pour piller leurs travaux sans leurs accords et créer des machines capables de recracher une image imitant leurs styles en une poignée de secondes.
Compatible Windows et macOS
Face à cette utilisation industrielle d’images protégées par le droit d’auteur, des chercheurs ont imaginé un système permettant « d’empoisonner » l’apprentissage machine sans rien changer (en apparence) à ses créations. L’outil surnommé Nightshade, longtemps resté en développement, est désormais disponible au téléchargement pour toutes et tous.
En libre accès sur le site de l’université de Chicago, le petit logiciel est capable de tourner sur Mac et sur Windows. Une fois l’exécutable téléchargé, il vous faudra faire au moins 4 Go de place sur votre disque dur pour laisser le programme télécharger les librairies logicielles nécessaires à son fonctionnement.
Si vous utilisez déjà Glaze, l’autre logiciel censé vous prémunir d’un pillage par IA, les deux applications pourront partager une partie de leurs ressources. La version Windows du soft peut aussi tourner sur la mémoire de votre carte graphique, si cette dernière est un composant Nvidia listé ici. Attention tout de même, vu la popularité du logiciel, le téléchargement peut être quelque peu ralenti, le temps que les serveurs se remettent d’aplomb.
Une vache avec « de belles poignées en cuir marron »
Nightshade est pensé comme « un outil offensif pour déformer l’interprétation d’une image que peut effectuer une IA générative ». Contrairement à Glaze, qui protège le trait d’un artiste en faisant croire à la machine que l’image adopte un style complètement différent de celui réellement utilisé, Nightshade va faire « voir » à l’IA un contenu radicalement altéré. En utilisant Nightshade « Les yeux humains pourront voir l’image d’une vache dans un champ verdoyant, mais une IA verra un grand sac à main en cuir posé dans l’herbe. […] Entraîné sur un nombre suffisant d’images empoisonnées, l’IA finira par être convaincu que les vaches ont de belles poignées en cuir marron et des poches latérales, ainsi qu’une fermeture éclair et peut-être un joli logo. »
L’équipe derrière le développement de Nightshade et Glaze a indiqué que les deux logiciels peuvent être utilisés sur une même image, mais que « le niveau d’artefacts observables pourrait être plus élevé » dans ces cas-là. Une version plus poussée (qui sortira bientôt) devrait résoudre ces soucis. En attendant que l’industrie se responsabilise ou que les pouvoirs publics sanctionnent l’utilisation non consentie d’images sous droit d’auteur, Nightshade peut être une solution d’appoint pour les artistes qui veulent défendre leur travail face à la déferlante des IA.
Source : University of Chicago via VentureBeat