À court d'inspiration, les IA se mettent à reproduire trait pout trait les œuvres qui les ont entraînées. Ce constat, assez logique en fin de compte, émane d'un comité de chercheurs experts dans le domaine de l'IA.
Le groupe de recherche en question compte en effet des scientifiques spécialisés en intelligence artificielle issus de rien de moins que Google, DeepMind, ETHZ ainsi que des universités de Berkeley, de Californie et de Princeton. Soit clairement des personnes qui savent de quoi elles parlent.
Inspiration Anticipée
Disponible sur arXiv.org et citée en source ci-dessous, cette étude vient donc démontrer que les IA génératrices d'images populaires telles que DALL-E, Imagen, Midjourney ou Stable Diffusion arrivent parfois à court d'inspiration. À tel point qu'elles ne trouvent pas mieux à produire que ce qui a servi à les entraîner.
Pour rappel, ces outils ont en effet été nourris par leurs créateurs de milliers, voire de millions d'images avant d'être placés entre les mains du public. Depuis lors, elles ont rencontré l'essor exponentiel qu'on leur connaît, n'en déplaise à de nombreuses communautés d'art.
Le groupe de recherche a ainsi estimé que sur 1 000 images générées par ces intelligences artificielles, 100 seraient une reproduction pour ainsi dire à l'identique des images qui ont servi à les entraîner.
Un problème de droits d'auteur
En creusant plus loin, le comité de scientifiques a établi un autre revers bien connu de ces outils particulièrement plébiscités. Pour les entraîner, leurs créateurs ont en effet récupéré des échantillons un peu partout sur Internet. Or, nombre d'entre eux sont protégés par des droits d'auteur.
Plus exactement, selon le groupe de recherche, 35 % des images réutilisées affichent explicitement leur couverture par de tels droits de propriété intellectuelle. 65 % des échantillons ne l'indiquent pas noir sur blanc, mais sont en principe placés sous l'égide du régime général de la protection par les droits d'auteur.
La parade trouvée par les créateurs de tels outils est généralement d'ajouter du bruit sur les images durant la phase de traitement, donnant l'illusion (souvent très facile à déceler) que l'image ainsi produite n'est pas une copie. Le comité de scientifiques conclut son étude sur ce point en indiquant que les créateurs de ces outils doivent ajouter un système de marquage sur les images ayant servi à leur entraînement pour éviter de telles répétitions pour le moins gênantes.
Source : arXiv.org