Depuis son lancement en janvier 2021, l’intelligence artificielle génératrice d’images DALL·E n’a eu de cesse de s’améliorer. Aujourd’hui, la version 3 permet de créer tous les types d’images. Tous ? Presque ! En effet, comme son concurrent direct Midjourney, DALL·E a une politique de contenu qui empêche les utilisateurs d’employer certains termes et d’aborder certaines thématiques.
Si l’IA a revu sa copie sur des commandes dont l’interdiction paraissait farfelue, il reste encore des zones d’ombres sur le fonctionnement de la politique de contenu. Bon point tout de même : l’IA ne menace plus d’une suspension de compte en cas d’utilisation d’un mot banni, ce qu’elle faisait avec DALL·E 2. Nous vous en disons plus sur ce que vous ne pouvez pas demander à DALL·E 3.
La politique de contenu d’OpenAI vue par ChatGPT
Qui de mieux pour en savoir plus sur la politique de contenu de DALL·E que son frère ChatGPT ? Lorsqu’on demande à l’IA conversationnelle « Quelle est la politique de contenu de DALL·E ? », voici sa réponse :
« Les directives générales d’OpenAI incluent généralement des recommandations telles que l’évitement de la génération de contenu haineux, discriminatoire, sexuellement explicite, illégal, trompeur, diffamatoire, ou tout autre type de contenu nuisible ou offensant. »
Il n’est pas possible de dresser une liste exhaustive des mots bannis, car ceux-ci évoluent avec le temps. Mais nous pouvons néanmoins faire le tour des catégories concernées.
Les catégories bannies de DALL·E 3
La violence
Les prompts qui représentent ou encouragent les actes de violence physique, de torture, de destruction et de cruauté sont bannis.
Dans le cas de « terroriste », l’IA renvoie le message « Je ne peux pas créer d’images de violence ou de scènes qui pourraient être perturbantes ou offensantes ».
Inutile aussi d’essayer de créer une scène d’émeute, au risque de recevoir une réponse négative de DALL·E : « Je ne peux pas créer d’images qui représentent la violence ou des scènes de troubles civils comme une émeute ».
On remarque cependant que la dernière version de DALL·E a lâché du lest sur d’autres termes tels que guerrier, bataille ou explosion.
Le sexe et la nudité
Les termes contenant la description d’une activité sexuelle, d’organes sexuels (sauf à but éducatif) ou qui font la promotion de services sexuels sont interdits. Cela inclut évidemment l’exploitation sexuelle, y compris celle des enfants, et les pratiques sexuelles extrêmes et/ou non consenties.
Les industries pour adultes (pornographie, chat érotique, applications de rencontre…) sont également concernées.
Si vous essayez d’aller contre cette interdiction, DALL·E 3 renvoie le message « Je ne peux pas créer d’images à caractère sexuel ou explicite ».
La nudité seule rentre également dans cette catégorie d’interdiction.
La haine
Sont proscrits tous les termes exprimant ou encourageant la haine, le harcèlement, l’humiliation la discrimination, le dénigrement des personnes sur la base de leur race, leur ethnie, leur nationalité, leur sexe, leur orientation sexuelle, leur religion, leur âge…
Notez que plus qu’un banned word seul, c’est l’association de plusieurs termes qui est prise en compte. Par exemple, dans les images ci-dessous, c’est l’association de « personne en fauteuil roulant » et « se moquer » qui est prohibée. Chaque expression utilisée séparément est acceptée par DALL·E.
La drogue
L’usage ou l’abus de substances illégales ne peut pas être encouragé ni décrit.
En cas de tentative, le message de DALL·E 3 est « Je ne peux pas créer d’images représentant la consommation de substances illégales ou contrôlées. »
Les personnes réelles et les marques
Pour lutter contre les fake news telles que celles qui ont circulé début 2023, DALL·E 3 interdit toute reproduction d’une personne existante, y compris, évidemment, les personnalités politiques et religieuses.
Si vous essayez, DALL·E 3 vous informe : « Je ne peux pas créer d’images de personnes réelles, y compris de personnalités publiques comme… »
La politique de contenu sur les droits d’auteur est également très stricte. Pour les artistes dont les travaux ont été créés après 1912, il n’est pas possible de générer une image s’inspirant directement de leur style.
Dans ce cas, ainsi que dans le cas des marques protégées par des droits d’auteur, DALL·E 3 peut vous proposer une solution de remplacement (parfois très proche de l’effet attendu !) ou simplement refuser de produire les images.
Les troubles mentaux
Pour éviter la stigmatisation et l’exploitation, les termes liés aux maladies mentales sont interdits.
De la même façon, le contenu qui encourage ou montre des actes d’automutilation, tels que le suicide et les troubles de l’alimentation sont bannis.
Les sujets politiques et religieux
La politique de contenu interdit les « produits (…) destinés à des campagnes politiques ou à des activités de lobbying ». Il est pourtant possible de générer une affiche électorale. En revanche, c’est interdit pour une personne existante.
La désinformation
Les utilisateurs ne doivent pas nuire à l’intérêt public, en particulier en matière de science, de santé, de sécurité, de politique (par exemple en mettant en cause l’intégrité d’élections).
Un raté ?
Comme nous vous le disions en introduction, la politique de contenu d’OpenAI est parfois difficile à comprendre, c’est le cas par exemple avec le mot « flash ».
Dans ce cas précis cependant, l’IA ne donne pas d’explication exacte sur l’interdiction et reste évasive : « Je n’ai pas pu créer d’images en raison de la politique de contenu ».
Sans être obligés de rentrer dans le détail d’une liste exhaustive, nous avons fait le tour des catégories qui risquent de donner lieu à un refus de la part de DALL·E 3. Si vous souhaitez vraiment utiliser un mot que DALL·E n’accepte pas, pensez aux synonymes, ou à faire une description précise de votre besoin sans employer les termes interdits. Sachez également que tout n’est pas perdu : certains mots bannis par DALL·E 2 ne le sont plus avec DALL·E 3, les règles évoluent sans cesse, patience… Enfin, n’oubliez pas que la politique de contenu est avant tout prévue pour protéger l’intérêt des personnes.
- Ergonomique et intuitif
- Comprend le langage naturel
- Comprend le français