© monticello/Shutterstock.com
© monticello/Shutterstock.com

La semaine dernière, la Krita Foundation, association indépendante qui crée des logiciels graphiques libres pour les artistes, a fait part de ses inquiétudes concernant une politique d’Adobe. L’entreprise exploiterait automatiquement le contenu des utilisateurs stocké sur ses services Creative Cloud afin d'entraîner ses algorithmes d'intelligence artificielle.

L'intelligence artificielle Adobe Sensei, basée sur l’apprentissage automatique, est présente dans tous les logiciels de la société, et permet à ses utilisateurs d'obtenir des résultats de meilleure qualité dans un ensemble d'outils de création plus accessible.

Une fonctionnalité activée par défaut

Il semblerait que l’un des secrets de sa réussite réside dans le contenu des artistes abonnés à Creative Cloud. La Krita Foundation a en effet remarqué un paragraphe qui l’a interpellée dans les paramètres de confidentialité et de données personnelles de son compte sur la suite d’Adobe. Celui-ci stipule qu’elle peut « analyser son contenu à l'aide de techniques telles que l'apprentissage automatique, par exemple, pour la reconnaissance des formes, afin de développer et d'améliorer ses produits et services ». L’organisation a été automatiquement ajoutée à ce programme baptisé « analyse de contenu » (Content Analysis).

En s’intéressant de plus près à la FAQ d’Adobe, on observe que la règle a été mise à jour l'année dernière, en août, et qu'elle s'applique aux images, au son, aux vidéos, au texte ainsi qu’aux documents stockés sur ses serveurs Cloud. Elle ne concerne pas le contenu traité ou stocké localement sur l’appareil des utilisateurs.

« Si vous préférez qu'Adobe n'analyse pas vos fichiers pour développer et améliorer nos produits et services, vous pouvez refuser l'analyse du contenu à tout moment. Ce paramètre ne s'applique pas dans certaines circonstances limitées », précise Adobe. Par exemple, le fait de désactiver l’analyse de contenu ne s’applique pas si l’utilisateur participe à des programmes visant à améliorer les produits et services de la société, tels que les bêtas ou les images mises en vente via Adobe Stock.

Adobe assure que cette pratique ne concerne pas les IA génératrices d’art

De son côté, Adobe tient à rassurer ses utilisateurs, et rappelle que cette fonctionnalité lui permet d’améliorer ses services et donc, leur expérience sur ses outils : « Les fonctionnalités basées sur l'apprentissage automatique peuvent vous aider à gagner en efficacité et en créativité. Par exemple, nous pouvons utiliser des fonctionnalités basées sur l'apprentissage automatique pour vous aider à organiser et à modifier vos images plus rapidement et plus précisément. Grâce à la reconnaissance d'objets dans Lightroom, nous pouvons étiqueter automatiquement les photos de votre chien ou de votre chat ».

Cette pratique soulève néanmoins des questions en termes de vie privée, d’autant plus qu’elle est activée par défaut. À titre d’exemple, les utilisateurs de Lightroom profitant des services de synchronisation de photos d'Adobe lui ont indirectement donné l'autorisation d’exploiter leurs images s’ils n’ont pas manuellement désactivé l’analyse de contenu.

Aussi, la mise en lumière de cette fonctionnalité intervient au moment où l’utilisation d’œuvres artistiques pour former les IA génératrices d’art, sans le consentement des artistes, fait vivement polémique. « En ce qui concerne l'IA générative, Adobe n'utilise aucune donnée stockée sur les comptes Creative Cloud des clients pour entraîner ses fonctions expérimentales d'IA générative. Nous sommes en train de revoir notre politique pour mieux définir les cas d'utilisation de l'IA générative », précise l’entreprise.