© Shutterstock
© Shutterstock

La marque avait annoncé en 2021 une nouvelle fonctionnalité de détection d'images pédopornographiques qui avait créé la polémique.

Apple avait probablement de bonnes intentions, mais elle s'est embourbée dans une communication mal maîtrisée.

Des dispositifs imaginés pour sécuriser les messages reçus par les plus jeunes

Retour en 2021. Au cœur de l'été, Apple annonce une série de mesures destinées à protéger les plus jeunes d'images au contenu inadapté à leur jeune âge. Cette fonctionnalité, propre à iMessage, permet à iOS d'analyser en temps réel les photos reçues par un enfant, dont les parents l'ont ajouté au groupe familial iCloud.

L'image est automatiquement floutée et l'enfant reçoit différents messages l'informant du caractère violent ou sexuel de la photo. Il peut alerter l'un de ses parents, ignorer le message qui sera supprimé ou consulter la photo s'il le souhaite. Ce dispositif est aujourd'hui actif avec iOS 16.

Un autre système avait été présenté en parallèle. iOS allait pouvoir analyser toutes les images présentes dans sa bibliothèque photos et ces dernières seraient mises en correspondance avec une base de données incluant des milliers de photos pédopornographiques. En cas d'alerte, des modérateurs d'Apple examineraient manuellement les images détectées et prendraient les mesures appropriées, en désactivant le compte iCloud et en prévenant les autorités compétentes.

Apple abandonne son projet de détection automatique après de multiples critiques

À peine annoncé, le dispositif a été vivement critiqué de toutes parts. De nombreuses personnes se sont insurgées du système de surveillance mondial mis au point par Apple. Si le constructeur a tenté de rassurer, en expliquant que les données analysées étaient intégralement anonymisées, cela n'a pas réussi à calmer les esprits et Apple a alors mis en pause son projet à la fin de l'année 2021.

Alors que l'on était sans nouvelles de son avancement, le vice-président d'Apple en charge du logiciel, Craig Federighi, vient de mettre un coup d'arrêt au projet. Lors d'une interview au Wall Street Journal, portant sur l'ajout prochain du chiffrement des sauvegardes iCloud, ce dernier a indiqué que l'entreprise allait explorer de nouvelles pistes : « L'abus sexuel des enfants peut être évité avant qu'il ne se produise... C'est là que nous mettons notre énergie à aller de l'avant ».

Source : The Verge