© Apple
© Apple

Dans une volonté de protection des mineurs, Apple va commencer à vérifier les photos téléchargées sur son service iCloud dans une base de données de matériel pédopornographique (CSAM).

Pour le moment, ce système ne concerne que les appareils des utilisateurs américains.

Un système qui tient compte de la vie privée

Apple a annoncé ce jeudi qu’un système de vérification des photos prises sur les iPhone aux États-Unis avant qu’elles ne soient téléchargées vers ses services de stockage iCloud allait être mis en place. Son objectif est de s’assurer que le transfert ne correspond pas à des images connues d’abus sexuels sur des enfants, ou tout autre médias pédopornographiques.

Ce programme se nommerait « neuralMatch ». Il consisterait à confronter les images contenues dans l’iPhone d’une personne avec celles de la base de données sur les abus pédosexuels de la police américaine. Selon Apple, utiliser un système de comparaison au lieu d’analyse automatique d’image est suffisant pour respecter la vie privée des utilisateurs.

Plus précisément, lorsqu'un individu souhaite mettre en ligne une image sur le service de stockage iCloud d’Apple, l’iPhone crée, en amont, un hachage de l’image à télécharger et le compare à la base de données. Les images stockées uniquement sur le smartphone ne sont pas contrôlées, précise Apple.

Les autorités policières seront ensuite alertées si une image illégale est détectée sur le téléphone d’une personne. Une vérification humaine sera toutefois enclenchée avant le signalement d’un compte aux forces de l’ordre pour s’assurer de l’authenticité de toute correspondance avant de signaler un utilisateur.

Une précision extrêmement poussée

La nouvelle technologie d’Apple doit assurer un niveau de précision extrêmement élevé et entend réduire à moins d’une chance sur un billion par an le risque de signaler un utilisateur de manière erronée.

Pour sa part, le National Center for Missing & Exploited Children estime qu’Apple a pris la bonne décision : « Avec un si grand nombre de personnes utilisant des produits Apple, ces nouvelles mesures de sécurité ont le potentiel de sauver des vies pour les enfants qui sont attirés en ligne et dont les images horribles circulent dans les documents relatifs aux abus sexuels sur les enfants », spécifie John Clark, directeur général du NCMEC.

Après l’annonce de cette nouvelle technologie comparative, la question de l’équilibre entre la vie privée et la protection est revenue sur le devant de la scène. C'est surtout l’Electronic Frontier Foundation (EFF) qui a sévèrement critiqué la technologie d’Apple. Le groupe reproche même à l’entreprise de revenir sur sa position antérieure en matière de protection de la vie privée.

La fondation EFF a particulièrement exprimé son inquiétude quant au fait que le nouveau système d’Apple pourrait être élargi pour inclure des discours ou tout autre élément que les gouvernements pourraient ne pas approuver.

Pour l’instant, cette technologie ne concerne que les utilisateurs américains. Précisons que la plupart des autres grands fournisseurs de technologie (Google, Facebook, Microsoft) vérifient déjà les images de leurs services en les comparant à une base de données d’images connues.

Sources : Webpronews, Reuters