Une intelligence artificielle va scanner tous les messages reçus et envoyés par les iPhone appartenant à des enfants afin de s'assurer que les contenus à caractère sexuel soient masqués. Une fonctionnalité qui ne sera pour l'instant disponible qu'au Royaume-Uni.
La fonctionnalité permettra aux parents de s'assurer que les iPhone de leurs enfants ne reçoivent pas de contenus pédocriminels. Les analyses sont effectuées par l'iPhone lui-même, et non traitées par Apple, ce qui permet de garantir la confidentialité des données analysées.
Protéger les enfants de contenus à caractère sexuel
Toutes les photos reçues sur les iPhone appartenant à des enfants seront scannées dès lors que les parents activent la fonctionnalité. L'IA se concentre sur les images contenant de la nudité : une fois détectée, l'image sera floutée et l'utilisateur prévenu du caractère sexuel de la photo. Ensuite, l'enfant sera redirigé vers des ressources en ligne pour la sécurité des enfants sur internet. La même protection sera accordée aux enfants qui envoient des photos contenant de la nudité : dans ce cas, l'utilisateur est encouragé à ne pas envoyer la photo et à parler à un adulte.
L'outil maintient le cryptage de bout-en-bout des messages et selon Apple, les analyses concernant le contenu reçu et envoyé ne quittent pas l'iPhone concerné. À l'origine, la fonctionnalité devait alerter les parents directement, mais finalement, il semble qu'elle se contentera de prévenir les enfants du caractère sexuel du contenu, le but étant de les protéger de pédocriminels présents sur internet. La firme compte également introduire des fonctionnalités prêtes à intervenir lorsque du contenu lié à l'exploitation des enfants est recherché avec Spotlight, Safari ou Siri. La meilleure protection reste encore d'éloigner les plus jeunes des appareils non sécurisés, et d'éduquer et informer les enfants qui utilisent internet régulièrement.
Source : The Guardian