© Shutterstock.com
© Shutterstock.com

Apple apporte des précisions sur les deux technologies qui vont être déployées dans le cadre d'un programme de renforcement de la sécurité des enfants en ligne.

La semaine dernière, Apple faisait savoir que le groupe allait scanner les photos stockées sur iCloud afin de repérer d'éventuels contenus pédocriminels aux États-Unis. Une annonce controversée, dont la firme de Cupertino a tenu à clarifier les contours.

Pas de conséquence sur la confidentialité des données

La marque à la pomme explique d'abord qu'il ne faut pas confondre les deux technologies qui vont être utilisées dans le cadre du renforcement de la sécurité de son écosystème à l'égard des enfants. La première concerne l'app Messages, qui va flouter des contenus jugés comme sexuellement explicites envoyés ou reçus par de jeunes utilisateurs ou utilisatrices.

L'analyse des contenus est alors effectuée sur l'appareil même ; les communications restent chiffrées et l'opération n'implique pas une réduction du respect de la vie privée.

Quand un contenu potentiellement inapproprié est repéré, l'enfant (de moins de 12 ans) reçoit un message d'avertissement. Il ou elle peut alors choisir de ne pas visionner l'image. S'il ou elle souhaite la voir, une notification pourra être envoyée à ses parents.

Des questions soulevées sur les abus possibles

L'autre volet de ce renforcement de la protection est lié uniquement à l'upload de photos sur iCloud. Dans ce cas, Apple va veiller à ce qu'aucun contenu catalogué comme « CSAM » (Child Sexual Abuse Material) ne puisse être téléversé.

Apple assure que son algorithme a été conçu pour éviter les faux positifs ou de détecter d'autres contenus. La société s'appuie sur une comparaison avec les bases de données d'organisations de protection de l'enfance.

Si un contenu est repéré comme potentiellement pédocriminel, il est soumis à une vérification humaine, il n'y a pas de système automatique qui avertit les autorités. Par contre, si les faits sont avérés après vérification, Apple est dans l'obligation de faire un rapport auprès de la police, la détention de telles images étant illégale outre-Atlantique.

Autre crainte balayée par Apple, le fait que d'autres contenus que CSAM soient recherchés par le système. L'entreprise fait savoir que la technologie a été créée pour ce seul but, et que si un gouvernement lui demandait de l'utiliser en quête d'autres contenus, elle refuserait.

Source : Apple