La lutte contre la pédopornographie, ou « Child Sexual Abuse Materials » (CSAM), est un enjeu de taille pour de nombreux services de stockage Cloud, dont celui d'Apple. Jusqu'à présent, la politique de prévention de l'entreprise se limitait pourtant à scanner les e-mails, presque rien de plus.
La firme de Cupertino pratique cette surveillance active des messages depuis 2019, mais ne s'intéresserait pas jusqu'ici aux photos stockées sur iCloud. De quoi faire douter de l'efficacité de sa stratégie dans ce domaine, du moins jusqu'à ce mois d'août, où de nouvelles mesures ont été annoncées… puis allégées.
La stratégie légère d'Apple dans la lutte contre les CSAM
Si elle n'en reste pas moins complexe, la guerre menée à l'encontre des adeptes de la pédopornographie progresse, notamment grâce à l'utilisation d'algorithmes croisés avec des banques d'images, afin de repérer les contenus inappropriés. Or, lorsque ces images, vidéos ou tout autre type de fichiers se retrouvent dans un Cloud individuel, il peut être plus compliqué de les repérer.
Si de nombreuses solutions existent, qui ne nuisent pas outre-mesure au respect de la vie privée, Apple se montre longue au démarrage. La firme de Cupertino a annoncé travailler depuis 2019 seulement sur le scan des e-mails reçus sur iCloud mail. Des mesures qui n'ont pas permis de confondre un grand nombre d'individus sur l'échange de fichiers CSAM, d'autant qu'Apple ne scanne pas les photos stockées dans iCloud.
Une mesure de précaution qui étonne, au point que la firme s'est emparée du sujet début août 2021, en annonçant la mise en place d'un outil permettant, grâce à un algorithme, de scanner les photos et ainsi repérer de potentiels contenus CSAM. Suivant le protocole de la mesure, si la détention de telles images est avérée après vérification humaine, le détenteur du compte est signalé aux autorités américaines, et jugé selon la loi en vigueur. Toutefois, les défenseurs de la vie privée ne l'entendaient pas de cette oreille.
Les limites de la vie privée en questions
La fronde revient encore et toujours sur le même motif à l'encontre de telles mesures : celui du respect de la vie privée. Apple en a fait l'un de ses piliers, et pourtant, l'enjeu autour de la pornographie infantile mérite que les détenteurs de contenus de ce type puissent comparaitre en justice. Le fait est que de nombreux experts clament qu'un tel outil algorithmique constituerait une fouille non-désirée par les utilisateurs des contenus uploadés sur iCloud. Et Apple a en partie donné raison à ces détracteurs, le 16 août dernier.
En conséquence, le seuil d'alerte avant qu'un humain ne prenne le relais dans l'analyse des contenus repérés est élevé à 30 fichiers minimum confondus par l'algorithme. En dessous de ce nombre, les individus pourront ainsi passer entre les mailles du filet.
Selon le directeur Anti-Fraude de l'entreprise, Apple en arrive tristement à être « la meilleure plateforme pour la distribution de pornographie infantile », d'après des contenus repérés par The Verge dans le cadre du procès entre Apple et Epic Games. Or, comme le relève 9to5Mac, « comment Apple aurait-il pu le savoir s'il n'avait pas scanné les comptes iCloud… ? ». De quoi placer la Pomme dans la tourmente, avant de nouvelles mesures plus efficaces ?
Sources : The Verge , Le Monde , 9to5Mac (1) , 9to5Mac (2)