Une plainte collective de plus d'un milliard de dollars vient d'être déposée contre Apple, mettant en lumière l'épineuse question de la lutte contre les contenus pédocriminels sur iCloud. Cette action en justice intervient dans un contexte où les géants technologiques sont de plus en plus scrutés sur leur capacité à protéger les mineurs.
Une femme de 27 ans, victime d'abus durant son enfance, a initié cette procédure judiciaire d'envergure. Les images de son traumatisme continuent de circuler sur les services d'Apple, notamment iCloud, perpétuant ainsi une souffrance quotidienne. Le cabinet Marsh Law Firm, représentant les plaignants, estime qu'environ 2 680 victimes pourraient rejoindre cette action collective, portant les dommages et intérêts potentiels à plus de 1,2 milliard de dollars.
Une technologie prometteuse abandonnée
En août 2021, Apple avait annoncé le déploiement de « NeuralHash », un système sophistiqué conçu pour détecter les contenus pédocriminels sur iCloud. Cette technologie devait utiliser des signatures numériques fournies par le National Center for Missing and Exploited Children pour identifier les contenus illicites.
Face aux critiques des experts en cybersécurité craignant une potentielle porte dérobée pour la surveillance gouvernementale, Apple a fait machine arrière. Cette décision est aujourd'hui au cœur des accusations, les plaignants estimant qu'elle démontre une négligence délibérée envers la sécurité des enfants.
Un bilan préoccupant
La différence est frappante entre Apple et ses concurrents : alors que Google et Meta rapportent chacun plus d'un million de cas de contenus pédocriminels, Apple n'en a signalé que 267 en 2023. Cette disparité alarmante soulève des questions sur l'efficacité des mesures de protection mises en place par la firme de Cupertino.
Face à ces accusations, Apple maintient sa position via son porte-parole Fred Sainz, affirmant que l'entreprise « innove activement et urgemment pour combattre ces crimes » tout en préservant la confidentialité des utilisateurs. La société met en avant ses initiatives récentes, notamment les fonctionnalités de protection intégrées à Messages pour alerter les enfants des contenus inappropriés.
Cette affaire pourrait avoir des répercussions considérables sur l'industrie technologique. Elle soulève la question cruciale de l'équilibre entre protection de la vie privée et sécurité des utilisateurs les plus vulnérables. La décision finale pourrait contraindre Apple à revoir fondamentalement son approche de la modération des contenus sur ses plateformes.
Source : Neowin
- mood5 Go d'espace gratuit
- upload50 Go en limite d'envoi
- home_pinServeurs en Europe