Dans la lutte tentaculaire contre la pédopornographie, les principaux acteurs du stockage en ligne ont une part active à jouer afin de détecter des contenus potentiellement illégaux stockés par le biais de leurs services.
C'est notamment le cas de Google qui, comme Apple par exemple, s'active face à ce fléau. Et pour cela, YouTube comme les Drive sont passés au peigne fin.
La pédopornographie, une tendance tristement à la hausse
Il est ici fait état de la « hausse » estimée par Google des fichiers relevant de « Child Sexual Abuse Materials » (CSAM) stockés en son sein. Ce qui est d'autant plus désolant tout d'abord, c'est que la pratique n'est malheureusement pas nouvelle et n'a pas, pendant des décennies, fait l'objet d'une traque particulièrement virulente. Mais aussi, il convient de noter que les logiciels à même de détecter de potentiels contenus pédopornographiques sont, eux, de plus en plus précis. De quoi donner des chiffres qui font froid dans le dos.
Selon les services de Google, qui transmettent annuellement des rapports de transparence au National Center for Missing and Exploited Children (NCMEC), 1,5 million de contenus potentiellement CSAM, regroupés dans quelque 180 000 rapports, ont été transmis au NCMEC pour la période janvier-juin 2020. Pour le second semestre de l'année 2020, ce sont plus de 2,9 millions de contenus dans plus de 365 000 rapports qui ont été signalés par Google. Enfin, pour les six premiers mois de l'année 2021, 3,4 millions de contenus détectés et transmis dans 410 000 rapports sont parvenus au NCMEC. Plus du simple au double en seulement un an et demi, donc.
Mais au juste, comment s'y prend Google ?
Il n'est pas simple de traquer les contenus pédopornographiques, même si Google a, pour ses services, « l'avantage » de ne pas pratiquer un chiffrement de bout en bout, ce qui lui permet d'effectuer des scans potentiels sur les comptes de ses utilisateurs. Mais la question est soumise à de nombreux enjeux, notamment en ce qui concerne le respect du droit à la vie privée. La fronde d'utilisateurs, des services Apple entre autres, contre la volonté de la Pomme de scanner les fichiers pour en détecter de potentiels CSAM, montre que de telles actions n'avaient pas (du tout) fait l'unanimité.
De son côté, Google annonce œuvrer de deux manières, tout d'abord en recherchant, grâce à un logiciel nommé « CSAI Match » notamment employé sur YouTube, les représentations alphanumériques d'un même fichier déjà préalablement signalé comme illégal. Cela permet ainsi à la firme de signaler un contenu CSAM déjà identifié par le NCMEC et, par exemple, trouvé dans un e-mail stocké dans Gmail. Plus encore, Google utilise des outils d'analyse capables de détecter, notamment, des abus sur mineurs sur divers fichiers, y compris photo et vidéo.
Aller au-delà des photos et des vidéos
Ce qui est également traqué par Google, ce sont les dessins animés, films, ou encore œuvres d'art diverses qui pourraient constituer des contenus CSAM. Et dans le cas concret de l'art, la frontière devient aussi poreuse que complexe à définir. Un cas concret fut un détenteur de dessins animés détecté par les services de Google dans le Kansas en fin d'année 2020. D'abord transmis au NCMEC, les fichiers concernés n'ont pourtant pas permis de condamner celui qui serait en fait un artiste bien connu dans le milieu, dont l'identité n'a (logiquement) pas été révélée par Forbes puisqu'aucune poursuite n'a été engagée contre lui.
En effet, pour tomber sous le coup de la loi aux États-Unis, les cartoons doivent être particulièrement « obscènes » ou être dépourvus « d'intérêt littéraire, scientifique, artistique ou encore politique ». Ce cas ne fait qu'illustrer les chiffres évoqués au début de cet article, d'un côté sujets à caution, de l'autre, sombrement révélateurs de l'infamie que constitue la pédopornographie.
Et la firme de Mountain View, comme tant d'autres, a encore du pain sur la planche. D'une part, pour améliorer sa manière de trouver et signaler ces contenus illicites, et d'autre part pour limiter l'impact sur la vie privée qu'ont ces mesures sur le commun des mortels, afin de mieux les faire accepter et les rendre, ainsi, d'autant plus efficaces. Rappelons qu'en 2019, la France constituait le troisième pays hébergeant le plus de contenus pédopornographiques au monde, derrière les Pays-Bas et… les États-Unis.
Scan des photos : Apple répond face à la controverse