Incriminé pour son manque de réactivité, voire son inertie face au live diffusé par un terroriste lors de la fusillade de Christchurch, le réseau social Facebook promet de perfectionner son IA pour détecter les vidéos à caractère terroriste.
Qui est donc à blâmer ? La plateforme pour ne pas avoir « vu » au plus tôt qu'un Facebook Live d'une tuerie de 17 minutes était diffusé ? Ou les 200 spectateurs devant leur écran et qui n'ont pas pris la peine de signaler le contenu ? Le débat fait rage alors que cette attaque meurtrière a fauché 50 innocents. Face à ce macabre cas de figure, la firme a promis de renforcer son intelligence artificielle en expliquant les raisons techniques qui ont permis la diffusion complète d'un tel contenu.
Un Live sordide que Facebook n'a pas pu voir, même pas son IA
Trois principales raisons expliquent pourquoi ce sordide Live n'a pas pu être détecté à temps. Premièrement, les 30 000 modérateurs de Facebook n'ont pas pu être sur tous les fronts, surtout lorsqu'ils modèrent en moyenne 8 000 posts par jour. De plus et deuxièmement, aucun des 200 spectateurs du Live n'a pris la peine de notifier la violence du contenu - il aura fallu attendre 29 minutes après le début du Live pour qu'un utilisateur signale enfin le contenu.Enfin, si l'IA de Facebook peut être capable de détecter les suicides et certains « actes dangereux », le système, en tant que machine learning, n'a pas été capable de détecter automatiquement le Live au vu de son volume de données antérieures. « Ces événements sont rares, bien heureusement », a déclaré Guy Rosen, l'un des vice-présidents de Facebook.
Facebook promet plus de réactivité et d'acuité à son IA
Depuis la diffusion de ce Live sordide, Facebook tente d'effacer coûte que coûte toute copie de la vidéo. Alors que, grâce à son IA et ses modérateurs, la firme a réussi à retirer plus d'1,2 millions de copies, Guy Rosen déplore qu'une « communauté de gens mauvais » ait constitué le noyau dur à l'origine de la rediffusion de plus de 300 000 copies de la vidéo en la convertissant dans plus de 800 formats différents pour échapper aux modérateurs.Malgré tout, Facebook a été capable de détecter tous ces formats, mais la firme promet d'améliorer son IA pour « empêcher toute vidéo similaire de circuler à l'avenir » sur la plateforme, en la rendant plus réactive aux signalements et en perfectionnant son acuité.