INTERNET - Le réseau social américain annonce avoir déployé une nouvelle technologie qui lui permet de détecter automatiquement les contenus contraires à ses règles sur la nudité et l’exploitation sexuelle d’enfants. Et ainsi de soulager les milliers de modérateurs exposés au quotidien à des images de grande violence.
Le chiffre donne le vertige. Et il fait froid dans le dos. Facebook vient d'annoncer être parvenu, à l’aide d’une intelligence artificielle (IA), à détecter et éradiquer 8,7 millions de contenus pédopornographiques en à peine trois mois. La firme de Palo Alto a révélé dans une note de blog qu’elle utilisait, depuis plus d’un an, un nouvel outil basé sur un algorithme afin d'épauler ses équipes de modérateurs. Après des années de reproches, le plus grand réseau social du monde, avec 2,1 milliards d’inscrits dont 1,6 d’actifs, a enfin décidé de s’attaquer à la modération de ses contenus, reconnaissant, depuis le scandale de l’influence russe sur les élections de 2016, sa responsabilité d’éditeur.
Le site de Mark Zuckerberg disposait déjà d’une technologie capable de détecter automatiquement certains contenus pédopornographiques connus de ses services. Lorsqu'un internaute essayait de publier l'une de ces images, l'outil la repérait automatiquement et bloquait la publication. Grâce à la technologie du "machine learning" (en français, l'apprentissage automatique), l'algorithme mis au point par Facebook peut dorénavant repérer de nouvelles images en analysant leur contenu. La société affirme dans son communiqué que "99 % des contenus ont été supprimés avant même qu’ils ne soient signalés par quelqu’un".
Une ex-modératrice porte plainte pour stress post-traumatique
Habituellement, Facebook s'appuie sur le signalement par les utilisateurs de contenus problématiques, qui sont ensuite transmis à des modérateurs humains chargées de les examiner. En 2009, le site ne comptait que douze personnes pour modérer ses publications en 2009 - quand le réseau comptait 120 millions d’utilisateurs. En 2017, ils étaient 4500. Ils sont désormais 7500, à examiner toutes les semaines 10 millions de posts, dans une centaine de langues, partout dans le monde, et la plupart du temps via des sociétés tierces.
Reste que la question des conditions de travail de ces modérateurs, exposés au quotidien à des contenus particulièrement violents, est régulièrement abordée. Le mois dernier, Selena Scola, l’une de ces modératrices, entre juin 2017 et mars 2018, a décidé de porter plainte, affirmant souffrir, à cause de ce travail, de stress post-traumatique. Grâce ce nouvel outil, l'entreprise américaine espère ainsi épargner aux milliers de personnes chargées de regarder en boucle des images de pédophilie ou de violences infantiles.
Lire aussi
"Downvote": ce qu'il faut savoir sur le nouveau bouton de Facebook pour signaler les messages offensants
Lire aussi
Une intelligence artificielle bientôt capable de détecter une dépression grâce à Facebook ?
Les applis de messagerie chiffrée, eldorado des pédophiles
Des utilisateurs se sont cependant plaints de voir certaines photos de leurs enfants supprimées de manière abusive (selon eux) au cours des derniers mois. Le réseau social reconnait que ses logiciels pour repérer les contenus pédopornographiques feront sans doute des erreurs, mais que les utilisateurs auront toujours la possibilité de déposer une réclamation. Facebook avait déjà été épinglé en 2016 pour avoir supprimé la photo de la "petite fille au napalm" et avait fini par présenter ses excuses. "Nous préférons prendre des précautions avec les enfants", a déclaré à Reuters Antigone Davis, en charge de la sécurité globale de Facebook.
La société envisage également d’appliquer la même technologie à son application Instagram. Si on ne peut que saluer la mise en place de ce nouvel outil, celui-ci ne résout cependant pas pour autant le problème. Les applications de messagerie chiffrée, sur lesquels se trouvent la majorité des images d'abus commis sur des enfants, constituent ainsi toujours un problème. Le chiffrement des messages sur l’application WhatsApp, dont Facebook est propriétaire, empêcherait par exemple au logiciel de les analyser.