Attentats à Christchurch : comment Facebook et YouTube ont failli

France 3

Lors des attentats en Nouvelle-Zélande, des images violentes ont circulé à foison sur le web, passant entre les filtres de YouTube ou Facebook. Le Conseil français du culte musulman a décidé de porter plainte.

Le filtrage automatique fonctionnait plutôt bien jusqu'à présent sur Facebook ou YouTube. Les plateformes prennent des images interdites (pornographie, suicide, violences...) qui sont mises dans une intelligence artificielle qui va scanner les vidéos publiées sur les plateformes. Dès qu'une image interdite apparaît, la vidéo est bloquée.

Mais ça n'a pas fonctionné pour la vidéo de la tuerie de Christchurch, en Nouvelle-Zélande. Pour la machine, cette vidéo n'est pas très différente des vidéos légales, de films ou de jeux vidéo. Ni les fusillades ni les armes à feu ne sont interdites. La machine a du mal à différencier fiction et réalité. Le filtrage doit alors être fait par les humains, ce qui prend beaucoup plus de temps.

La solution passerait par le son

La vidéo de l'attentat, signalée douze minutes après sa publication, a eu le temps d'être visionnée plus de 4 000 fois. Même si la vidéo problématique finit par être bloquée, il suffit d'une modification et ça devient une nouvelle vidéo qui passe à travers les filtres. Facebook a dû retirer 1,5 million de vidéos en un jour.

Pour résoudre ce problème, Facebook et YouTube travaillent sur le son pour reconnaître des cris par exemple et la différence entre du travail amateur et professionnel.

Le JT
Les autres sujets du JT
Vous êtes à nouveau en ligne