Nouveau monde. Après les "fake news", les "deep fakes" inquiètent les politiques

Alors que les élections de mi-mandat approchent à grands pas aux États-Unis, des élus américains s’inquiètent de cette nouvelle forme de désinformation vidéo qu’on nomme les "deep fakes".       

Une nouvelle forme de désinformation arrive dans le monde à commencer par les Etats Unis alors que s'y déroulent bientôt les élections de mi-mandat. Les "deep fakes" touchent la vidéo. 

"Deep fake" est la contraction de "deep learning" (apprentissage profond, un terme lié à l’intelligence artificielle) et "fake" (faux, truqué). C’est une technique qui permet de truquer des vidéos de manière hyperréaliste, par exemple, en collant le visage de quelqu’un sur le corps de quelqu’un d’autre. Le phénomène est apparu en début d’année avec des vidéos pornographiques dans lesquelles des visages de personnalités avaient été collés sur les corps d’actrices porno. Cela peut se faire de manière assez simple, à l’aide notamment d’un programme à base d’intelligence artificielle baptisé FakeApp.

Faux discours d’Obama

Une vidéo a beaucoup marqué les esprits aux États-Unis : celle de Barack Obama prononçant un discours totalement fictif dans lequel il traite Donald Trump de "deepshit" (grosse merde). Créée par le site Buzzfeed, avec le fameux logiciel FakeApp, cette vidéo visait précisément à mettre en garde contre les risques de désinformation.

Cela a marché puisque des élus américains souhaitent désormais que les "deep fakes" soient inscrits dans la liste des menaces contre la sécurité nationale. Ils craignent des tentatives de déstabilisation provenant de l’étranger lors des élections de mi-mandat de novembre prochain.

Une menace bien réelle

Cette menace a été également soulignée en France par le rapport sur la désinformation, rendu public au début du mois de septembre. Pour l’instant, le résultat technique est cependant encore imparfait ; on peut détecter aisément les trucages. Mais ce sera probablement indétectable dans le futur. Les chercheurs viennent d’ailleurs de perfectionner encore le système en parvenant à reproduire les mouvements corporels d’une personne (hochements de tête, mouvements d’épaules), comme on peut le voir sur une vidéo de Barak Obama semblant bouger comme Martin Luther King.

Contre-mesures techniques

Les chercheurs sont en train de mettre au point des "contre-mesures". Par exemple, le français Vincent Nozik, cité par France 24, a mis au point un système de détection des vidéos falsifiées. Les mouvements de paupières trahissent parfois des trucages. Les plateformes tentent également de détecter les "deep fakes". Facebook est en train de mettre au point un outil spécial à base d’IA. On parle aussi de signatures numériques pour authentifier les vidéos fiables. Toutefois, la meilleure protection est sans doute le sens critique et le bon sens. Cela passe par une sensibilisation et une formation aux risques liés aux réseaux sociaux.  

Vous êtes à nouveau en ligne