Nouveau monde. Des escrocs utilisent l'intelligence artificielle pour imiter la voix du PDG

--'--
--'--
Copié dans le presse-papier !

Cela devait arriver : l'intelligence artificielle donne des idées aux arnaqueurs en tous genres. Le PDG d'une entreprise téléphone à une de ses filiales pour lui demander d'effectuer un virement bancaire, par exemple. Sauf que ce n'est pas le PDG au bout du fil, mais un escroc utilisant un logiciel qui imite la voix du dirigeant.

La dernière affaire en date est rapportée par le Wall Street Journal : une entreprise britannique, filiale d’un grand groupe allemand, a été abusée de cette manière. Préjudice : 243 000 dollars, soit 220 000 euros, envoyés sur un compte bancaire en Hongrie censé appartenir à un fournisseur. Ce n’est pas la première fois selon Symantec : au moins trois entreprises ont déjà été victimes ce type d’arnaque par intelligence artificielle, pour des préjudices de plusieurs millions de dollars.

Comment peut-on imiter une voix par intelligence artificielle ?

Les escrocs partent d’enregistrements audio réels, issus de conférences ou de vidéos sur Internet. Ensuite, ils utilisent des logiciels qui permettent de recréer des phrases sur mesure. On ne sait pas bien comment les pirates gèrent le mode conversationnel : est-ce qu’ils enregistrent des phrases à l’avance ou bien est-ce qu’ils utilisent des outils puissants qui permettent de parler et de fabriquer la fausse voix à la volée ? 

Dans l’affaire révélée par le WSJ, la victime déclare avoir reconnu au téléphone l’accent allemand de son chef. Mais au troisième appel, l'employé a commencé à avoir des doutes. La qualité audio dépend beaucoup de la puissance informatique disponible. Il faut des ordinateurs puissants, donc très chers, pour créer des deepfakes de qualité. C’est ce qui limite encore pour l'instant l’ampleur des attaques, mais on peut parier que la technologie va encore s’améliorer.   

Comment peut-on se protéger ?

Des chercheurs travaillent sur des algorithmes de détection, mais cette technique n'est pas encore fiable. Il y a bien la protection biométrique, l'authentification par la voix... Mais les entreprises ne sont pas encore prêtes, ni équipées, ni sensibilisées.  Cela va donc vraisemblablement se reproduire.

Vous êtes à nouveau en ligne