En savoir plus - Publicité 2 Publicité 2 Découvrez nos offres pour annonceurs - Publicité 4 Publicité 4 Visitez 3Vision Group - Publicité 3 Publicité 3

Piégée par des deepfakes, elle envoie 25 millions à des cybercriminels



Le problème des deepfakes prend de l’ampleur et avec le concours de l’IA, ces attaques deviennent plus sophistiquées. Récemment, une employée de banque n’y a vu que du feu devant ce procédé et a envoyé 25 millions à des cybercriminels. Une visioconférence simulée l’a notamment fait tomber dans le piège.

25 Millions pour des deepfakes

Tout commence par un mail que la principale victime a reçu d’une adresse qui simulait celle du directeur financier de sa boîte. Le mail qui s’avérait contenir des messages de phishing n’a pas convaincu l’employée qui s’est vue ensuite proposer une visioconférence.

Lors de cet appel vidéo, celle-ci pensait discuter alors avec son directeur financier basé au Royaume-Uni ainsi que d’autres collègues. Seulement, l’employée travaillant à Hong-Kong a reçu des ordres venant de deepfakes.

Les instructions étaient claires, envoyer 25 Millions de dollars vers 5 comptes différents. Tout était parfaitement organisé pour rendre la situation réelle et pour découvrir l’arnaque, elle a dû appeler le siège de la multinationale pour une simple vérification d’usage. Cependant, le mal était déjà fait.

Lire aussi : Deepfake : les clonages de voix sont comparables à des armes nucléaires

Une technique bien rodée

Selon la police, les cybercriminels ont eu recours aux deepfakes pour berner l’employée. Ces derniers se sont en effet servis d’outils IA pour générer des images factices des employés dont la présence a été simulée lors de l’appel vidéo. Pour la voix, les mêmes types d’outils ont été utilisés pour cloner celles des personnes représentées à l’écran.

« Durant cette vidéoconférence à plusieurs personnes, il s’est avéré que toutes les personnes à part lui étaient fausses, mais semblaient plus vraies que nature » explique la police. Et pour réussir leur forfait, les criminels auraient diffusé des vidéos préenregistrées avec des ordres clairs. Il n’était pas vraiment question de dialogue selon les enquêteurs.

Cet incident rappelle encore une fois à quel point les deepfakes représentent un danger, surtout avec le boom des outils IA. Plusieurs stars et personnalités publiques dont Taylor Swift ont ainsi déjà été clonées pour diffuser de fausses nouvelles ou pour le partage d’images peu commodes.

Mais en dehors de ce type d’utilisation tout aussi malsain, ce sont les cybercriminels qui bénéficient malheureusement d’une nouvelle arme pour leurs basses besognes. C’est donc le moment de doubler de vigilance sur le web !

Lire aussi : Scandale du Deepfake de Taylor Swift : X (ex-Twitter) prend une mesure radicale

doingbuzz DIRECT
Mots-clés associés à l'article :

Cet article est réservé aux abonnés. Déjà abonné ?

Enquêtes, interviews, analyses…

Abonnez-vous et accédez à tous nos articles en illimité !