Hébergement web Hébergement web Annonces TogoPapel

Deepfake : les clonages de voix sont comparables à des armes nucléaires

 

Aujourd’hui, les utilités de certains logiciels sont tout simplement magiques. L’essor numérique est entré dans une autre dimension au cours de la dernière décennie. Cependant, parmi ce lot d’apports du numérique, le terme « Deepfake ». Très méconnu de la population sénégalaise, le Deepfake est un procédé pas du tout catholique. Ce procédé consiste à superposer des fichiers vidéos ou audio existants sur d’autres du genre sur d’autre supports dans le but de créer un fichier de synthèse grâce à l’intelligence artificielle.

Pour faire simple, aujourd’hui, il est possible de reproduire le visage ainsi que la voix de n’importe qui pour lui faire dire tout ce qu’on veut avec l’aide de logiciels. Vous aurez constaté que les Deepfakes sont capables de vous nuire en un rien de temps.

Le problème a été constaté au Sénégal suite à des messages audio clonés qui avaient placé au pied du mur certaines personnalités dans l’affaire « Sweet beauté ». A ces audio, se sont ajoutés des montages photos qui avait comme l’un des proches d’Ousmane Sonko, le leader du PASTEF.

Le consultan et spécialiste en médias, Mountaga Cissé a tenu à exposer le peu quil connait. Il déclare ainsi : « il y a ce qu’on appelle l’empreinte de la voix, la tonalité, le débit. Le clonage de voix fait partie de ce qu’on appelle le « Deepfake », c’est-à-dire les manipulations de contenu multimédia, la vidéo, l’image et le son. Dans les Deepfake on peut par exemple prendre une vidéo d’une autorité et lui faire dire quelque chose qu’il n’a pas dit. Dans ce cas on parle de clonage de voix… »
Continuant dans son explication, Mountaga Cissé dira par la suite : « chaque individu a ce qu’on appelle « l’empreinte de la voix, la tonalité, le débit, les remontées et descentes etc. C’est cette empreinte qui est mise dans un logiciel et à côté on crée un texte qui n’a rien à voir avec le discours de l’autorité en question. Et c’est la voix créée par le logiciel qui va lire le même texte. »

Si ce procédé est facile à lire ce n’est pas loin d’être facile à réaliser. De même que Mountaga Cissé, un informaticien et réalisateur audiovisuel s’est prononcé sur le sujet. Pour Demba Diagne, le terme Deepfake a été utilisé pour la toute première fois par un utilisateur de reddit… À la base, cette technique était utilisée dans les productions cinématographiques.

Le terme Deepfake vent d’où ?

Dans son explication, Demba Diagne est revenu sur l’origine du Deepfake. L’informaticien retrace ainsi la naissance du Deepfake : « Le terme Deepfake a été utilisé pour la toute première fois par un utilisateur de reddit qui est une plateforme américaine spécialisé dans tout ce qui est high-tech. C’est par la suite que le terme s’est propagé… En 1997, il y avait un film qui retraçait le parcours du président américain, John Fitzgerald Kennedy. À l’époque, le « Deepfake » avait été utilisé pour reproduire la voix de Kennedy et ses expressions faciales. À la base, cette technique était utilisée dans les productions cinématographiques. Une sorte de détournement d’objectif interviendra par la suite : « à un moment donné les gens ont commencé à utiliser le « Deepfake » à d’autres fins. Un réalisateur américain, Jordan Peele, avait d’ailleurs fait un Deepfake de Barack Obama pour lui faire dire des propos qu’il n’avait jamais tenus. Ceci, à titre illustratif car il voulait éveiller l’opinion sur les dangers de cette technologie. » Peele avait déjà mesuré les dégâts considérables que cette merveilleuse technologie pouvait engendrer une fois entre de mauvaises mains.

Pour Basile Niane, journaliste et blogueur multimédia : « le Deepfake est une technique qui utilise l’intelligence artificielle pour changer des voix, des visages etc. D’où le terme de « Deep » parce qu’il y a une technique assez élevée qui n’est pas accessible à tout le monde… Il faut vraiment avoir une certaine technique pour pouvoir faire ce travail-là…Ça permet de se cacher et de ne pas se faire remarquer. »

 

 

En 2014, une technique inventée par le chercheur Ian Goodfellow est à l’origine des deepfakes. Il s’agit du GAN (Generative Adverarial Networks). Selon cette technologie, deux algorithmes s’entraînent mutuellement : l’un tente de fabriquer des contrefaçons aussi fiables que possible ; l’autre tente de détecter les faux. De cette façon, les deux algorithmes s’améliorent ensemble au fil du temps grâce à leur entraînement respectif. Plus le nombre d’échantillons disponibles augmente, plus l’amélioration de ceux-ci est importante.

Le phénomène du deepfake est officiellement né à l’automne 2017 et est apparue sur le site web Reddit. Depuis 2017, le nombre de deepfakes augmente considérablement. D’après les chercheurs de la société Deeptrace, le nombre de vidéos deepfakes trouvées en ligne en 2019 étaient d’environ 15000, contre un peu moins de 8000 vidéos recensées un an auparavant.

En ce qui concerne les deepfakes audio, la création de ceux-ci nécessite des ressources matérielles très importantes, cela relève donc pour l’instant majoritairement des professionnels dans ce domaine.

Quels sont les risques liés aux deepfakes ?

Grâce à l’IA, tout le monde peut créer des deepfakes très facilement et sans connaissances techniques particulières en téléchargeant une application simple comme FakeApp. En analysant les mouvements de nos visages, l’algorithme de l’application va pouvoir nous « rajeunir » ou nous « vieillir » assez simplement, par exemple. Ce ne sont pas des deepfakes élaborés permettant de créer de faux contenus qui peuvent être compromettant, mais ceux-ci deviendront de plus en plus réalistes au fur et à mesure des évolutions technologiques, et donc de plus en plus problématiques…
Avec l’avènement des fakes news et ses effets néfastes sur les réseaux sociaux, la diffusion de deepfake sur le web constitue donc une nouvelle menace technologique.

Manipulation, désinformation, humiliation, diffamation… les dangers des deepfakes seront de plus en plus nombreux. C’est pour cela que Google a publié, en septembre 2019, une base de données d’un peu plus de 3000 vidéos deepfakes, ce qui permet d’apporter une aide aux ingénieurs et chercheurs essayant de créer des outils de détection automatisés, reposant sur l’IA. Cela permettrait aussi d’augmenter l’efficacité de ces outils, surtout que Google continue à alimenter cette base de données.

L’avenir des deepfakes

Concernant les réseaux sociaux, où les deepfakes peuvent se propager de la manière la plus rapide, le laboratoire FAIR de Facebook travaille actuellement sur un projet de « désidentification ». Leurs ingénieurs sont en train d’inventer une IA qui applique un filtre sur des vidéos afin d’empêcher leur exploitation par des logiciels de reconnaissance faciale qui peuvent générer des deepfakes. Par ailleurs, depuis novembre 2019, la CNIL met en avant sa volonté de créer un véritable cadre législatif et réglementaire pour la reconnaissance faciale et donc à la conception des deepfakes. Le respect de la vie privée et le droit à l’image semblent être remis en cause pour pouvoir répondre à des enjeux stratégiques, économiques et politiques.

Il est très difficile de tracer un Deepfake ou encore de créer un Deepfake. Donnons l’exemple du logiciel « Baidu deep voice » qui étant même à l’état de prototype était inaccessible au public. Ce logiciel était capable de reproduire votre voix à l’identique juste avec comme échantillon 3,7 secondes de voix. Demba Diagne ira jusqu’à dire que les Deepfake sont des armes nucléaires qui ne sont accessible qu’à une minorité restreinte.

Le Deepfake n’est pas à la portée de tout le monde. N’importe qui ne peut pas se lever et créer un Deepfake, ce n’est pas un jouet qu’on retrouve sur le marché.

Voici la section des commentaires :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *