N’avez-vous jamais rêvé entendre et voir Emmanuel Macron mettre un terme au confinement lors d’un discours présidentiel ? Ou mieux encore, voir notre Président jouer dans Matrix ? Sachez que c’est aujourd’hui possible grâce aux deepfakes.

Le terme deepfake provient de la synthèse entre deep learning (méthode d’apprentissage profond pour les intelligences artificielles) et fake, c’est-à-dire faux. Il s’agit d’un ensemble d’algorithme étudiant le visage d’un individu à partir d’une base de donnée d’images (par exemple un discours ou une interview) et qui arrive à émuler ce visage pour qu’il colle parfaitement à une mise en scène décidée par un utilisateur. On retrouve aussi des deepfakes, plus récents, émulant la voix en plus de l’image.

Assez tôt, cet outil était réservé à une niche. Sur internet, à l’origine, les deepfakes ont été utilisés par des amateurs pour créer des films X avec leurs stars de cinéma favorites. La plus grosse communauté d’utilisateurs se trouvait sur le site reddit, précisément sur le subreddit r/deepfakes qui a réussi à réunir plus de 90 000 membres avant sa suppression en février 2018.

En 2019, selon Deeptrace (une startup néerlandaise analysant les deepfakes d’internet), on trouvait près de 15 000 deepfakes en ligne. Ce nombre a augmenté de 84% par rapport à 2018. Encore selon la même source, avant 2017 moins de 100 personnes par mois tapaient « deepfake » sur google, alors qu’en 2019 le même terme a été entré entre 5 million et 10 millions de fois dans le moteur de recherche.

En effet, la démocratisation des deepfakes s’est faite par la presse dénonçant rapidement le potentiel malveillant de cet outil. Mais ce sont les réseaux sociaux qui ont participé à la popularisation de ces vidéos truquées ; en avril 2018, BuzzFeed a tweeté un deepfake de Barack Obama créé à partir du visage de Jordan Peele. Le tweet a réussi à obtenir plus de 15 000 retweets en un seul mois.

 

Un problème d’état

Une grande part de l’attention des médias concernant les deepfakes s’est concentrée sur leur potentiel à ébranler les processus démocratiques, en permettant d’augmenter le nombre de cyberattaques contre des particuliers, des gouvernements et des entreprises.

L’utilisation des deepfakes, si ce n’est pas déjà le cas, se démocratise puisque la plupart des logiciels permettant de faire ses propres deepfakes sont opensource, c’est-à-dire libres d’accès, tout le monde dispose donc des moyens pour créer ses propres deepfakes.

Bien qu’en général cette technologie est utilisée dans un but humoristique, pour faire des memes, par exemple le visage de Keanu Reeves incrusté dans la fameuse scène de 300, un film dans lequel l’acteur n’a jamais joué, c’est une technologie qui reste dangereuse.

Si ces images trafiquées sont utilisées à mauvais escient, elles peuvent orienter les opinions (et de manière encore plus efficace qu’une simple fakenews), alimenter une haine ou encore nuire à l’image de personnalités (politiques ou non).

Par exemple, au Gabon, en 2018, beaucoup de discussions spéculaient sur la santé du président Ali Bongo qui s’est éclipsé de la vie publique depuis plusieurs mois. Pour interrompre ces spéculations, le gouvernement a décidé de publier une vidéo du président gabonais présentant ses meilleurs vœux pour l’année 2019. Cependant, l’apparition surprenante d’Ali Bongo dans une vidéo a provoqué des réactions vives sur les réseaux sociaux qui ont affirmé que la vidéo était un deepfake réalisé par le gouvernement pour couvrir l’état de santé ou le décès du président. Une semaine après la sortie de la vidéo l’armée gabonaise a tenté un coup d’état, utilisant la vidéo comme preuve d’une volonté du gouvernement de cacher la vérité.

Cependant, une fois la vidéo en question passée sous analyse, il a été prouvé qu’elle était non trafiquée. Depuis le président a refait des apparitions publiques. Le gouvernement gabonais a vécu cette semaine une crise importante à cause d’une simple suspicion d’utilisation de deepfake.

 

Un problème amenant à une mobilisation

En Septembre 2018, trois législateurs américains ont envoyé une lettre au directeur du renseignement national. Cette lettre demandait un rapport détaillé sur les deepfakes avant mi-décembre. Les législateurs ont affirmé que les deepfakes représentaient une menace pour la sécurité nationale, totalement accessible à une nation étrangère hostile aux Etats-Unis.

Samuel Gregory, directeur de programmation chez WITNESS, a déclaré « La première vague de deepfakes et de médias malicieusement fabriqués devrait arriver en 2020. Nous avons l’opportunité de nous y préparer. »

Rapidement, des mesures ont été prises pour essayer d’endiguer le flux de fausses vidéos. Ainsi le même mois, une fondation non-gouvernementale a réussi à lever 10 millions de dollars (dont une partie importante provenant directement de l’armée américaine) dans le but de mettre au point un outil combinant une intelligence artificielle et une modération humaine. Cet outil a pour projet d’identifier du contenu pouvant tromper les gens, comme les deepfakes.

Toutefois, les IA se multiplient aussi en face. Certaines IA sont capables de mesurer la viabilité d’un deepfake et d’autres se chargent de corriger leurs vidéos pour rendre le faux indissociable du vrai. A terme, l’apprentissage qui est tiré par ces intelligences artificielles ne pourra que rendre la lutte contre le faux de plus en plus difficile. Une guerre entre IA pourrait bien être lancée.

Répondre