Verif'

Kylian Mbappé sermonné, Bill Gates annonçant une épidémie... Oui, c'est du deepfake, mais comment le repère-t-on ?

par Felicia SIDERIS avec Samira EL GADIR
Publié le 8 septembre 2023 à 21h05
Le candidat Ron DeSantis, le footballeur Kylian Mbappé et le milliardaire Bill Gates ont tous les trois été victimes de deepfakes
Le candidat Ron DeSantis, le footballeur Kylian Mbappé et le milliardaire Bill Gates ont tous les trois été victimes de deepfakes - Source : Captures d'écran

De nombreuses vidéos générées par l'intelligence artificielle sont devenues virales.
Dernière en date, celle du gouverneur américain Ron DeSantis qui assure se retirer de la course à la Maison-Blanche.
On vous donne les astuces pour reconnaître ces deepfakes.

Les vidéos sont plus vraies que nature. Mais les failles persistent. Les deepfakes, ces vidéos générées par l'intelligence artificielle, refont surface avec cette rentrée, et sont même utilisés aux États-Unis. Ce vendredi 1ᵉʳ septembre, des internautes ont voulu court-circuiter le candidat Ron DeSantis dans la course à la Maison-Blanche, où tous les coups semblent permis. Ils ont diffusé une vidéo du gouverneur républicain dans laquelle il assure retirer sa candidature et se ranger derrière Donald Trump, son concurrent. Tout cela avec un réalisme tel qu'il en a trompé plus d'un. 

Et pour cause, avec des vidéos créées par une intelligence artificielle capable d'apprendre les mouvements et la voix d'une personne, et des outils de plus en plus accessibles, celles-ci sont non seulement plus nombreuses, mais aussi plus en plus crédibles. 

Une étude publiée en février 2022, montrait ainsi que 78% des interrogés étaient incapables de discerner une vidéo générée par l'intelligence artificielle d'une vidéo authentique. Nous vous donnons ici quelques conseils pour éviter de tomber dans le piège.

Les indices visuels

Comme pour un bon nombre d'autres deepfakes, plusieurs indices dans la vidéo du candidat républicain remettent en doute son authenticité. Il s'agit de petites anomalies, notamment au niveau du visage et plus précisément de la bouche. Les traits sont figés, la personne filmée ne cligne pas assez des yeux ou très bizarrement, les lèvres bougent d'une manière peu naturelle. 

Chez Ron DeSantis, ce sont les dents qui sont floues et alignées de manière incohérente, voire disparaissent à certains moments. L'ensemble du corps doit également interpeller, particulièrement ses dimensions : la tête est souvent anormalement grande ou mal située sur le cou. 

Des petits détails qui peuvent aussi être repérés lors d'un mouvement. Lorsque le visage change d'expression, qu'il réalise un geste brusque ou qu'un objet passe devant, l'image devient floue ou tordue. Le compte Twitter qui a initialement publié le clip du candidat républicain a d'ailleurs reconnu que "la vidéo était de toute évidence un deepfake créé à des fins de divertissement".

Enfin, la voix peut aussi permettre d'identifier un extrait manipulé. Soit parce qu'elle ne correspond pas à celle de la personne visible sur les images, soit parce que le mouvement des lèvres ne respecte pas le rythme des paroles. Dans le cas du candidat américain, c'est la synchronisation entre l'audio et la vidéo qui était mal réalisée à plusieurs reprises.

Les incohérences

Une deuxième astuce en cas de doute consiste à vérifier que tout paraisse logique dans la séquence. Une vidéo d'Hillary Clinton est ainsi devenue virale fin août aux États-Unis avant d'être partagée dans les sphères de la désinformation en France. Sur les images, l'ancienne Secrétaire d'État donne une interview à la chaîne MSNBC au cours de laquelle elle "avoue" un certain nombre de secrets sur l'ancien président Barack Obama. Or, plusieurs éléments alertent très rapidement. 

Tout d'abord, l'utilisation par la chaîne d'un surnom pour la femme politique au lieu de son vrai nom. Le bandeau affiche le surnom "Killary", un jeu de mot particulièrement indélicat entre le prénom de l'ancienne rivale de Donald Trump et le verbe "to kill" ("tuer" en français). De quoi douter de son authenticité. En plus, ni l'écriture du bandeau ni l'utilisation de la ponctuation ne correspondent à celles de la chaine américaine.

En haut, la deep fake d'Hillary Clinton, en bas l'interview originale diffusée le 15 août 2023
En haut, la deep fake d'Hillary Clinton, en bas l'interview originale diffusée le 15 août 2023 - Captures d'écran

Un autre exemple se trouve dans cette vidéo vue des millions de fois depuis le 28 août dans laquelle Kylian Mbappé semble se faire violemment sermonner par son père. Si le visage de l'enfant a été remplacé par la star du football, celui de l'homme en question n'a pas été modifié. Or, une simple recherche sur Google images prouve qu'il ne ressemble pas du tout à Wilfrid Mbappé, le père de l'international français.

Remonter à la source

Enfin, comme pour chaque publication qui apparaît sur les réseaux sociaux, le premier réflexe consiste à remonter jusqu'à la source. Dans le cas où la voix a uniquement été manipulée, retrouver le lieu de la première publication permet de voir les modifications apportées. C'est par exemple le cas avec la vidéo vue des millions de fois dans laquelle Bill Gates annoncerait l'émergence d'une nouvelle épidémie pour cette année. La recherche d'image inversée permet notamment de trouver une vidéo publiée sur YouTube dans laquelle il est clairement indiqué qu'il s'agit d'une "satire". En allant un peu plus loin sur le compte officiel du milliardaire, on retrouve la séquence originale qui a permis cette manipulation, dans laquelle Bill Gates évoque le sujet des maladies infantiles. 

Sur les réseaux sociaux, la description et/ou les commentaires qui accompagnent le cliché s'avèrent également utiles. Les internautes ont tendance à préciser qu'il s'agit d'un deepfake ou d'une parodie et le hashtag #deepfake accompagne souvent ces œuvres numériques. 

Deepfake : on a testé l'application XpressionSource : Sujet TF1 Info

Face à ces contenus, qui vont de l'humour à la déstabilisation d'une campagne électorale, la vigilance se révèle donc mise. Pour l'heure, seule une approche critique devant chaque vidéo permet d'éviter les pièges. Vérifier la légende, scruter l'image, prêter attention au son et faire attention aux détails. À l'ère de la désinformation, adopter la position du doute n'a jamais été aussi nécessaire.

Vous souhaitez nous poser des questions ou nous soumettre une information qui ne vous paraît pas fiable ? N'hésitez pas à nous écrire à l'adresse lesverificateurs@tf1.fr. Retrouvez-nous également sur Twitter : notre équipe y est présente derrière le compte @verif_TF1LCI.


Felicia SIDERIS avec Samira EL GADIR

Tout
TF1 Info