Deepfake : définition, usages et risques

6 décembre 2021


À l’occasion de la Digital Tech Conference 2021, trois experts abordent le sujet des deepfakes ou l’art de manipuler des photos ou vidéos de manière hyperréaliste.

Les deepfakes : entre progrès et dérives. © VectorMine – stock.adobe.com

Amine Kacete, ingénieur au laboratoire IA de l’IRT B<>com, Laurent Amsaleg, directeur de recherches et responsable de l’équipe Linkmedia et Alain Droniou, doctorant à l’Institut des Systèmes Intelligents et de Robotique, nous en apprennent un peu plus sur le monde des deepfakes lors d’une conférence de la Digital Tech, animée par Arnaud Wassmer.

Qu’est ce qu’un deepfake ?

« À la base, le terme deepfake était utilisé pour le visage humain. À partir du moment où on change l’image d’un visage humain, on parle de deepfake » explique Amine Kacete. Le deepfake est un terme anglais qui correspond au terme français « hypertrucage » : une technique de synthèse multimédia qui repose sur l’intelligence artificielle.

En réalité, dans les deepfakes, il y a plusieurs catégories :

  • Le face swap : la technique la plus connue. On prend le visage de quelqu’un et on le met sur quelqu’un d’autre, d’une manière ultraréaliste.
  • La synthèse intégrale : une technique qui permet de créer une photo d’une personne qui n’existe pas. On demande à la machine de générer un visage ultraréaliste.
  • Autres possibilités : utiliser la photo originale d’une seule personne et ne changer que certains traits de son visage ou certains attributs du visage (couleur de cheveux par exemple). Il est aussi possible de prendre l’apparence d’une autre personne sur une vidéo (comme peut le faire l’humoriste Canteloup).

Amine Kacete donne un exemple de deepfake de Barack Obama réalisé par l’acteur américain Jordan Peel, que vous pouvez apercevoir ci-dessous. Cette vidéo réalisée en 2018 a commencé a alerté sur l’impact que pouvait avoir un deepfake de ce niveau.

Autre exemple avec ce compte TikTok qui publie des deepfakes de l’acteur Tom Cruise :

@deeptomcruiseHere’s how I suit up!♬ original sound – Tom

Comment sont générés les deepfakes ?

Laurent Amsaleg apporte des précisions sur les deepfakes réalisés via la synthèse intégrale : « cela vient de « l’apprentissage profond », c’est une manière de faire de l’Intelligence Artificielle, ce n’est pas du montage, ce n’est pas artisanal, ce sont des visages qui sont générés grâce à la machine qui a appris ce qu’était un visage humain. On lui a donné « à manger » des millions de visages et elle a appris les caractéristiques du visage à travers un système algorithmique pointu. Ce qu’on est capable de générer, c’est tout à fait sidérant. »

Mais comment détecter les deepfakes « malveillants » ?

Amine Kacet souligne le fait que la qualité des deepfakes s’est vraiment améliorée depuis plusieurs années : « aujourd’hui on arrive à générer des visages de résolution HD (1024×2024). » C’est pourquoi il est désormais plus facile de manipuler des photos et vidéos en utilisant les techniques de deepfakes. Mais alors comment les détecter ?

Grâce à des bases de données constituées sur des expressions de visages humains, il est possible de détecter plus facilement les deepfakes : « ce sont des bases données sur lesquelles on peut se benchmarker, et surtout obtenir des métriques objectives pour développer un détecteur qui marche, on a des bases de données très challenging, avec différents scénarios et différentes qualités d’images, et là, on peut quantifier de manière objective l’efficacité de l’algorithme » explique l’ingénieur de B<>com.

Sur des photos deepfakes, on peut distinguer un inconvénient visible : « sur les personnes qu’on génère de manière intégrale, ils ne ferment jamais les yeux, les techniques génératives qui les conçoivent ne peuvent pas générer cela. Les yeux sont souvent une région aberrante pour les deepfakes. »

Les deepfakes sont aussi conçus pour des bonnes raisons…

Les deepfakes ne sont pas utilisés qu’à des fins malveillantes. Laurent Amsaleg revient sur certaines raisons scientifiques de l’invention des deepfakes : « le point de départ c’est l’utilisation de l’Intelligence Artificielle pour rendre les modifications extrêmement réalistes, sortir de l’artisanat, où on va faire du Photoshop. Il y a par exemple la volonté d’animer des personnages réalistes dans des jeux vidéo. Il y aussi des algorithmes qui ont été inventés pour comprendre la manière dont les lèvres des gens bougent, cela sert notamment dans l’industrie du cinéma afin de réaliser des doublages de films plus réalistes dans d’autres langues. »

Malgré ces bonnes raisons, le directeur de recherches alerte sur les dérives de ce progrès car pouvoir faire bouger les lèvres de n’importe qui, cela veut dire pouvoir faire dire n’importe quoi à n’importe quelle personne. Et c’est là que cela peut devenir dangereux.

Avec le progrès technologique, quel avenir pour les vidéos deepfakes ? Quels risques ?

Alain Droniou s’exprime sur le sujet : « On sait encore comment remonter à une donnée source si une donnée source a été utilisée. Aujourd’hui, il n’est pas possible de générer une vidéo à partir de rien mais si on se projette dans un futur et avec l’évolution qu’on a vu ces dernières années, peut-être dans quelques années on pourra le faire, et là par définition il sera impossible de remonter à la vidéo source manipulée puisqu’elle aura été entièrement générée. » Amine Kacet ajoute : « on est capables de générer une image statique à partir de rien mais on ne peut pas générer une personne qui parle à partir de rien. » 

On n’est pas très loin de pouvoir faire de la génération de contenu complétement artificielle à partir d’une description textuelle, conclut Laurent Amsaleg

Recevez par email toute l’actualité du digital



Source : Blog du modérateur

agence de communication à Rennes

Deepfake : définition, usages et risques
Mot clé :            
Agence LDP