Dans le monde obscur des Deepfakes

Les applications d’appareil photo et les logiciels d’édition d’image nous permettent de retoucher nos images nous-mêmes. Nous pouvons nous rendre plus beaux, cacher ce petit truc laid, éliminer les imperfections et les cernes, et même ajouter un nez et des oreilles d’animaux. Mais, la technologie de plus en plus sophistiquée a conduit les gens à créer de fausses vidéos qui semblent réelles. Trop réelles.

Cette technologie est appelée Deepfake. Le dernier rapport sur la transparence de Facebook a révélé que 2,2 milliards de faux comptes Facebook ont été supprimés de janvier 2019 à mars 2019 en raison d’une augmentation des attaques par script automatisées. La menace de fausses images et vidéos est en augmentation. Une personne moyenne ne peut pas identifier 40 % des vidéos Deepfakes. En outre, environ 3,6 milliards de vues YouTube, chaque année, proviennent de fausses sources vidéo.

À propos des Deepfakes

Les Deepfakes sont des vidéos / images truquées utilisant une intelligence artificielle raffinée. Cela conduit à des images et des sons fabriqués créés de telle manière qu’ils semblent réels. Les Deepfakes s’améliorent de plus en plus avec le temps, sans parler de l’accessibilité.

La technique du Deepfake impose une image manipulée sur l’image source réelle et crée un faux modèle. Cela pourrait fonctionner comme vous le souhaitez et s’exprimer comme vous le souhaitez. Les Deepfakes sont créés à l’aide de méthodes basées sur l’intelligence artificielle et l’apprentissage automatique. C’est pourquoi ils sont difficiles à identifier. Les Deepfakes se propagent à un rythme rapide et trompent le public en lui faisant croire qu’il s’agit de la vraie affaire et en modifiant son objectivité par le biais d’informations incorrectes.

Comment fonctionnent les Deepfakes ?

Les Deepfakes utilise un système d’apprentissage profond capable de produire une fausse image persuasive en étudiant en profondeur les vidéos et les photographies de la personne cible sous différents angles, puis en imitant ses schémas de parole, ses gestes et son comportement.

La technologie Deepfake fonctionne sur deux composants du système GAN AI – un discriminateur et un générateur. Le générateur est responsable de la création d’un faux clip, puis l’envoie au discriminateur pour identifier si le clip est réel ou faux. Après avoir produit une fausse vidéo de base, les GAN (réseau génératif contradictoire) la rendent crédible pour le public. Les GAN trouvent des failles dans la contrefaçon et conduisent à des améliorations et corrigent les failles.

Le générateur et le discriminateur travaillent ensemble et se battent constamment l’un contre l’autre. C’est le travail du discriminateur de distinguer la fausse vidéo. En revanche, le générateur est responsable de la création de la vidéo que le discriminateur ne peut pas distinguer comme fausse. Une vidéo Deepfake est terminée après plusieurs sessions de détection et d’amélioration.

Selon un rapport technologique du MIT, l’appareil préparant les Deepfakes pourrait être une arme idéale pour les diffuseurs de fausses nouvelles qui veulent tout influencer, y compris les élections et le cours des actions.

La détection des vidéos Deepfake

Bien que l’IA joue un rôle clé dans la création des Deepfakes, vous pouvez utiliser l’IA pour les détecter. La technologie est devenue facilement accessible à tous et, par conséquent, de plus en plus de chercheurs se concentrent sur les efforts pour détecter les Deepfakes et trouver des moyens de limiter sa propagation.

Il existe de légers aspects visuels qui disparaissent si vous regardez de très près. Tout ce qui va des yeux ou des oreilles au bord du visage ou une peau trop lisse pourrait vous aider à détecter les Deepfakes. Repérer les signes révélateurs devient de plus en plus complexe à mesure que la technologie devient avancée et réaliste.

Les grands noms de l’industrie, comme Facebook et Microsoft, se sont mobilisés pour détecter et éliminer les vidéos Deepfake. Il y a quelques semaines, Google a publié des milliers de vidéos Deepfake qui vont aider les chercheurs à créer des outils utilisant l’intelligence artificielle pour détecter les vidéos truquées. Ces vidéos pourraient entraîner le cyberharcèlement, le sabotage en entreprise et la désinformation politique. La technologie va contribuer à capturer les Deepfakes de la même manière que les filtres anti-spam capturent le spam par e-mail.

Mais la technologie va jouer un rôle dans la solution car que cela plaise ou non, les Deepfakes devraient s’améliorer beaucoup plus rapidement que les méthodes de détection. En outre, l’expertise humaine et l’intelligence sont nécessaires pour reconnaître les vidéos trompeuses dans un avenir proche. Les chercheurs se concentrent également sur une solution pour détecter les Deepfakes par des techniques automatisées d’identification des vidéos manipulées à l’aide de l’intelligence humaine et de l’IA. Ces outils de détection reposent en grande partie sur l’apprentissage automatique et d’énormes quantités de données d’apprentissage.

La branche en charge de la recherche du Département de la Défense, la Darpa, gère un programme qui fournit des fonds aux chercheurs en se concentrant sur des outils automatisés de détection d’image truquée pour identifier les Deepfakes.

Facebook et Google ont annoncé cette année qu’ils allaient créer une énorme base de données de fausses vidéos pour la recherche en s’associant aux meilleures universités des États-Unis. Les entreprises prévoient de divulguer cette base de données aux chercheurs en IA lors d’une conférence en décembre. Cela prouve que les géants de la technologie cherchent également des moyens d’obtenir une solution technique au problème croissant des Deepfakes.

La technologie Deepfake – les dangers

Selon les experts en sécurité, les dangers et les menaces de la technologie Deepfake sont réels et pourraient avoir des effets dévastateurs. Certains signes révélateurs indiquent une diffusion d’informations politiques trompeuses qui pourraient également se révéler préjudiciables aux entreprises.

Les attaques numériques sont devenues faciles et bon marché. Et à mesure que la qualité du faux contenu s’améliore de plus en plus, il est de plus en plus difficile de distinguer la vraie chose du faux. La technologie Deepfake est dangereuse et constitue une menace pour l’éducation, les médias, le show-business, la politique et d’autres domaines de la pire façon possible.

La plus grande menace concernant les Deepfakes est son intégration dans les vidéos pornographiques. N’importe quel ennemi pourrait coller le visage d’une célébrité ou de toute autre personne connue sur le corps d’une star du porno. Cela pourrait conduire à un énorme gâchis dans un débat politique et à une réputation malveillante.

Les Deepfakes peuvent également montrer une personnalité publique comme ivre ou se livrant à des activités immorales – démontrant son incompétence. Les Deepfakes utilisent une technique simple. La vitesse de la vidéo réelle est réduite d’environ 75 % de sa vitesse naturelle. La hauteur de la voix augmente également pour la rendre authentique. La vitesse ralentie de la vidéo donne l’impression que la personne dans la vidéo est ivre.

Les Deepfakes impliquant des personnes célèbres pourraient également avoir des effets dramatiques. Prenons l’exemple de la vidéo Deepfake de Mark Zuckerberg, annonçant son contrôle sur les informations volées. Elle s’est propagée comme une traînée de poudre. Les fausses nouvelles, les fausses études, les faux résultats de la recherche scientifique et les fausses statistiques des enquêtes pourraient avoir un impact dévastateur sur la santé mentale des gens. En outre, cela pourrait laisser des universitaires, des chercheurs, des politiciens et des personnalités célèbres ruinés, brisés et même en disgrâce. Les vidéos Deepfakes pourraient être le moyen ultime pour certains de se venger.

La technologie Deepfake – les opportunités

En plus de l’utiliser pour nuire à la réputation d’une personne et propager des mensonges, les Deepfakes pourraient être utilisés à des fins éducatives, scientifiques et sociales. Les GAN fabriquent des visages en utilisant des personnalités imaginaires photoréalistes. Les mêmes technologies pourraient être utilisées pour effectuer des retouches incroyables comme la netteté des images floues et ajouter de la couleur aux photographies en noir et blanc.

De plus, les scientifiques pourraient utiliser cette technologie à partir de molécules virtuelles pour la recherche chimique, ce qui pourrait accélérer les découvertes scientifiques et médicales. Les scientifiques peuvent observer le comportement des molécules tout en en générant de nouvelles.

Pour conclure

Pour résumer, la technologie Deepfake présente plus d’inconvénients que d’avantages. Les gouvernements américain et britannique ont pris des initiatives pour surveiller tout ce qui est lié à l’utilisation des GAN. De plus, l’éducation et la sensibilisation sont extrêmement importantes pour freiner et combattre les conséquences négatives de ce modèle. La pensée critique et la littératie numérique devraient être incluses dans le programme scolaire, afin que les personnes puissent apprendre à différencier une image / vidéo réelle d’une image Deepfake, dès le plus jeune âge.

Facebooktwitterredditpinterestlinkedinmail