deepfake

deepfake

 

 

 

Un Deepfake est une vidéo produite ou modifiée, grâce à l’intelligence artificielle. Le terme désigne le contenu ainsi généré, et les technologies utilisées à cet effet.

Le mot Deepfake est une contraction entre Deep learning (apprentissage en profondeur et » Fake, « faux profond ». Il s’agit de contenus fallacieux, rendus parfaitement crédibles grâce à l’intelligence artificielle qui met en compétition deux algorithmes.

À partir d’images fournies en amont, le premier algorithme cherche à créer de fausses imitations aussi crédibles que possible. Le second algorithme cherche à détecter les faux le plus efficacement possible. Le premier continue à produire de fausses vidéos jusqu’à ce que le second ne puisse plus déceler la supercherie. Il en résulte, au final, des « fakes » suffisamment réalistes pour tromper même les humains.

Plus les données fournies à l’algorithme au début du processus sont nombreuses, plus celui-ci sera capable d’apprendre à créer des faux facilement. C’est la raison pour laquelle les anciens présidents américains et les stars d’Hollywood sont souvent utilisés pour créer des Deepfakes : de nombreuses vidéos d’archives sont en libre accès et peuvent être utilisées pour nourrir les modèles.

 

Pourquoi les deepfakes ?

Les humains ont une tendance à ne croire qu’en leurs propres yeux et oreilles. Lorsque l’illusion est trop belle, il est facile d’être victime d’une supercherie.

Depuis l’antiquité, les humains ont appris à croire ce que leurs sens identifient comme réalité. Au début de la photographie, certains ont eu peur de ce doublement. D’autres discutaient l’âme de la personne imprimée sur papier. Quelques années plus tard, le trucage des photos devient répandu, surtout dans les régimes totalitaires pour modifier ou embellir le réel.

Pendant la première projection cinématographique, l’illusion était si proche de la réalité que les spectateurs ont fui la salle de peur d’être écrasés par le train projeté sur le l’écran.

À l’ère numérique, les yeux et les oreilles ne suffisent plus pour détecter le réel. Le pourcentage de photos retouchées sur internet peut surprendre, de même dans les médias imprimés. La quantité de contrefaçons en ligne continue d’augmenter, la qualité aussi.

Le terme « deepfake » apparaît pour la première fois en 2017 pour décrire les vidéos et les images qui mettent en œuvre des algorithmes d’apprentissage pour créer des vidéos et des images qui semblent réelles.

Le phénomène Deepfakes a commencé en 2017, sur Reddit, lorsqu’un utilisateur s’est amusé à intégrer les visages de célébrités dans des films X. De son côté, la chaîne YouTube Deepfakes s’amuse à modifier des bandes-annonces de films grâce à l’IA.

Plus récemment, une vidéo diffusée sur Instagram montre Mark Zuckerberg, le créateur de Facebook, révéler » toute la vérité » sur son réseau social et sur son intention de contrôler l’humanité.

Un Deepfake hyperréaliste de Nixon rendant hommage à Neil Armstrong tombé au combat est apparu dans un film de 2019, In Event of Moon Disaster. Ce discours du président Nixon n’a jamais existé, tout comme le décès de Neil Armstrong au combat bien sûr.

D’autres dirigeants mondiaux actuels et anciens, tels que John F. Kennedy, Barack Obama et Vladimir Poutine ont fait l’objet de vidéos truquées. Bien que la montée des « deepfakes » ces dernières années ait fait l’objet de discussions dans les médias populaires, la littérature de recherche universitaire sur le sujet reste relativement rare.

Cependant, les chercheurs expriment leur inquiétude au sujet de ces images et vidéos trafiqués, car ils présentent un risque de sécurité, de plus en plus grand dans les années à venir. Un rapport prédit que les images truquées constitueront la menace la plus grave pour la sécurité au cours des 15 prochaines années, parmi toutes les autres technologies utilisant l’IA.

 

deepfake visage

Les risques liés aux Deepfakes ?

Grâce à l’IA, n’importe qui peut créer un Deepfake, même sans compétences techniques particulières en téléchargeant un simple logiciel, et produire un contenu pouvant servir ses intérêts en manipulant l’opinion des spectateurs.

Après les Fake News et leur impact sur les réseaux sociaux, la propagation des Deepfakes sur le web représente une nouvelle menace liée aux technologies.

Cette innovation pourrait être utilisée à des fins de propagande politique ou de criminalité.

Après les hommes politiques, et les personnes médiatisées, les femmes sont le sujet de la majorité des vidéos pornographiques truquées. Les actrices américaines et britanniques, ainsi que les musiciens sont un sujet commun de ces vidéos.

À court terme, ces vidéos truquées peuvent servir à semer la panique en utilisant une fausse vidéo d’alerte à la bombe ou faux sexe tape pour ruiner le couple ou la carrière, ou pour discréditer un candidat électoral, ou à créer une vague de panique économique ou sanitaire.

À long terme, la prolifération de ces vidéos trucages finit par convaincre les utilisateurs et les spectateurs de ne plus faire confiance.

 

Lutter contre les deepfakes

La première réponse est juridique. Dans certains états, comme la Californie, il est illégal de créer ou de distribuer les « deepfakes » pendant les 60 jours avant une élection. Dans d’autres états, la riposte est appliquée selon la nature des deepfakes et selon ses conséquences.

Pour lutter contre les deepfakes, Google vient de publier un vaste ensemble de données constituées de vidéos Deepfake pour apporter du soutien aux chercheurs qui développent des outils de détection contre ces contenus truqués. Les chercheurs pourront utiliser cet ensemble de données pour perfectionner des outils de détection automatisés reposant sur l’IA.

Récemment, Facebook a annoncé les résultats d’un concours où des experts ont construit de nouveaux algorithmes pour détecter les deepfakes. Le gagnant a pu détecter 82 % des médias altérés par l’IA. Dans l’état actuel, la majorité des vidéos truquées sont basées sur l’échange de visages, avec plusieurs degrés de sophistications en changeant la parole, le mouvement des lèvres, ou en jouant avec le gestuel.

 

Deepfake et porno

En 2019, la société Sensity a publié un rapport sur l’état des deepfakes sous le nom de Deeptrace, ils ont détecté 14 678 vidéos en ligne altérées par l’IA. Parmi celles-ci, 96 % étaient utilisées dans des contenus pornographiques.

Malgré la large couverture médiatique des « deepfakes » politiques, les deepfakes pornographiques sont le contenu le plus répandu sur le web. Le rapport de Sensity pour 2019 a révélé que 100 % des contrefaçons pornographiques détectées contenaient des femmes.

Après les hommes politiques, les célébrités, et les stars de l’industrie du divertissement, les faux créateurs ciblent des individus, souvent des femmes, qui mènent une vie active en ligne.