Trey Parker et Matt Stone ont fait équipe avec le comédien britannique Peter Serafinowicz (Guardians Of The Galaxy, Shaun Of The Dead) pour la série hebdomadaire. Elle est animée par Fred Sassy, « un défenseur des consommateurs américain et journaliste pour Cheyenne news at 9, une station de télévision locale à Cheyenne, Wyoming », selon la description officielle. « Dans son émission hebdomadaire, Sassy Justice, Fred se bat pour l'homme ordinaire de sa ville natale. Cette semaine, il découvre les dangers des vidéos manipulées qui apparaissent de plus en plus sur Internet ».
Le premier épisode de 15 minutes explore les dangers des deepfakes et certaines méthodes légèrement douteuses pour les détecter.
« Les escrocs trouvent de nouvelles façons de profiter de vous - le consommateur », prévient Sassy. « Maintenant, avec une technologie appelée deepfake, vous pouvez vous faire avoir d'une manière jamais possible auparavant. »
Sassy enquête sur les vidéos manipulées au moyen d'entretiens « zoomsclusifs » avec des deepfakes d'Al Gore, de Donald et Ivanka Trump, du conseiller principal du président Jared Kushner, du patron de Facebook Mark Zuckerberg qui fait un passage en temps « roi de la dialyse ». Certains des deepfakes sont plus convaincants que d'autres. Les gestes du visage de Trump sont imités de manière impressionnante.
Vous pouvez regarder le premier épisode complet ci-dessous:
Le mot deepfake est issu de la combinaison des mots « deep learning » ou « apprentissage profond » (un domaine d'application de l'intelligence artificielle) et « fake » (qui étiquette le média comme étant un faux). Les deepfakes se sont longtemps limités aux amateurs qui mettent des visages de célébrités sur le corps de stars de la pornographie et font dire des choses drôles aux politiciens. Cela dit, les créateurs de ces faux médias peuvent aller plus loin.
Il est aussi possible de créer un deepfake d'alerte d'urgence avertissant qu'une attaque est imminente ou d'en créer un pour perturber une élection serrée en diffusant une fausse vidéo ou un faux enregistrement audio d'un des candidats quelques jours avant le scrutin. Si les deepfakes démontrent les progrès remarquables dans le domaine de l’IA, depuis leur apparition, ces derniers ont toujours été considérés comme une technologie dangereuse et nuisible dans presque tous les pays du monde. En 2018, les États-Unis ont qualifié les deepfakes de menace à la sécurité nationale.
« Les deepfake pourraient devenir un puissant outil pour les puissances hostiles cherchant à propager des informations erronées », a déclaré le représentant du parti démocrate sur le renseignement, Adam Schiff, dans une lettre adressée à Dan Coats, directeur du renseignement national.
« En brouillant la frontière entre les faits et la fiction, la technologie deepfake pourrait miner la confiance du public dans les images et les vidéos enregistrées en tant que représentations objectives de la réalité,. Alors que les technologies deepfake deviennent plus avancées et plus accessibles, cela pourrait constituer une menace pour le discours public et la sécurité nationale des États-Unis, avec des implications larges et inquiétantes pour les campagnes de mesures offensives actives contre les États-Unis », indique la lettre, qui a été cosignées par les représentants Stephanie Murphy (D-FL) et Carlos Curbelo (R-FL).
En avril 2020, le programme Avatarify a fait parler de lui. Développé par Ali Aliev, il fonctionne sur Skype et Zoom et échange votre visage avec celui d’une célébrité pendant les appels vidéo. Il s’est basé sur le code source du First Order Motion Model for Image Animation, un programme permettant lui aussi de piloter une photo d’une personne à partir d’une vidéo d’une autre personne. Voici quelques choses à savoir sur le programme Avatarify.
L’outil d’Ali Aliev est semblable aux deepfakes, mais il ne fonctionne pas de la même façon. Avec les technologies d'échange de visages comme les deepfakes, l'algorithme est entraîné en fonction du visage que vous voulez échanger, ce qui nécessite généralement plusieurs images du visage de la personne que vous essayez d'animer. Dans le cas du modèle d’Aliev, il peut le faire en temps réel, en entraînant l'algorithme sur des critères similaires de la cible (comme les visages). Aliev a publié le code source de Avatarify sur Github pour que tout le monde puisse l'utiliser.
Avatarify superpose le visage de quelqu'un d'autre au vôtre en temps réel, lors de réunions vidéo en se servant de la même technique utilisée par les développeurs du First Order Motion Model for Image Animation.
« Je l'ai lancé sur mon PC et j'ai été surpris par le résultat. Ce qui est important, c'est qu'il a fonctionné assez vite pour piloter un avatar en temps réel », a déclaré Aliev à propos de son logiciel. « Le développement d'un prototype a été une question de quelques heures et j'ai décidé de me moquer de mes collègues avec qui j'ai un appel Zoom chaque lundi. Et ça a bien marché. Comme ils sont tous des ingénieurs et chercheurs, cela a suscité de la curiosité chez eux et rapidement, nous avons commencé à tester le prototype », a-t-il ajouté.
Dans la vidéo qui le met en scène avec le visage d’Elon Musk, on voit bien qu’il s’agit d’un faux, mais les yeux et la tête bougent assez bien pour que le tour de passe-passe fonctionne pendant quelques secondes. Ceux qui l’ont déjà essayé estiment qu’il nécessite encore un peu de travail, car Avatarify a besoin de beaucoup de grandes ressources pour fonctionner. Vous devez exécuter Zoom ou Skype, ainsi que le logiciel de diffusion en continu et Avatarify en même temps, ce qui nécessite une puissance de calcul élevée.
« L'idée après Avatarify est la disponibilité et le plaisir. Il est certain qu'il faut un PC de jeu puissant pour fonctionner sans problème, mais nous pensons que son optimisation pour les ordinateurs portables n'est qu'une question de temps », a expliqué Aliev. « Cela permet juste aux gens de s'amuser tout en restant chez eux ».
Source : Premier épisode
Et vous ?
Que pensez-vous de façon générale des deepfakes ?
Comment trouvez-vous cette idée de sensibiliser le public à leur existence par le biais d'une satire de cet ordre ?
Comment avez-vous trouvé le premier épisode ?
Voir aussi :
Les effets subtils de la circulation sanguine peuvent être utilisés pour détecter un deepfake et le logiciel qui a permis de le créer, selon une étude
Microsoft dévoile des outils de détection de deepfakes, pour lutter contre les fausses nouvelles et d'autres formes de désinformation
Ne dites plus « deepfake » mais dites « vidéotox », préférez « divulgâcher » à « spoiler ». La Commission propose de nouvelles traductions officielles