
Le phénomène crée un paradoxe où l'IA apprend à imiter les humains qui l'imitent
Depuis l’apparition des modèles de génération vidéo comme Veo 3 de Google DeepMind, TikTok est devenu un terrain d’expérimentation privilégié pour mesurer l’impact des contenus synthétiques sur les dynamiques sociales et culturelles. Pourtant, une nouvelle tendance vient brouiller encore davantage les lignes : de véritables créateurs humains simulent eux-mêmes le style « généré par l’IA », en se présentant comme des productions artificielles. Ce phénomène crée un paradoxe fascinant : les vidéos de TikTokers jouant les créations de Veo 3 finissent par être réinjectées dans les datasets d’entraînement des IA. Autrement dit, l’IA apprend à imiter… des humains qui l’imitent.
En décembre 2024, OpenAI a lancé en disponibilité générale Sora, son programme de génération de vidéos par intelligence artificielle. L'utilisateur note en langage naturel ce qu'il veut obtenir comme résultat vidéo et Sora génère jusqu'à 20 secondes de vidéos.
Lors de l'annonce de la disponibilité, l'entreprise a précisé que le programme a encore des limites et que toutes les vidéos créées par Sora auront des métadonnées C2PA et un filigrane comme paramètre par défaut pour permettre aux utilisateurs d'identifier les vidéos créées par le programme.
Quelques jours après cette annonce, Google Deepmind a présenté Veo 2, un outil de génération de vidéos par intelligence artificielle qui s'appuie sur le Veo original et crée des « vidéos d'une qualité incroyable ». Cette annonce montrait la volonté de Google de concurrencer OpenAI dans le but de battre Sora et d'être le meilleur modèle IA vidéo. Selon Google, Veo 2 peut créer des « clips vidéos de quelques minutes » dans des résolutions 4k et est moins susceptible « d'halluciner » des détails indésirables.
Lors de l'édition 2025 de la conférence Google dédiée aux développeurs, Google a présenté son dernier modèle de génération de vidéos par IA, Veo 3, qui peut également créer et incorporer du son. Comme Veo 2, cet outil d'IA est en concurrence avec le générateur vidéo Sora d'OpenAI, mais sa capacité à incorporer du son dans la vidéo qu'il crée constitue une distinction essentielle. L'entreprise précise que Veo 3 peut incorporer de l'audio, notamment des dialogues entre les personnages ainsi que des sons d'animaux.
Veo 3 se distingue par son réalisme extrême. Capable de produire des clips courts au rendu cinématographique à partir de simples prompts textuels, l’IA reproduit avec une précision saisissante les mouvements humains, les expressions faciales et la synchronisation labiale.
Quand les humains se déguisent en IA
Depuis plusieurs mois, un phénomène singulier s’impose sur TikTok : de vrais créateurs humains prétendent être des avatars générés par Veo 3, le puissant modèle vidéo de Google. Ils imitent volontairement les tics visuels, les incohérences et les animations artificielles caractéristiques de l’IA (gestes mécaniques ou mouvements de caméra saccadés, synchronisation labiale légèrement décalée, regards fixes et sourires figés, filtres visuels pour accentuer l’impression de rendu machine). Résultat : des vidéos volontairement « malhabiles », au rendu légèrement surréaliste, qui brouillent la frontière entre l’organique et le synthétique.
Cette stratégie, bien qu'apparemment contre-intuitive, est remarquablement efficace. En se présentant comme des produits de l'IA, ces créateurs exploitent la curiosité et le scepticisme des internautes. Ils génèrent un engagement massif sous la forme de commentaires, les spectateurs tentant de discerner si le contenu est authentique ou une création numérique. C'est une forme de marketing d'influence qui joue sur la méfiance croissante envers le contenu en ligne et la fascination pour les capacités de l'intelligence artificielle. Même des groupes musicaux comme Kongos ont tenté d'adopter cette approche en faisant passer un de leurs clips pour une création de l'IA afin de promouvoir leur musique (vidéo juste en dessous).
Les motivations des TikTokers sont variées. Certains cherchent à capitaliser sur la hype de l’IA générative, d’autres s’amusent à créer un « jeu d’imitation inversé ». Mais le plus fascinant reste l’effet en boucle :
- Les TikTokers imitent les vidéos créées par Veo 3.
- Ces vidéos circulent massivement, deviennent virales.
- Elles finissent par être utilisées comme datasets d’entraînement pour les futures versions de Veo.
- L’IA risque donc un jour de réintégrer dans ses productions… des copies d’humains qui imitaient une IA.
On assiste à une mise en abyme numérique, où la distinction entre original et copie devient impossible à tracer.
[TIKTOK]<blockquote class="tiktok-embed" cite="https://www.tiktok.com/@kongosmusic/video/7509895663065500974" data-video-id="7509895663065500974" style="max-width: 605px;min-width: 325px;" > <section> <a target="_blank" title="@kongosmusic" href="https://www.tiktok.com/@kongosmusic?refer=embed">@kongosmusic</a> <p>We are so cooked. This took 3 mins to generate. Simple prompt: “a band of brothers playing rock music in 6/8 with an accordion”</p> <a target="_blank" title="♬ original sound - KONGOS" href="https://www.tiktok.com/music/original-sound-7509895681885211434?refer=embed">♬ original sound - KONGOS</a> </section> </blockquote> <script async src="https://www.tiktok.com/embed.js"></script>[/TIKTOK]
Un exemple d'illustration. La légende contient la supposée invite qui a généré le clip : « un groupe de frères barbus jouant du rock en 6/8 avec un accordéon ».

Mais les auteurs n'ont pas eu les retours espérés
Un exemple d'illustration. La légende contient la supposée invite qui a généré le clip : « un groupe de frères barbus jouant du rock en 6/8 avec un accordéon ».
Mais les auteurs n'ont pas eu les retours espérés
Cette vidéo a fait 253 vues il y a un an et n'a eu que deux commentaires
L'auteur a reposté une partie sur TikTok en prétendant qu'elle a été générée par Veo 3 de Google et il a eu 859 commentaires
[TIKTOK]<blockquote class="tiktok-embed" cite="https://www.tiktok.com/@gameboi_pat/video/7508425077814201631" data-video-id="7508425077814201631" style="max-width: 605px;min-width: 325px;" > <section> <a target="_blank" title="@gameboi_pat" href="https://www.tiktok.com/@gameboi_pat?refer=embed">@gameboi_pat</a> This has got to be real. There’s no way it’s AI 😩 <a title="google" target="_blank" href="https://www.tiktok.com/tag/google?refer=embed">#google</a> <a title="veo3" target="_blank" href="https://www.tiktok.com/tag/veo3?refer=embed">#veo3</a> <a title="googleveo3" target="_blank" href="https://www.tiktok.com/tag/googleveo3?refer=embed">#googleveo3</a> <a title="ai" target="_blank" href="https://www.tiktok.com/tag/ai?refer=embed">#AI</a> <a title="prompts" target="_blank" href="https://www.tiktok.com/tag/prompts?refer=embed">#prompts</a> <a title="areweprompts?" target="_blank" href="https://www.tiktok.com/tag/areweprompts%3F?refer=embed">#areweprompts?</a> <a target="_blank" title="♬ original sound - GameBoi_pat" href="https://www.tiktok.com/music/original-sound-7508425022260677407?refer=embed">♬ original sound - GameBoi_pat</a> </section> </blockquote> <script async src="https://www.tiktok.com/embed.js"></script>[/TIKTOK]
Vers une société du doute permanent ? La crédibilité de l’image en jeu
Si la tendance peut sembler ludique, elle soulève une inquiétude plus sérieuse : la crise de confiance face à l’image. Comme l’a résumé un internaute sur Hacker News :
« Le vrai danger n’est pas ce que l’on peut fabriquer, mais le doute que cela sème. Une image ne pourra plus jamais servir de preuve recevable. »
En d’autres termes, même un contenu 100 % réel peut être perçu comme « généré ». C’est l’érosion progressive de la crédibilité numérique, un phénomène déjà observé avec les deepfakes mais accéléré par la généralisation de Veo 3 et l’imitation humaine.
Il existe toutefois encore certains indices permettant de distinguer une vidéo réelle d'une création Veo. D'une part, les clips Veo sont toujours limités à huit secondes, donc toute vidéo plus longue (sans changement apparent de l'angle de la caméra) n'est presque certainement pas générée par l'IA de Google. Regarder les autres vidéos d'un créateur peut également fournir des indices : si la même personne apparaissait dans des vidéos « normales » il y a deux semaines, il est peu probable qu'elle apparaisse soudainement dans des créations Veo.
La plupart des créations Veo ont également un style subtil mais distinctif qui les distingue des vidéos spontanées filmées à la main avec un smartphone qui remplissent généralement TikTok. L'éclairage d'une vidéo Veo a tendance à être trop lumineux, les mouvements de caméra un peu trop fluides et les contours des personnes et des objets un peu trop lisses. Après avoir regardé suffisamment de créations Veo « authentiques », vous pouvez commencer à repérer les schémas.
Le revers de la médaille : contenus haineux et modération débordée
Au-delà des blagues, des usages beaucoup plus problématiques apparaissent.
Si la plupart de ces initiatives sont inoffensives, la tendance soulève des inquiétudes plus larges, notamment en ce qui concerne la propagation de contenus haineux. Des vidéos générées avec Veo 3 diffusant des propos racistes, antisémites ou xénophobes ont circulé massivement sur TikTok, atteignant parfois des millions de vues avant d’être supprimées.
Le fait que l'IA puisse créer de tels contenus, et que des utilisateurs humains puissent les imiter pour des raisons de viralité, rend la modération des plateformes de plus en plus complexe.
Malgré les filtres mis en place par Google et la modération de TikTok, le volume et la vitesse de diffusion dépassent largement la capacité de contrôle. Les dérives sont d’autant plus inquiétantes qu’elles se mêlent aux contenus humoristiques, rendant la frontière entre satire et haine encore plus floue.
Conclusion
Quoi qu'il en soit, le fait que les utilisateurs de TikTok tentent de faire passer des vidéos réelles pour des faux, même à titre de plaisanterie ou pour susciter l'intérêt, montre bien que les sites de vidéos sont désormais entrés dans une ère de « doute profond », où il faut se montrer extrêmement sceptique, même face à des séquences vidéo qui semblent légitimes. Et la simple existence de faux convaincants créés par l'IA rend plus facile que jamais de prétendre que des événements réels capturés en vidéo ne se sont pas réellement produits, un problème que les politologues appellent le « dividende du menteur ». Nous l'avons vu lorsque Donald Trump, qui était encore candidat, a accusé la candidate démocrate Kamala Harris d'avoir utilisé l'IA pour modifier les foules sur des photos réelles de son rassemblement à l'aéroport de Detroit.
Pour l'instant, les utilisateurs de TikTok de tous bords s'amusent à jouer avec cette idée pour attirer l'attention des réseaux sociaux. À long terme, cependant, les implications pour discerner la vérité de la réalité sont plus préoccupantes.
Sources : vidéos TikTok
Et vous ?




Vous avez lu gratuitement 1 169 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.