Le signe numéro un que vous regardez une vidéo d'IA

Crédit photo, Serenity Strull/ Getty Images
- Author, Thomas Germain
- Role, BBC News
Vos réseaux sociaux sont envahis par des vidéos de piètre qualité générées par IA. Un indice permet de les repérer : la qualité d'image laisse penser qu'elles ont été filmées avec un appareil bas de gamme.
C'est fini. Vous allez vous faire avoir. Vous l'avez probablement déjà fait. Ces six derniers mois, les générateurs vidéo par IA sont devenus si performants que notre rapport aux caméras est sur le point de se briser. Voici le meilleur des scénarios : vous vous ferez avoir, encore et encore, jusqu'à ce que vous soyez tellement exaspéré que vous remettiez en question tout ce que vous voyez. Bienvenue dans le futur.
Mais pour l'instant, il reste quelques signaux d'alarme à surveiller. L'un d'eux se démarque. Si vous voyez une vidéo de mauvaise qualité – avec des images granuleuses et floues –, méfiez-vous : vous pourriez bien être en train de regarder une intelligence artificielle.
« C'est l'une des premières choses que nous examinons », déclare Hany Farid, professeur d'informatique à l'Université de Californie à Berkeley, pionnier dans le domaine de la criminalistique numérique et fondateur de la société de détection de deepfakes GetReal Security.
La triste réalité, c'est que les outils vidéo d'IA vont encore s'améliorer, et ce conseil deviendra vite obsolète. Cela pourrait arriver dans quelques mois, ou dans quelques années. Difficile à dire ! Désolé. Mais si vous prenez un instant pour explorer les nuances de cette idée, ce conseil pourrait vous éviter de tomber dans le piège de certaines IA inefficaces, le temps de changer votre perception de la vérité .
End of A lire aussi sur BBC Afrique:
Soyons clairs : ceci n'est pas une preuve. Les vidéos générées par l'IA ne sont pas plus susceptibles d'être de mauvaise qualité. Les meilleurs outils d'IA peuvent produire des clips magnifiques et soignés.
Et les clips de mauvaise qualité ne sont pas forcément produits par l'IA. « Si vous voyez quelque chose de très mauvaise qualité, cela ne signifie pas que c'est faux. Cela ne signifie rien de malveillant », explique Matthew Stamm, professeur et directeur du Laboratoire de sécurité multimédia et de l'information de l'Université Drexel, aux États-Unis.
En réalité, ce sont les vidéos floues et pixélisées générées par l'IA qui sont les plus susceptibles de vous tromper, du moins pour l'instant. C'est un signe qu'il vaut mieux examiner de plus près ce que vous regardez.

Crédit photo, Serenity Strull/Getty Images
Des informations vérifiées à portée de main
Cliquez ici et abonnez-vous !
Fin de Promotion WhatsApp
« Les principaux générateurs de texte en vidéo, comme Veo de Google et Sora d'OpenAI, présentent encore de légères incohérences », explique Farid. « Mais il ne s'agit pas de six doigts ou de texte illisible. C'est plus subtil que cela. »
Même les modèles les plus avancés d'aujourd'hui présentent souvent des problèmes, comme des textures de peau anormalement lisses, des motifs étranges ou changeants dans les cheveux et les vêtements, ou encore des petits objets d'arrière-plan qui se déplacent de manière impossible ou irréaliste. Ces défauts sont faciles à manquer, mais plus l'image est nette, plus vous avez de chances de repérer ces erreurs d'IA révélatrices.
C'est ce qui rend les vidéos de faible qualité si séduisantes. Lorsqu'on demande à l'IA une vidéo qui semble avoir été filmée avec un vieux téléphone ou une caméra de surveillance, par exemple, elle peut masquer les défauts qui pourraient éveiller les soupçons.
Ces derniers mois, plusieurs vidéos d'IA très médiatisées ont trompé un grand nombre de personnes. Elles avaient toutes un point commun. Une vidéo, fausse mais charmante, de lapins sauvages sautant sur un trampoline a été visionnée plus de 240 millions de fois sur TikTok. Des millions d'autres internautes, en quête de romantisme, ont « liké » une vidéo de deux personnes tombant amoureuses dans le métro new-yorkais, pour ensuite être tout aussi déçus en découvrant qu'il s'agissait d'un canular. Personnellement, je me suis fait avoir par une vidéo virale d'un prêtre américain, dans une église conservatrice, prononçant un sermon étonnamment à gauche. « Les milliardaires sont la seule minorité dont nous devrions avoir peur », tonne-t-il avec un accent du Sud. « Ils ont le pouvoir de détruire ce pays ! » J'étais sidéré. Nos frontières politiques sont-elles vraiment devenues si floues ? Non. Juste l'IA qui fait ça.
Chacune de ces vidéos semblait avoir été filmée avec un vieux téléphone. Les lapins IA ? Présentés comme des images de caméra de surveillance bas de gamme filmées de nuit. Le couple dans le métro ? Pixellisé. Ce prédicateur imaginaire ? La vidéo semblait avoir été zoomée un peu trop. Et il s'avère que ces vidéos contenaient d'autres indices révélateurs.
« Les trois critères essentiels sont la résolution, la qualité et la durée », explique Farid. La durée est le plus simple à vérifier. « La plupart des vidéos générées par IA sont très courtes, encore plus courtes que les vidéos classiques de TikTok ou Instagram, qui durent environ 30 à 60 secondes. La grande majorité des vidéos que l'on me demande de vérifier durent six, huit ou dix secondes. » En effet, la génération de vidéos par IA est coûteuse, et la plupart des outils sont limités aux clips courts. De plus, plus une vidéo est longue, plus le risque d'erreur de l'IA est élevé. « On peut assembler plusieurs vidéos IA, mais on remarque une coupure toutes les huit secondes environ. »
Les deux autres facteurs, la résolution et la qualité, sont liés mais différents. La résolution fait référence au nombre ou à la taille des pixels d'une image, tandis que la compression est un processus qui réduit la taille d'un fichier vidéo en supprimant des détails, ce qui laisse souvent apparaître des motifs pixellisés et des contours flous.
En réalité, Farid affirme que les faux de mauvaise qualité sont si convaincants que les malfaiteurs les dégradent volontairement. « Si je veux tromper quelqu'un, comment je procède ? Je génère ma fausse vidéo, puis je réduis la résolution pour qu'elle reste visible, mais que l'on puisse distinguer tous les petits détails. Ensuite, j'ajoute une compression qui masque davantage les éventuels artefacts », explique Farid. « C'est une technique courante. »

Crédit photo, Crédit : Serenity Strull/Getty Images
Le problème, c'est que, pendant que vous lisez ces lignes, les géants de la tech dépensent des milliards de dollars pour rendre l'IA encore plus réaliste. « J'ai une mauvaise nouvelle à vous annoncer. Si ces indices visuels existent déjà, ils ne seront bientôt plus là », déclare Stamm. « Je pense que ces indices visuels disparaîtront des vidéos d'ici deux ans, du moins les plus évidents, car ils ont déjà quasiment disparu des images générées par l'IA. On ne peut plus se fier à ses yeux. »
Cela ne signifie pas pour autant que la vérité est perdue d'avance. Lorsque des chercheurs comme Farid et Stamm vérifient un contenu, ils disposent de techniques plus avancées. « Lorsqu'on génère ou modifie une vidéo, cela laisse des traces statistiques imperceptibles à l'œil nu, comme des empreintes digitales sur une scène de crime », explique Stamm. « On assiste à l'émergence de techniques permettant de détecter et de révéler ces traces. » Parfois, la répartition des pixels dans une vidéo truquée peut différer de celle d'une vidéo authentique, par exemple, mais ces facteurs ne constituent pas une preuve irréfutable.
Les entreprises technologiques travaillent également à l'élaboration de nouvelles normes pour vérifier l'information numérique. Concrètement, les appareils photo pourraient intégrer des informations au fichier dès la prise de vue afin de prouver l'authenticité de l'image. De même, les outils d'IA pourraient ajouter automatiquement des détails similaires à leurs vidéos et images pour démontrer qu'elles sont truquées. Stamm et d'autres experts estiment que ces initiatives pourraient s'avérer utiles.
La véritable solution, selon Mike Caulfield, expert en littératie numérique, réside dans une redéfinition de notre perception du contenu en ligne. Chercher les indices laissés par l'IA n'est pas une stratégie viable à long terme, car ces indices évoluent constamment, explique-t-il. Caulfield affirme qu'il faut plutôt abandonner l'idée que les vidéos ou les images puissent avoir une quelconque signification hors contexte.
« Selon moi, la vidéo va, à long terme, ressembler de plus en plus au texte, où la provenance [l'origine de la vidéo], et non les caractéristiques superficielles, sera primordiale, et nous ferions bien de nous y préparer », déclare Caulfield.
On ne se contente jamais de lire un texte et de le croire vrai simplement parce qu'il a été écrit. En cas de doute, on vérifie toujours la source de l'information. Les vidéos et les images étaient différentes autrefois, car plus difficiles à falsifier et à manipuler. Ce n'est plus le cas. Désormais, seuls comptent l'origine d'un contenu, son auteur, son contexte et sa vérification par une source fiable. La question est de savoir quand (ou si) nous allons tous intégrer ce fait.
« Si je peux me permettre une certaine emphase, je pense qu'il s'agit du plus grand défi en matière de sécurité de l'information du XXIe siècle », déclare Stamm. « Mais ce problème est récent. Le nombre de personnes qui travaillent à le résoudre est relativement faible, mais il augmente rapidement. Nous aurons besoin d'une combinaison de solutions, de formation, de politiques intelligentes et d'approches technologiques, le tout œuvrant de concert. Je ne suis pas prêt à perdre espoir. »
Thomas Germain est un journaliste spécialisé en technologies à la BBC. Il couvre l'intelligence artificielle, la protection de la vie privée et les aspects les plus marginaux de la culture internet depuis près de dix ans. Vous pouvez le retrouver sur X et TikTok : @thomasgermain.














