Google a révolutionné le marché de la création de contenus depuis l’annonce de son nouvel outil d’IA générative Veo 3, le 20 mai 2025. Avec des vidéos hyperréalistes pouvant désormais intégrer de l’audio, ses contenus inondent chaque jour les réseaux sociaux et brouillent quelques fois les frontières entre la fiction et le réel. A côté de Veo 3, d’autres outils, comme Sora ou Opal, ont également matérialisé ces prouesses technologiques. L’usage de ces outils a créé un terrain fertile à la propagation de la désinformation et des campagnes de manipulation, impactant l’espace public sahélien déjà marqué par la polarisation.
Que doit-on savoir sur Veo 3 ?
Veo 3 est un outil d’intelligence artificielle (IA) développé par Google Deepmind, une entreprise de Google, le géant américain des services technologiques. Présentée le 20 mai 2025, lors de la Conférence Google I/O dédiée aux développeurs web, il s’agit d’une version avancée de “Veo” et de “Veo 2’’ lancées successivement en mai et décembre 2024.
Ce nouveau modèle IA de génération vidéo est décrit par son concepteur comme capable de générer, “pour la première fois, des vidéos avec audio, [notamment] des bruits de circulation en arrière-plan d’une scène de rue en ville, des chants d’oiseaux dans un parc, voire un dialogue entre personnages.” Une simple commande précise (prompt) est introduite, et des images animées hyperréalistes sont générées, avec une synchronisation labiale plus nette pour les personnages vivants et des mouvements plus fluides. Ces vidéos d’une durée maximale de huit secondes pour le moment, générées par Veo 3, envahissent les réseaux sociaux depuis sa présentation. Huit secondes. C’est peu, mais cela suffit à distordre la réalité factuelle ou à créer une réalité alternative.
D’autres outils, propulsés par d’autres compagnies, proposent les mêmes services. Kling AI, Runway AI, Hailuo AI ou encore Sora de Open AI (propriétaire de ChatGPT) transforment du texte ou des photos en vidéos tandis que Synthesia et Heygen proposent des vidéos avec des avatars parlants. La dernière version de Sora, pour le moment disponible uniquement aux Etats-Unis, marque une nouvelle évolution vers des contenus aussi réalistes que ceux de Veo 3, encore plus réalistes selon certains utilisateurs.
Prolifération de deepfakes
L’outil de Google a révolutionné la création de contenus générés par l’intelligence artificielle. Il produit des vidéos visiblement « plus vraies que vraies » dont l’authenticité est difficilement détectable, particulièrement par un public non averti. Sur les réseaux sociaux, des histoires fictives créées à partir de simples prompts deviennent virales, cumulant, pour certaines, des millions de vues.
C’est ainsi que le célèbre primate Zoukou-Zoukou a fait le tour du monde, imitant des accents de différentes parties du globe et partageant ses aventures imaginaires. Sur Facebook, Tiktok, Instagram ou encore X, des comptes exclusivement dédiés à des contenus IA se multiplient. Ils racontent tantôt des histoires drôles, empruntent tantôt des narratifs et formats du journalisme classique, notamment des interviews, des micro-trottoirs ou des journaux télévisés fictifs, présentent tantôt des spots publicitaires, des mini-films ou des clips musicaux aux décors futuristes.
Quels que soient les centres d’intérêts, il est devenu difficile de scroller pendant des heures sans rencontrer des contenus vidéo avec ou sans le filigrane de l’outil utilisé, selon qu’ils sont générés par des versions payantes ou gratuites.
Un usage détourné qui alimente le désordre informationnel
Le 20 mai 2025, lors du lancement à la Conférence Google I/O, le concepteur américain Google avait présenté son nouveau produit Veo 3 comme un modèle censé aider les industries créatives, dont les artistes et les créateurs YouTube, à façonner leurs productions de manière responsable. Cependant, ce succès fulgurant qu’a connu l’outil depuis sa sortie est associé à une montée de la désinformation en ligne. Désormais, les internautes ne sont plus face à des vidéos truquées dont les incohérences visuelles suscitent facilement le doute sur leur authenticité. Les deepfakes hyperréalistes générées par l’IA suppriment de plus en plus la frontière entre le réel et la fiction. L’usage de l’outil est ainsi détourné pour servir de moyen de désinformation et de manipulation de l’opinion.
Ces vidéos artificielles mais vraisemblables touchent tous les domaines, notamment la politique, l’économique, et le social… L’un de ces faux contenus qui a explosé sur les réseaux sociaux est l’histoire inventée autour de Jessica, une prétendue dresseuse d’orque qui aurait été, selon les auteurs, dévorée par son animal en plein spectacle. Mi-juillet 2025, de nombreuses vidéos, aussi sensationnelles les unes que les autres, ont fait le tour du monde et généré des millions de vues sur TikTok avant que des médias de fact-checking ne parviennent à démontrer qu’elles sont produites par l’intelligence artificielle.
Au Togo où des manifestations ont eu lieu fin juin 2025 contre le gouvernement de Faure Gnassingbé, de fausses vidéos générées par Veo 3 ont circulé largement sur TikTok. Plusieurs de ces contenus sont présentés comme des vidéos de mobilisation de manifestants togolais ou de déclarations officielles de l’Union européenne ou des États-Unis appelant à la démission de Faure Gnassingbé [Lire l’article ici]. Ces exemples ne représentent qu’une partie de la menace que constitue les deepfakes boostées par des outils comme Veo 3 dans la sphère informationnelle.
Au Sahel comme ailleurs, les plateformes numériques amplifient l’audience de ces contenus qui nourrissent la désinformation. Ces deepfakes vidéos sont utilisées par des comptes et profils divers sur la toile (1;2;3;4), pour promouvoir des idéologies politiques et des récits dits de “vérités alternatives”, parfois sans y apporter la moindre preuve factuelle. C’est le cas par exemple de Sahel Wood sur TikTok, qui produit des vidéos politiquement et idéologiquement partisanes, générées à l’IA sur des sujets politiques et sécuritaires. Sur YouTube, des chaînes comme World Presidents produisent également des vidéos de même nature associant parodie et satire, mais qui dénoncent subtilement l’exploitation des ressources de l’Afrique.
Entre discours de soutien ou d’opposition à un camp, illustrations d’attaques ou de résistance à des actes terroristes, ces faux contenus attisent les tensions sociales, renforcent la polarisation et favorisent la manipulation de l’opinion publique, dans un contexte où la confiance vis-à-vis des médias classiques et des productions journalistiques se dégrade de plus en plus.
Régulation, fact-checking et éducation aux médias : l’urgence des solutions
Les dérives liées à l’utilisation des deepfakes vidéo depuis la présentation de Veo 3 rappellent l’urgence de nouvelles solutions pour encadrer non seulement leur usage, mais aussi réduire les effets de l’intelligence artificielle sur la désinformation. Ces solutions impliquent un engagement aussi bien des politiques et professionnels traditionnels de l’information que des géants du numérique qui conçoivent ces outils IA.
Lors de la présentation de son nouvel outil, Google a annoncé avoir intégré des garde-fous allant des filigranes numériques à l’authentification à travers la traçabilité de l’origine artificielle des vidéos et la prévention de contenus illicites ou offensants. Ces mesures présentent cependant des limites au regard de l’usage détourné de Veo 3 ou des outils IA dont les contenus générés circulent à grande vitesse sur les plateformes numériques. Le réseau social Tiktok intègre également des notes attirant l’attention des utilisateurs sur les vidéos générées par l’intelligence artificielle. En dessous de certaines vidéos, on peut lire : “Le créateur a indiqué que le contenu était généré par lA”.
Cette politique est également visible sur les réseaux de Méta, notamment Facebook et Instagram où l’on peut voir les mentions “informations sur l’IA” ou “IA infos” sur les contenus entièrement générés par l’intelligence artificielle. Cet étiquetage préventif constitue une forme de transparence pouvant réduire le risque de désinformation. Il reste néanmoins limité, du moment qu’ il repose sur l’auto-déclaration des utilisateurs. Cela nécessite que ces garde-fous soient accompagnés d’initiatives sur l’éducation aux médias et à l’information qui permettraient d’outiller les utilisateurs sur les enjeux de l’intelligence artificielle pour l’intégrité de l’information.
La régulation de contenus IA au Sahel, comme en Afrique en général, demeure également un défi. Dans cette région marquée par le contexte sécuritaire déjà difficile, la vulnérabilité des populations face à la désinformation ne peut se résoudre seulement par la production d’articles de fact-checking. Même s’il permet de détecter et vérifier les vidéos IA détournées pour nourrir la désinformation, le fact-checking n’est jusque-là adopté que par des initiatives privées aux moyens très limités. A l’instar de l’espace européen où plusieurs instruments juridiques sont déjà adoptés ou en cours d’adoption, les pays africains gagneraient à réguler le secteur et à promouvoir des initiatives de vérification et des campagnes d’éducation aux médias et au numérique.
Journaliste fact-checkeur : Tiomité DA
Editeur : Abdoul Fhatave Tiemtoré
Fasocheck