Après l’annonce de la capture de Nicolás Maduro par une opération militaire américaine, une vague massive de fausses images et vidéos générées par intelligence artificielle a envahi les réseaux sociaux. En quelques heures seulement, ces contenus trompeurs ont cumulé des centaines de milliers, voire des millions de vues, semant la confusion bien au-delà du Venezuela.
Dès les premières minutes suivant la confirmation officielle de l’arrestation, une image montrant Nicolás Maduro de face, escorté par des soldats, a commencé à circuler. Présentée comme authentique, elle a été reprise par plusieurs sites d’information et même relayée par le compte officiel de la Maison Blanche sur X (ex-Twitter). Pourtant, cette image est entièrement générée par IA.
Selon plusieurs analyses, ces visuels proviennent de Nano Banana Pro, un outil d’IA générative de Google capable de produire des images très réalistes. Ils contiennent un filigrane numérique invisible, détectable grâce à SynthID, un système intégré à Google Lens, mais imperceptible pour la majorité des internautes.
Vidéos truquées et manipulations émotionnelles
Sur X, une vidéo largement partagée , plus de cinq millions de vues prétend montrer des Vénézuéliens en larmes de joie après la capture du président. En réalité, il s’agit d’un montage grossier généré par intelligence artificielle. La voix de synthèse affirme que “le peuple est enfin libre” et remercie les États-Unis, qualifiant Donald Trump de “héros”.
Sous cette vidéo, de nombreux commentaires appellent à des interventions similaires dans d’autres pays, preuve que ces contenus ne visent pas seulement à informer, mais aussi à influencer l’opinion et les émotions.
Plus inquiétant encore, des responsables politiques américains ont relayé certaines de ces fausses images, renforçant leur crédibilité auprès du grand public.
De vieilles vidéos recyclées comme preuves
D’autres contenus très partagés montrent une banderole à l’effigie de Nicolás Maduro retirée à Caracas sous les applaudissements. Présentée comme une réaction populaire immédiate à son arrestation, cette vidéo date en réalité de juillet 2024, après l’élection présidentielle, et n’a aucun lien avec l’opération militaire récente.
Faux combats et rumeurs de bombardement
La désinformation ne s’est pas arrêtée là. Des images de prétendus combats urbains, de bâtiments détruits et de soldats vénézuéliens en déroute ont circulé, notamment sur Facebook et TikTok. Ces images générées par IA sont reconnaissables à leurs détails incohérents : uniformes irréalistes, équipements militaires absurdes, écussons démesurés.
Une autre rumeur a fortement circulé : le bombardement du mausolée de l’ancien président Hugo Chávez. Cette information est fausse. Malgré des images truquées vues près de 10 millions de fois, la Fondation Hugo Chávez a publié des vidéos récentes montrant le site intact, appelant les internautes à ne pas relayer de fausses informations.
Une leçon pour l’ère de l’IA
Cet épisode illustre une réalité inquiétante : l’intelligence artificielle permet aujourd’hui de fabriquer de fausses images et vidéos plus vite que l’information vérifiée ne circule. Dans un contexte de crise géopolitique, ces contenus peuvent tromper même des médias et des institutions officielles.
Pour les internautes africains comme ailleurs, le réflexe reste le même : vérifier les sources, se méfier des images spectaculaires et croiser l’information, surtout lorsqu’elle suscite une forte émotion.
L’IA n’est pas seulement un outil technologique. Elle est désormais un nouveau champ de bataille de l’information.
Source: BFM


