Le chatbot d’OpenAI utilise les données de l’encyclopédie conservatrice et dont les contenus seront à terme principalement générés par IA pour délivrer certaines informations à ses utilisateurs, créant un précédent.
Une mise en abyme qui sent l’abîme, l’IA-rroseur, IA-rrosé… ChatGPT, le chatbot d’OpenAI, vient désormais tirer certaines de ses informations de Grokipedia, l’encyclopédie en ligne conservatrice entièrement générée par l’IA, tout au moins pour les contenus qui n’ont pas été simplement aspirés de Wikipedia. D’une certaine manière, la boucle est bouclée.
ChatGPT n’est pas la seule IA générative à le faire, Claude, celle d’Anthropic, le fait aussi, s’est aperçu le Guardian. OpenAI a confirmé cette découverte, expliquant que son chatbot « vise à puiser dans un large éventail de sources et de points de vue accessibles au public ».
En une douzaine de demandes de la part du média anglais, Grokipedia a été cité neuf fois par GPT-5.2, la dernière version du chabot à ce jour.
Le risque d’un « entre-soi IA »
Si l’utilisation d’une encyclopédie en ligne n’est pas forcément un problème, elle l’est lorsque le contenu qui s’y trouve a déjà fait l’objet de nombreuses polémiques. Grokipedia a été lancé en octobre 2025 par Elon Musk avec comme objectif d’être « une version bien plus neutre » que Wikipedia, que le milliardaire accuse de faire de « la propagande woke » en plus d’être « de gauche ».
Mais en choisissant de générer ses pages par IA, et non pas par des bénévoles, comme Wikipedia, Grokipedia est bourré d’inexactitudes et de fausses informations. Le site a notamment soutenu que la pornographie a joué un rôle direct dans la pandémie de sida. Il a également fourni des « justifications idéologiques » à l’esclavage. De plus, on constate sur la page dédiée à Elon Musk qu’une bonne partie de ce qui lui est reproché est passé sous silence, comme son salut nazi perpétré en janvier 2025 lors de la victoire de Donald Trump.
Derrière Grokipedia, il y a en effet Grok, l’IA d’Elon Musk et de xAi, qui se revendique comme « non politiquement correct » et qui a été concernée par un vaste scandale de génération de photos pornographiques, voire pédopornographiques.
Un « filtre » installé par OpenAI
Pour se prémunir d’éventuels problèmes, OpenAI explique en premier lieu que ChatGPT stipule la source d’une information – ce qui permet donc de voir si elle est problématique. En second lieu, l’entreprise de Sam Altman ajoute avoir « appliqué un filtre de sécurité pour réduire le risque de dommages graves » liés à certaines réponses.
Mais au-delà des réponses qui peuvent donc s’inspirer de fausses informations, le risque est également de créer un « entre-soi IA ». En clair, que les IA commencent à se nourrir les unes les autres, répétant les mêmes biais et problèmes.
Source: BFM tech


