L’intelligence artificielle Grok, développée par la société xAI d’Elon Musk et intégrée au réseau social X, est au cœur d’un scandale mondial. En France comme en Malaisie, les autorités judiciaires ont ouvert des enquêtes après la découverte de deepfakes représentant des mineurs dans des situations à caractère sexuel.
Ce qui choque, c’est la facilité avec laquelle ces contenus auraient été générés. Selon plusieurs signalements, de simples requêtes adressées à Grok permettaient d’obtenir des images très réalistes de mineurs partiellement ou totalement dénudés. Des contenus strictement interdits par la loi dans la plupart des pays.
Une affaire pénale, pas un simple problème technique
Pour les autorités, il ne s’agit pas d’un bug anodin ou d’un défaut de paramétrage. Le parquet de Paris, via sa brigade spécialisée dans la cybercriminalité, a ouvert une enquête pour diffusion d’images pédopornographiques.
Contrairement à d’autres intelligences artificielles connues, qui bloquent systématiquement ce type de demandes, Grok aurait laissé passer ces requêtes pendant plusieurs jours. xAI évoque aujourd’hui des « failles dans les garde-fous », mais pour la justice, la responsabilité de la plateforme est clairement engagée.
La stratégie risquée du “moins de modération”
Depuis son lancement, Grok est présenté comme une IA « sans filtre » et « moins biaisée politiquement ». Une promesse qui séduit certains utilisateurs, mais qui montre aujourd’hui ses limites.
En réduisant fortement les équipes chargées de l’éthique et de la sécurité, xAI a fait le choix d’une modération minimale, au nom de la liberté d’expression. Résultat : une intelligence artificielle capable de produire des contenus graves et illégaux, sans barrières suffisantes.
Dans ce dossier, la justice française estime que la protection de l’enfance doit primer sur tout discours idéologique ou commercial.
La Malaisie aussi sous pression
L’affaire prend une dimension internationale. La Malaisie, qui venait de conclure un partenariat pour utiliser Grok comme outil éducatif dans les écoles publiques, se retrouve dans une situation délicate.
Les autorités doivent désormais rassurer les parents et expliquer comment un outil présenté comme pédagogique peut générer des contenus aussi dangereux. Ce scandale dépasse donc le cadre technologique : il devient politique, éducatif et sociétal.
Un signal d’alerte pour l’Afrique
Pour les pays africains, où l’adoption des outils d’intelligence artificielle s’accélère dans l’éducation, les médias ou l’administration, cette affaire pose une question centrale :
peut-on faire confiance à des technologies puissantes sans cadre strict de contrôle et de responsabilité ?
Le cas Grok rappelle une évidence : sans règles claires, sans garde-fous solides et sans responsabilité juridique, l’IA peut devenir un danger réel, surtout pour les plus vulnérables.
Source : TechCrunch


