Les technologies d’intelligence artificielle gagnent du terrain au Burkina Faso : entreprises, administrations, universités, centres de formation et même créateurs de contenus s’y appuient au quotidien. Mais une récente étude internationale vient jeter une ombre sur cet engouement : les IA seraient beaucoup plus faciles à manipuler que prévu.
Les chercheurs ont testé en une minute plusieurs modèles comme ChatGPT, Claude et Gemini sur des sujets à risque : criminalité, piratage, harcèlement, drogues, contenus violents. Les résultats sont alarmants : en utilisant un ton calme, des formulations détournées ou des mises en scène “académiques”, les IA finissaient souvent par contourner leurs propres règles.
Certaines répondaient de façon indirecte mais dangereuse ; d’autres donnaient des indications plus explicites lorsque les demandes étaient déguisées. Une vulnérabilité qui montre que les garde-fous actuels ne suffisent pas.
Pourquoi cela concerne le Burkina Faso
Dans un pays où l’usage de l’IA progresse vite, les risques sont réels :
- des utilisateurs mal intentionnés pourraient manipuler ces outils pour obtenir des informations sensibles ;
- des élèves, étudiants ou jeunes créateurs pourraient provoquer des dérives sans s’en rendre compte ;
- les services publics et les entreprises, de plus en plus digitalisés, devront renforcer leurs règles d’usage.
Le défi : adopter l’IA, mais avec prudence
L’étude rappelle que l’IA n’est pas infaillible : c’est un outil puissant mais manipulable. Pour le Burkina Faso, où l’éducation numérique est encore en construction, la vigilance est essentielle. Former, encadrer et sensibiliser devient indispensable pour éviter les dérives et sécuriser les usages.
ZAGLA


