Le troisième jour de la Semaine du numérique, ce jeudi 20 novembre 2025, a été marqué par un panel consacré à un sujet essentiel : « Sécurité, éthique et respect des droits humains dans l’intelligence artificielle ». Autour de la table, experts du Niger, du Burkina Faso et d’organisations internationales ont analysé les enjeux qui entourent l’essor de l’IA dans la région.
L’IA comme levier de développement, mais avec des garde-fous
Pour Issoufa Abdou Ousmane, PDG de Qwiper (Niger), l’intelligence artificielle représente une formidable opportunité pour les États de la zone AES. « L’IA nous permet de gagner du temps et de développer plus vite grâce à des volumes de données qu’un humain ne peut traiter seul », explique-t-il. Mais selon l’entrepreneur, cette avancée technologique ne peut se faire sans une réflexion sur les infrastructures et la protection des populations. Il rappelle que le Niger investit déjà dans les data centers, la fibre optique et les points d’échange Internet pour permettre un hébergement local des données, condition essentielle pour préserver les valeurs éthiques des pays. Il invite également les jeunes créateurs à s’engager : « Il ne faut pas attendre que l’État vienne vous chercher. Il faut produire du concret. C’est en montrant ce que vous faites que les autorités et les investisseurs vous suivront. ».
Cybersécurité : une IA indispensable, mais à encadrer
Pour Boukaré Sébastien Yougbaré, Directeur général de l’ANSSI Burkina Faso, la montée en puissance de l’IA s’accompagne d’un double effet : progrès et menaces. « L’IA est un facteur positif pour les services publics, l’agriculture ou la santé. Mais elle comporte aussi des risques qui doivent être anticipés ». Dans le domaine de la cyberscurité, l’ANSSI voit dans l’IA un renfort crucial. Elle pourrait automatiser la détection des attaques, améliorer le traitement des incidents et renforcer la surveillance nationale.Cependant, il rappelle que sécurité et respect des droits humains vont de pair : « Si les modèles sont entraînés ailleurs, avec des valeurs différentes, ils peuvent produire des biais et aller à l’encontre de nos normes. D’où la nécessité de solutions basées sur des données locales ».

Une IA responsable : transparence, inclusion et respect de la vie privée
De son côté, Yasmine Zongo, chargée de plaidoyer senior chez NIYEL, a ramené le débat au cœur des droits humains. Elle a présenté les piliers d’une IA dite critique et responsable : transparence, équité, inclusion, responsabilité, protection des données et respect de la vie privée. « Une IA non cadrée peut renforcer les inégalités. Nous devons comprendre les biais et mettre en place des mécanismes de régulation adaptés à notre contexte », souligne-t-elle. Pour elle, la réussite d’une IA éthique repose sur un écosystème complet : « Les institutions, les innovateurs, les citoyens, les chercheurs… personne ne peut avancer seul. La responsabilité est collective. ». Elle salue l’énergie des participants, notamment la jeunesse, dont les questions ont montré un intérêt croissant pour l’impact social et éthique des technologies.
Une dynamique régionale qui interroge l’avenir
Au terme des échanges, un consensus se dégage :
- L’IA peut améliorer la vie quotidienne.
- Mais elle doit être développée de manière sécurisée, éthique et respectueuse des droits humains.
- La souveraineté numérique reste au cœur des préoccupations, notamment par la maîtrise des données et des infrastructures.
Les experts appellent à aller plus loin dans la régulation, l’innovation locale et la sensibilisation des citoyens, pour que l’intelligence artificielle ne soit pas seulement un outil technologique, mais un véritable levier de développement humain.
Zagla média


