La Fondation des médias pour l’Afrique de l’Ouest (MFWA) a tiré la sonnette d’alarme sur les risques croissants et l’usage encore limité de l’intelligence artificielle (IA) dans le journalisme en Afrique de l’Ouest. Le principal obstacle identifié : l’absence de cadres réglementaires fiables pour encadrer ces technologies. Ce sujet a été au cœur d’un webinaire de haut niveau organisé le 30 avril 2025 par la MFWA, à l’occasion de la Journée mondiale de la liberté de la presse.
Placée sous le thème « IA, liberté de la presse et avenir du journalisme », la rencontre a rassemblé plus de 250 participant·e·s dont des journalistes, défenseur·e·s des droits des médias, étudiant·e·s et des membres de la société civile. Le Dr Daniel Kwame Ampofo Adjei, responsable du développement institutionnel au sein de la MFWA, a animé la session, tandis que le discours d’ouverture a été prononcé par Dora Boamah Mawutor, directrice de la liberté d’expression et des droits numériques de l’organisation.
Des expert·e·s comme Dre Theodora Dame Adjin-Tettey (université technologique de Durban), Edetaen Ojo (Media Rights Agenda, Nigeria) et Kwaku Krobea Asante (chef de projet journalisme indépendant à la MFWA) ont apporté leur lumière sur les enjeux techniques, éthiques et politiques de l’IA dans le journalisme.
Le Dr Adjin-Tettey a insisté sur l’ambivalence des outils d’IA tels que ChatGPT, Grammarly, Otter.ai ou Canva AI, capables de renforcer l’efficacité des rédactions, mais aussi porteurs de risques sérieux en l’absence de régulation. Elle a souligné le besoin crucial de développer des outils ancrés dans les réalités africaines, faute de quoi l’IA pourrait être instrumentalisée pour diffuser la désinformation.
Edetaen Ojo a quant à lui alerté sur l’utilisation croissante des technologies de surveillance dopées à l’IA, telles que la reconnaissance faciale ou le suivi biométrique, souvent employées pour surveiller les professionnel·le·s des médias dans des régimes autoritaires. Il a aussi dénoncé les algorithmes de modération, parfois conçus pour filtrer ou censurer certains contenus sous couvert de lutte contre la désinformation.
Kwaku Krobea Asante a mis en lumière l’impact grandissant des médias synthétiques (deepfakes) dans la propagation de fausses informations, notamment en période électorale, au risque de semer la confusion et de saper la confiance du public dans les médias.
Les participant·e·s ont unanimement reconnu l’urgence d’établir une gouvernance responsable de l’IA. Parmi les recommandations formulées:
- Impliquer les institutions publiques, les acteur·rice·s des médias, la société civile, les milieux académiques et les forces de l’ordre dans l’élaboration de cadres de régulation inclusifs ;
- Encadrer légalement les activités de surveillance, en exigeant des mandats judiciaires et en garantissant la transparence des données collectées.
- Mettre en place des protections robustes pour les lanceur·se·s d’alerte exposant les usages abusifs de l’IA.
- Concevoir des outils IA transparents, avec accès aux critères de décision algorithmique.
- Confier à des acteurs indépendants de la société civile un rôle de suivi de l’usage des technologies, notamment par les États.
- Promouvoir l’éducation numérique pour aider les citoyens à comprendre les enjeux de l’IA et défendre leurs droits.
Vous avez manqué la discussion ? Cliquez ici pour regarder l’intégralité du webinaire sur YouTube.