Dans la poursuite de ses travaux, la Conférence internationale de la presse francophone (CIPREF) a consacré une importante séquence de réflexions à l’impact de l’intelligence artificielle (IA) sur le journalisme. Journalistes, experts en NTIC et professionnels des médias ont longuement échangé autour des menaces, des opportunités, mais surtout des défis éthiques que pose l’usage croissant de cette technologie dans les rédactions. Réunis autour de tables rondes et d’ateliers thématiques axés sur la véracité, la transparence et la confiance du public, les participants ont tenté de répondre à une question centrale : comment préserver la crédibilité de l’information à l’ère des contenus automatisés ?
Les échanges ont permis d’identifier trois niveaux d’utilisation de l’intelligence artificielle dans le journalisme : l’IA comme outil d’assistance à la production, l’IA comme support d’analyse et de vérification, et enfin l’IA comme technologie à haut risque lorsqu’elle est utilisée sans encadrement éthique.Les experts ont unanimement insisté sur la nécessité de former et d’accompagner les équipes rédactionnelles, notamment dans la formulation de prompts plus précis et responsables, afin d’éviter les dérives.Un constat s’est imposé l’IA et le journalisme sont appelés à cohabiter, mais cette cohabitation doit impérativement être régulée.
L’éthique journalistique, fondée sur le terrain, la vérification des faits et la responsabilité éditoriale, ne saurait être remplacée par une machine. Pour Margarita Mbang, journaliste et présentatrice du journal francophone en Guinée équatoriale, l’intelligence artificielle se situe « entre opportunité et menace ».« Tout dépend de la personne qui l’utilise. Pour certains journalistes, l’IA peut améliorer le travail, pour d’autres, elle peut l’enfoncer. Il est donc essentiel de savoir l’utiliser pour éviter qu’elle ne prenne la place du journaliste », a-t-elle souligné, appelant à une appropriation responsable de cet outil.
Même son de cloche du côté de Ndiaye, du Sénégal, président du bureau des travaux de la CIPREF, lors d’un panel consacré à la confiance du public. Selon lui, le véritable enjeu n’est pas technologique, mais déontologique. « Les journalistes peuvent dire ce qu’ils veulent, mais au final, c’est le public qui juge. L’IA peut être un assistant formidable pour mieux travailler, mais aussi un instrument dangereux de tricherie pour ceux qui ne respectent pas le Code de déontologie », a-t-il averti.
Pour Ndiaye, un bon journaliste restera un bon journaliste avec l’IA, tandis qu’un mauvais journaliste disposera désormais d’un outil plus puissant pour violer les règles éthiques. « Ce n’est pas l’IA qui menace le journalisme, ce sont les journalistes qui menacent la confiance du public lorsqu’ils produisent des informations non professionnelles », a-t-il insisté.
Autre point majeur abordé : la désinformation, notamment à travers les deepfakes, de plus en plus présents sur les réseaux sociaux avec l’IA. Bogdan Oprea, journaliste et spécialiste en communication venu de Roumanie, a présenté un modèle de vérification en trois étapes, destiné à aider les journalistes à identifier les contenus falsifiés. Celui-ci repose sur la vérification des textes (fact-checking antérieur, source et contenu), l’analyse des images et vidéos (contenu, métadonnées, source originale) et la vérification des sites Internet (propriétaire du domaine, informations du domaine et archives).
Entre adaptation prudente et rejet catégorique de l’intelligence artificielle, les débats ont été denses et parfois contrastés. Tous s’accordent cependant sur un point : la confiance du public est fragile et ne pourra être maintenue qu’à travers le respect strict des règles éthiques, la transparence des pratiques et une meilleure éducation aux médias. Les travaux de la CIPREF se poursuivent, dans l’attente de recommandations claires.
Tryphene Lembah
