Aujourd’hui, avec l’avènement de l’intelligence artificielle, la conception et la propagation des fausses informations sont devenues encore plus complexes
Selon John McCarthy, l’un des pionniers du domaine, l’intelligence artificielle est « la science et l’ingénierie de la fabrication de machines intelligentes ». Aujourd’hui, cette technologie est utilisée pour fabriquer de fausses informations de plus en plus complexes. Fort de ce constat, le troisième « Rendez-vous de BenbereVerif » s’est tenu sous le thème « Lien entre la lutte contre la désinformation et l’intelligence artificielle ». Deux spécialistes ont animé le débat : Niama Loua Berete, spécialiste en cybersécurité et directeur de la société Information Security Management Corporation (Ismacop) et Ousmane Traoré, passionné de l’IA, photographe et blogueur.
Garde-fous
« Aujourd’hui, l’IA s’applique dans plusieurs domaines d’activité comme l’agriculture, la santé, le transport, le journalisme, mettant en danger certains métiers appelés à disparaître », explique Niama Loua Berete. Pour lui, le traitement de l’information est en danger car des intelligences artificielles génératives, comme ChatGPT, sont capables de générer des textes. Elles peuvent répondre à des questions, écrire des livres, organiser des notes, planifier des vacances, développer des lignes de codes… Ces IA, selon l’expert, se nourrissent de données disponibles sur internet. « Ces données peuvent être vraies ou fausses. Malheureusement l’IA ne fait pas la différence, ce qui entraine un biais dans le rendu du texte généré », regrette-il.
Toutefois, Ousmane Traoré rappelle que les IA sont des programmes informatiques entraînés capables de résoudre des problèmes, générer des images, des textes, des voix et des vidéos. « Chaque technologie a ses avantages et ses inconvénients », soutient-il.
Il y a des IA capables de réfléchir et de produire des contenus. « Contrairement à ce que beaucoup pensent, ces données sont traitées et triées », assure Ousmane Traoré. Par exemple, sur Midjourney ou d’autres plateformes, il est impossible de générer une image d’un meurtre car certaines choses sont censurées.
Il y a également d’autres garde-fous. Facebook supprime déjà beaucoup de fausses informations et X (anciennement Twitter) a mis en place « Community note ou note de la communauté » pour démentir les fausses informations ; Google dispose d’outils de vérifications des faits.
« L’IA ne créé pas de fausses informations, soutient-il, elle fait ce qu’on appelle des hallucinations ». Suite aux manques de données nécessaire sur un sujet, l’IA créé des données se rapprochant le plus proche de la réalité, « ce qui est un danger » reconnaît Ousmane Traoré.
Lutter contre la désinformation
Pour Ousmane Traoré, il est primordial de créer des données de qualité pour alimenter et entrainer les IA afin de lutter contre désinformation. Les journalistes et autres spécialistes doivent adapter leur contenu et le support sur lequel leurs productions sont publiés. En effet, ajoute-il, un article de vérification pour contredire une fausse information a moins de visibilité par rapport à la fausse information.
Il faut labeliser les contenus produits par l’IA pour le signaler aux publics, éduquer, former la jeunesse et vulgariser l’usage de l’IA, des données en sources ouvertes pour créer des contenus de qualités, a suggéré Ousmane Traoré.
Attaib Cissé est étudiant en informatique : « Ce débat est très instructif pour nous et nos camarades journalistes. Déjà, ensemble nous pouvons réfléchir sur des solutions à l’avenir ». Quant à Alou Dembélé, professeur d’informatique à l’Ecole supérieur de technologie et de management (ESTM), il soutient que « tout est possible, le danger sur les images génératives est réel. Tout dépend de ce que l’utilisateur en fait mais il faut reconnaître que l’IA a beaucoup évolué ces dernières années, ce qui est rassurant »