Retour sur Africa Check
PIXABAY

BLOG - L’intelligence artificielle, un amplificateur d’infox mais aussi un atout pour la vérification des faits

Avec l’intelligence artificielle (IA), la désinformation devient de plus en plus sophistiquée et complexe. L’IA permet notamment de produire plus facilement du faux contenu et de le disséminer plus rapidement. Mais, selon Samba Dialimpa Badji, elle peut aussi être un atout dans la pratique de la vérification des faits, du fact-checking.

Le pape François en doudoune blanche ; l’arrestation de l’ancien président américain Donald Trump ; Emmanuel Macron, le président français, au milieu de manifestants contre la réforme des retraites dans son pays ou en tenue d’éboueur... Vous avez sans doute vu circuler ces images devenues virales sur les réseaux sociaux. Elles ont toutes un point commun : elles ont été générées par une intelligence artificielle, les scènes qu’elles montrent n’ont jamais existé en réalité.

L’intelligence artificielle ouvre une nouvelle ère en matière de désinformation

La désinformation n’est pas un phénomène nouveau. « Le phénomène est aussi ancien que les sociétés humaines. Ce ne sont que les canaux de communication et les possibilités de diffusion qui ont radicalement changé », rappellent Lê Nguyên Hoang et Sacha Altay dans un article publié le 6 septembre 2022 par Polytechnique Insights, la revue de l’Institut polytechnique de Paris (IP Paris, établissement public français). Lê Nguyên Hoang est docteur en sécurité de l’intelligence artificielle, Sacha Altay est docteur en psychologie expérimentale et travaille principalement sur la mésinformation et la méfiance au sein du Reuters Institute.

Comme le suggèrent ces deux chercheurs dans leur article, la désinformation est donc devenue plus complexe et a pris une plus grande ampleur avec l’évolution technologique et l’apparition des plateformes de réseaux sociaux. Tout porte à croire que l'usage de l’intelligence artificielle par le grand public va rendre la question encore plus complexe.

L’intelligence artificielle peut être définie comme « une branche de l’informatique qui permet aux systèmes d’apprendre et d’exécuter des tâches normalement associées à l’intelligence humaine ».

Elle rend plus facile la production et la dissémination du contenu faux et manipulateur. Elle permettait déjà de produire des deepfakes ou, en français, hypertrucages, des contenus audiovisuels truqués créés avec une technologie pouvant faire dire et faire faire à n’importe qui des choses que cette personne n’a jamais dites ou faites. Mais, avec des technologies avancées telles que ChatGPT, une interface de conversation en ligne, et Midjourney, un programme d’intelligence artificielle qui crée des images à partir de mots clés, nous entrons dans une nouvelle ère en matière de désinformation. Une situation qui inquiète beaucoup de chercheurs.

Dans un entretien avec le New York Times publié le 8 février 2023 (actualisé le 13 février 2023, en anglais), Gordon Crovitz de NewsGuard, une plateforme qui travaille sur la désinformation en ligne, prévoit que ChatGPT va être « l’outil le plus puissant qui ait jamais existé pour diffuser de la désinformation sur internet ». Mais il semble que l’outil en question a déjà été dépassé par sa version la plus récente. En janvier 2023, les équipes de NewsGuard avaient soumis ChatGPT-3.5 à un test au sortir duquel l’outil avait généré des infox dans 80 % des cas, a indiqué cette plateforme dans sa lettre d’information, le Misinformation Monitor, de mars 2023. Deux mois plus tard, en mars 2023, soumis à un test similaire, son successeur ChatGPT-4 avait généré 100 % de fausses nouvelles. Ce qui fait dire à Gordon Crovitz que « l’élaboration de faux récits peut désormais se faire à une échelle dramatique et beaucoup plus fréquemment ».

Les craintes de Gordon Crovitz sont d’autant plus compréhensibles que les intelligences artificielles génératives de contenus rendent de plus en plus facile la création de texte et/ou images à la fois faux et très réalistes, alors que les chatbots personnalisés permettent leur propagation à plus grandes échelles, un chatbot étant un programme informatique développé pour simuler une conversation avec un humain. Cet anglicisme est formé des termes « chat », pour discussion », et « bot », qui est une abréviation de « robot ». Au lieu de chatbot, certains disent « agent conversationnel » ou « dialogueur ». Le terme « bot » revient souvent dans les mots ou expressions apparus avec les développements de l’IA.

Dans une étude publiée le 10 janvier 2023 (en anglais), des chercheurs du Centre pour la sécurité et les technologies émergentes de l’université de Georgetown (Center for Security and Emerging Technology, CSET), aux États-Unis, de l’entreprise OpenAI et de l’Observatoire de l’internet de l’université de Stanford (Stanford Internet Observatory), également aux États-Unis, ont listé les potentiels impacts de l’intelligence artificielle sur la désinformation. Selon eux, l’IA va réduire les coûts des campagnes de désinformation parce qu’elle permet d’automatiser la production du faux contenu tout en le rendant plus difficile à détecter.

Un allié pour le fact-checking

Mais l’intelligence artificielle, c’est aussi un atout pour la lutte contre la désinformation et le fact-checking. Elle est déjà utilisée pour détecter et retirer certains faux contenus sur les plateformes de réseaux sociaux. Par exemple, le « bot-spotting » et le « bot-labelling » sont des techniques d’intelligence artificielle qui sont utilisées pour détecter et identifier les faux comptes de robots. On pourrait traduire en français « bot-spotting » par « repérages de robot » et « bit-labelling » par « étiquetage de robots ».

On peut faire du bot-spotting sur les réseaux sociaux en regardant comment agissent certains comptes, ce qu’ils publient, pour détecter les signes qu’ils sont gérés par des robots et non par des humains. Le bot-labelling permet de marquer les comptes gérés par les robots pour les distinguer de ceux gérés par des humains.

Dans un article (en anglais) mis en ligne le 23 août 2018 par le site du groupe médiatique américain Vice, Facebook (devenue Meta) indiquait que ses outils d’intelligence artificielle, dont beaucoup sont formés avec des données fournies par son équipe de modération humaine, jouaient un rôle prépondérant dans la détection et la suppression des spams - ou « pourriels », les courriers non sollicités -, des faux comptes ainsi que des contenus liés au terrorisme et à la nudité.

La plateforme britannique de vérification des faits Full Fact utilise l’intelligence artificielle pour faire du fact-checking automatisé. Elle dispose d’un outil pour identifier des déclarations qui méritent d’être vérifiées. L’outil fonctionne en analysant quotidiennement des milliers de phrases issues de journaux, de rapports parlementaires et de réseaux sociaux. Full Fact utilise également l’intelligence artificielle pour transcrire en temps réel des émissions ainsi que les débats parlementaires, permettant de fait à ses chercheurs de trouver facilement des déclarations à vérifier sans recourir à une transcription manuelle.

Un autre outil est en cours de développement par Full Fact pour orienter les vérificateurs de faits ou fact-checkeurs vers des sources de données fiables et leur permettre ainsi de gagner du temps dans la recherche.

Attention à ne pas tout laisser à la machine

Full Fact précise toutefois que tous ces outils requièrent l’expertise humaine « pour des décisions tout au long du processus ». Laisser tout le travail de vérification à la machine présente effectivement des risques, tel que le fait remarquer Katarina Kertysova dans son étude intitulée « Intelligence artificielle et désinformation : Comment l'IA modifie la façon dont la désinformation est produite, diffusée et peut être contrée » ("Artificial Intelligence and disinformation: How AI changes the way disinformation is produced, disseminated, and can be countered") dans la revue Security and Human Rights (ex-Helsinki Monitor), un texte en anglais daté du 12 décembre 2018 et en accès libre sur le site de la maison d’édition néerlandaise Brill. Selon ce site, l’article a été publié à l’origine dans la revue Sécurité et Droits humains (Security and Human Rights, anciennement Helsinki Monitor).

Katarina Kertysova y souligne d’abord le risque de « sur-blocage » de contenus licites et exacts. Ce qu’elle appelle des « faux négatifs/positifs », c'est-à-dire la propension à identifier le contenu et les comptes de robots comme étant faux quand ils ne le sont pas. Selon la chercheuse, cela peut avoir un « impact sur la liberté d’expression et conduire à la censure de contenus légitimes et fiables qui sont étiquetés à tort comme de la désinformation ».

L’autre problème relevé par Kertysova est celui de voir les algorithmes automatisés reproduire les biais et préjugés humains. Ce qui pourrait avoir comme conséquence, lors de recherches en ligne, de présenter des résultats qui sont moins favorables à des individus ou groupes particuliers. Le 24 octobre 2018, la revue américaine Harvard Business Review, éditée par une filiale de l’université de Harvard, a publié une étude (en anglais) sur « l’analyse de la partialité des algorithmes » ("Auditing Algorithms for Bias"), signé par deux chercheurs spécialistes de ces questions, Rumman Chowdhury et Narendra Mulani.

Certains saluent « les résultats de l’IA comme étant mathématiques, basés sur des algorithmes et, peut-être, fondamentalement meilleurs que les décisions humaines empreintes d'émotions », ont-ils observé. Or, dans la pratique, l’utilisation de ces technologies prédictives a conduit à une réponse « décevante » en termes de « résultats objectifs et idéaux ». Car, ont-ils souligné, « quelle que soit l'objectivité que nous voulons donner à notre technologie, elle est en fin de compte influencée par les personnes qui la construisent et les données qui l'alimentent. (…) Les données ne sont pas objectives, elles reflètent des préjugés sociaux et culturels préexistants. Dans la pratique, l'IA peut être une méthode de perpétuation des préjugés, entraînant des conséquences négatives involontaires et des résultats inéquitables ».

Samba Dialimpa Badji est un journaliste sénégalais. Il a été le rédacteur en chef du bureau francophone d'Africa Check à Dakar de janvier 2019 à septembre 2022. Il est actuellement chercheur à l'Université métropolitaine d'Oslo (Oslo Metropolitan University), en Norvège, où ses travaux portent sur la désinformation.

Article édité par Valdez Onanina et Coumba Sylla.

Republiez notre contenu gratuitement

Veuillez remplir ce formulaire pour recevoir le code de partage HTML.

Ajouter un commentaire

HTML restreint

  • Balises HTML autorisées : <a href hreflang> <em> <strong> <cite> <blockquote cite> <code> <ul type> <ol start type> <li> <dl> <dt> <dd> <h2 id> <h3 id> <h4 id> <h5 id> <h6 id>
  • Les lignes et les paragraphes vont à la ligne automatiquement.
  • Les adresses de pages web et les adresses courriel se transforment en liens automatiquement.
limite : 600 signes
Cette question sert à vérifier si vous êtes un visiteur humain ou non afin d'éviter les soumissions de pourriel (spam) automatisées.

Voulez-vous continuer à lire nos vérifications des faits ?

Nous ne vous ferons jamais payer pour des informations vérifiées et fiables. Aidez-nous à poursuivre cette voie en soutenant notre travail

S’abonner à la newsletter

Soutenir la vérification indépendante des faits en Afrique