Retour sur Africa Check

BLOG - Désinformation alimentée par l'intelligence artificielle (IA) : deepfakes, technologie de détection et d'instrumentalisation du doute

Malgré la médiatisation de l'intelligence artificielle, la plus grande menace en Afrique reste les « cheap fakes », des vidéos amateurs manipulées et simples à réaliser, et d'autres formes de contenus trompeurs faciles à produire.

L'organisation de défense des droits humains Amnesty International a été critiquée au début de l'année 2023 pour avoir utilisé des images générées par l'intelligence artificielle (IA) et qui semblaient être des photographies montrant des violences lors de manifestations consécutives à la grève nationale en Colombie en 2021.

Ces événements ont été documentés par Amnesty International et Human Rights Watch (HRW), une autre organisation de défense des droits humains, au moment où ils se sont produits. Amnesty International a choisi de créer des images de manifestants et de policiers pour les illustrer, indiquant que son intention n'était pas de mettre en danger les manifestants en révélant potentiellement leur identité. Cependant, dans un climat de méfiance à l'égard des médias, l'utilisation de l'IA pourrait nuire à la crédibilité de l'organisation et aux événements qu'elle a documentés, ont estimé des universitaires et photojournalistes.

Des experts ont mis en garde contre un avenir dystopique - c’est-à-dire effrayant, anormal ou plein de défauts ou dangereux ou encore tout cela à fois - alimenté par l'IA. La manipulation des élections en est un exemple. Dans un article publié le 14 mai 2023 (en anglais), le service public de radiodiffusion des États-Unis (PBS, pour Public Broadcasting Service) a évoqué une série d’inquiétudes. « Des messages téléphoniques automatisés, avec la voix d'un candidat, demandant aux électeurs de voter à la mauvaise date, des enregistrements audios d'un candidat censé avouer un crime ou exprimer des opinions racistes, des séquences vidéo montrant quelqu'un prononçant un discours ou donnant une interview qu'il n'a jamais prononcée », a cité PBS parmi les points préoccupants.

Cependant, le fait de diffuser des contenus manipulés à des fins de désinformation n'est pas un phénomène nouveau. Certains des meilleurs outils aidant à repérer ces faux contenus ont d'ailleurs déjà été utilisés pour les déconstruire.


Lire notre guide pour « pour repérer des images (photos ou vidéos) générées par intelligence artificielle ».


Pour lever le voile, nous avons interrogé un expert en désinformation et en technologie de l'IA sur l'avenir de l’intelligence artificielle, les outils mis au point pour la détecter et sur ce dont nous devrions ou ne devrions pas nous inquiéter en 2023.

Deepfakes et cheap fakes

Les deepfakes, ou falsifications profondes, sont des vidéos qui ont été manipulées numériquement, souvent pour combiner ou créer des visages et des corps humains. Selon Jean Le Roux, chercheur associé au Digital Forensic Research Lab (DFRLab), un laboratoire de recherche dans le domaine de l’informatique judiciaire, cette manipulation audiovisuelle existe sur un spectre.

D'un côté, il y a les « vrais deepfakes », qui sont réalistes mais nécessitent des outils spécialisés pour être convaincants. En 2017, par exemple, des chercheurs de l'Université de Washington ont créé un deepfake, désormais populaire, de l'ancien président américain Barack Obama. Ils ont utilisé un clip vidéo d’Obama en train de parler, et ont entraîné un outil pour faire correspondre les caractéristiques individuelles de l'audio avec les mouvements de bouche correspondants. Cela leur a permis de créer une vidéo d'un réalisme convaincant, totalement différente de celle dans laquelle parle l’ex-président états-unien. Il s'agissait d'un long processus technique réalisé par des chercheurs qualifiés.

Creative Bloq, un blog en anglais mettant l’accent notamment sur le design web et les médias numériques, a recensé « 20 des meilleurs exemples de deepfakes qui ont terrifié et amusé l'internet » dans un article en ligne actualisé pour la dernière fois le 10 mars 2023. Malgré les progrès technologiques considérables réalisés depuis 2017, ce type de manipulation hyper réaliste nécessite encore beaucoup de ressources et de technicité, selon Le Roux.

D’un autre côté, les cheap fakes - des vidéos littéralement « faux bon marché » - sont plus rapides à réaliser et nécessitent moins de ressources. Les cheap fakes peuvent être tout aussi trompeurs, bien que moins réalistes. Il peut s'agir de vidéos sorties de leur contexte ou pour lesquelles ont été utilisées de simples effets de montage - accélération ou ralentissement d’images, accélération ou ralentissement du son - pour déformer les événements. Les méthodes plus grossières de substitution de visage et de synchronisation des lèvres entrent également dans cette catégorie.

Selon Le Roux, il n'est pas aussi important qu'on le pense qu'un faux soit complètement réaliste. Prenons l'exemple de cette vidéo partagée sur les médias sociaux en mars 2023, qui montre le président sud-africain Cyril Ramaphosa semblant annoncer des changements controversés pour faire face à la crise énergétique du pays. Bien qu'irréaliste, ce faux bon marché est devenu viral et a semblé avoir été cru par certains utilisateurs des médias sociaux.


Lire notre article de vérification sur ce sujet publié le 14 avril 2023, en anglais : « Non, le président sud-africain Cyril Ramaphosa n'a pas annoncé ces changements radicaux pour mettre fin à la crise de l'énergie, vidéo truquée ».


À l'heure actuelle, les cheap fake posent davantage de problèmes pour la désinformation que les deepfakes, a expliqué Jean Le Roux à Africa Check. Il faut beaucoup de temps, d'efforts et de ressources pour fabriquer un deepfake vraiment convaincant. Et si, après tout cela, les gens l'identifient toujours comme un faux, cet investissement aura été gaspillé. Or, il est plus facile de produire un grand nombre de faux bon marché. Bien qu'ils soient individuellement moins réalistes, ils offrent davantage de possibilités de tromper les gens.

Une étude publiée le 7 octobre 2020, en anglais, dans la revue PLoS One, de l’éditeur à but non lucratif Public Library of Science, a évoqué divers mécanismes psychologiques poussant les internautes à diffuser des faux articles (« Pourquoi les gens diffusent-ils de fausses nouvelles en ligne ? Les effets des caractéristiques du message et du spectateur sur la probabilité déclarée de partager une désinformation sur les médias sociaux »). Sur la base de ces mécanismes, il n'est pas nécessaire qu'une information soit convaincante pour être perçue comme réelle sur les réseaux sociaux.

Comme l’évoque un article en anglais mis en ligne le 5 mai 2021 sur ScienceDirect, une plateforme de l’éditeur académique Elsevier (« La psychologie des fausses nouvelles », "The Psychology of Fake News"), certaines recherches suggèrent que les gens sont prompts à partager de fausses nouvelles si elles confirment ou correspondent à leurs croyances existantes. D'autres études signalées dans le même article suggèrent que l'environnement des médias sociaux lui-même peut détourner les gens de la priorité qu'ils accordent à l'exactitude de ce qu'ils partagent.

Détecter l'IA… avec l'IA ?

Avec tout ce qui se dit sur les campagnes de désinformation alimentées par l'IA et leur impact potentiellement catastrophique sur la société, des entreprises s’emploient à développer des outils de détection efficaces afin d'identifier les textes, photos, vidéos et toutes sortes de visuels générés par l'IA.

Des logiciels sont formés à l'aide de l'apprentissage automatique pour distinguer le contenu réel du contenu généré par l'IA. Ces outils pourraient en théorie être plus performants que les humains, car « les algorithmes sont mieux équipés que les humains pour détecter certaines des minuscules empreintes digitales, à l'échelle du pixel, de la création robotique », comme l'indique Scientific American, un magazine américain de vulgarisation scientifique, dans un article publié le 31 mars 2023 en anglais. (« Comment savoir si une photo est un faux généré par l'intelligence artificielle ? », "How to tell if a photo is an AI-generated fake").

Mais ces technologies présentent encore des limites importantes. Par exemple, OpenAI, les créateurs du populaire générateur de texte ChatGPT, ont admis que même leur propre outil de détection avait un taux de réussite lamentable de 26 % pour ce qui est d'identifier un texte généré par un outil d'IA.

Les outils de détection des photos et des vidéos générées par l'IA ne semblent pas beaucoup plus prometteurs.

Selon des experts, les détecteurs d'images étant formés pour identifier le contenu d'un générateur spécifique, ils peuvent ne pas être en mesure de détecter le contenu généré par d'autres algorithmes. Ils sont également susceptibles de générer des faux positifs, c'est-à-dire lorsque des images réelles sont étiquetées comme étant générées par l'IA.

Une autre limite majeure est que ces détecteurs rencontrent des difficultés à identifier les images générées par l'IA étant de mauvaise qualité ou ayant été modifiées. Lorsque les images sont générées, les informations contenues dans chaque pixel renferment des indices sur leur authenticité. Mais si elles sont modifiées, par exemple en réduisant la résolution de l'image ou en ajoutant du grain, même des images qui sont très manifestement incorrectes pour les humains peuvent tromper les logiciels.

Cependant, le problème principal, selon certains experts, est que la nature même de la détection des contenus générés par l'IA signifie qu'il s'agira toujours d'un jeu du chat et de la souris. Les outils de détection devront toujours être réactifs et s'adapter en permanence aux progrès des générateurs d'images.

Le « dividende du menteur », quand le doute est tout ce dont vous avez besoin

Des chercheurs et spécialistes cités dans un article en anglais publié le 16 janvier 2023 par Forbes Africa, une édition du magazine Forbes, estiment que le manque de sensibilisation du public aux technologies des deepfakes est un défi dans la lutte contre la désinformation en Afrique (« Un point de vue africain sur le coût des deepfakes », "An African take on the cost of deepfakes").

Il existe peu de recherches sur ce sujet en Afrique, mais une étude menée en 2023 auprès de 800 adultes dans cinq pays africains, dont l'Afrique du Sud, a révélé qu'environ la moitié des personnes interrogées n'avaient pas connaissance des deepfakes. Cette étude a été réalisée par KnowBe4, une plateforme dédiée à la formation et la sensibilisation sur la sécurité en ligne basée en Floride, aux États-Unis d’Amérique. Elle a donné lieu à un « Rapport 2023 sur la cybersécurité et la sensibilisation en Afrique » ("2023 African Cybersecurity and Awareness Report").

Selon KnowBe4, les participants avaient une certaine connaissance de la désinformation visuelle ; 72 % d'entre eux ont déclaré qu'ils ne croyaient pas que toutes les photos ou vidéos qu'ils avaient vues étaient réelles. Toutefois, l'entreprise a également souligné que les 28 % restants « pensaient que la caméra ne mentait jamais ». Cela suggère une vulnérabilité possible à ce type de tromperie.

D'un autre côté, la sensibilisation du public pose son propre défi. Le dilemme a été identifié comme « le dividende du menteur » dans un article de recherche en anglais, mis en ligne le 21 juillet 2018 - et actualisé le 17 décembre 2019 - par Social Science Research Network (SSRN), un autre site d’Elsevier, dédié à la recherche dans les sciences sociales (« Les deepfakes : un défi majeur pour la vie privée, la démocratie et la sécurité nationale », "Deep fakes: A looming challenge for privacy, democracy, and national security"). D’après cette étude, le dividende du menteur est le suivant : plus les gens sont conscients de l'IA et de sa capacité à générer un contenu convaincant, plus ils risquent de douter de l'authenticité de quelque chose de réel.

« Le fait que nous sachions que la technologie de génération d'IA existe signifie qu'il s'agit d'une excuse utile », a déclaré Jean Le Roux à Africa Check.

Le concept n'est pas nouveau - nous avons vu une tactique similaire se dérouler dans l'arène politique pendant la présidence américaine de Donald Trump. Presque toutes les informations qu'il jugeait peu flatteuses étaient dénoncées comme des « fake news ». Comme l’a écrit le diffuseur public britannique BBC (British Broadcasting Corporation) dans un article publié le 12 novembre 2018 sur un de ses sites en anglais, « ce qui n'était au départ qu'un moyen de décrire la désinformation a rapidement été détourné pour devenir un outil de propagande ».

La notion de la preuve

Le dividende du menteur élève encore la barre de ce qui constitue une preuve convaincante - ou sape carrément le concept de « preuve ».

Il ne s'agit pas non plus d'une théorie. Lors d'une conférence en 2016, Elon Musk, entrepreneur technologique milliardaire et directeur général de Tesla Motors, a affirmé que les voitures à conduite automatique Model S et Model X de Tesla pouvaient « présentement conduire de manière autonome avec plus de sécurité qu'une personne ». Un enregistrement vidéo de cette déclaration est disponible sur YouTube depuis 2016.

Deux ans plus tard, un homme a été tué lorsqu'une voiture Model X en mode autopilote a percuté une barrière de sécurité. La famille de cet homme, Walter Huang, un ingénieur, a poursuivi Tesla en justice. Ses avocats ont affirmé que Huang a été tué parce que le mode de pilotage automatique de la voiture a échoué, citant la déclaration de Musk de 2016.

En réponse, les avocats de Musk ont tenté de mettre en doute l'exactitude de la déclaration du magnat de la technologie, prétendant que Musk ne se souvenait pas de l'avoir faite. Au tribunal, ils ont cité des exemples où des deepfakes avaient déjà été fabriqués en utilisant l'image de Musk. La cour n'a pas été convaincue et elle s’est dite inquiète de l’argumentation de la défense. Ce type d'argument, a-t-elle estimé, pourrait permettre à des personnes célèbres « d'éviter d'assumer la responsabilité de ce qu'elles ont réellement dit et fait ».

Des exemples similaires de doute sont apparus en politique.

Le 7 janvier 2019 au Gabon, un petit groupe de soldats à tenté un coup d'État - qui a échoué - motivé en partie par le mauvais état de santé d’Ali Bongo Ondimba, alors à la tête du pays depuis près de dix ans. Bongo Ondimba avait eu un accident vasculaire cérébral (AVC) en octobre 2018, et l'absence d'apparitions publiques ou de détails sur son état de santé au cours des mois suivants avait fait naître des rumeurs selon lesquelles il n'était pas en mesure de gouverner.

Le 31 décembre 2018, la présidence gabonaise a publié une courte vidéo dans laquelle Ali Bongo Ondimba adresse ses vœux à la Nation à l’occasion du passage à l’année nouvelle, 2019. Cependant, visiblement, quelque chose n'allait pas avec ce court film : le président gabonais avait l'air très différent de ses précédentes apparitions, notamment parce qu'il ne bougeait pas beaucoup le visage, a relevé le journal états-unien The Washington Post dans un article mis en ligne le 13 février 2020, analysant ce qui a mis le feu aux poudres du putsch avorté.

Si les caractéristiques soulignées par le Washington Post correspondent à l'apparence d'une personne ayant subi un AVC, elles ont également conduit à des interrogations au sein de l’opposition gabonaise et sur les réseaux sociaux sur l’authenticité de la vidéo : un opposant l’a ainsi qualifiée de deepfake, un internaute s’est demandé si elle ne provenait pas d'un logiciel d'apprentissage automatique. Autant de choses qui ont contribué à installer et étendre un état de confusion et controverse ayant culminé avec le coup d’État raté. Deux des militaires aspirants putschistes ont été abattus par les forces de sécurité, et les autres arrêtés, incluant leur meneur, le lieutenant Kelly Ondo Obiang. Ondo Obiang et deux de ses camarades de mésaventure ont été jugés et condamnés le 1er juillet 2021 à quinze ans de prison et à des amendes, des gendarmes et un civils co-accusés ont été acquittés.

Repérer des deepfakes et des cheap fakes, un exercice d'équilibriste

Les deepfakes, les cheap fakes et tout ce qui se situe entre les deux feront partie du paysage de la désinformation sur le continent, en particulier à mesure que les technologies de l'IA deviendront plus accessibles et moins gourmandes en ressources. Le public devra alors faire face à une érosion du concept de preuve tel que nous le connaissons.

Cependant, il est important d'équilibrer ces craintes par une prise de conscience des menaces actuelles. L'IA fait partie d'une longue liste d'outils utilisés pour induire en erreur. Et dans les sujets que nous rencontrons et que nous examinons à Africa Check, les bonnes vieilles formes de tromperie, telles que les images et les vidéos sorties de leur contexte ou les visuels grossièrement manipulés, arrivent en tête devant les contenus générés par l’IA.

Tout en gardant un œil sur l'évolution de l'IA et en espérant ne pas avoir à mettre à jour cet article trop tôt, c'est sur ce point que nous devons nous concentrer en tant que vérificateurs de faits.


Article traduit de l’anglais par Dieynaba Thiombane, édité par Valdez Onanina et Coumba Sylla.

Le texte original a été publié le 7 août 2023 sur notre site en anglais.

Republiez notre contenu gratuitement

Veuillez remplir ce formulaire pour recevoir le code de partage HTML.

Ajouter un commentaire

HTML restreint

  • Balises HTML autorisées : <a href hreflang> <em> <strong> <cite> <blockquote cite> <code> <ul type> <ol start type> <li> <dl> <dt> <dd> <h2 id> <h3 id> <h4 id> <h5 id> <h6 id>
  • Les lignes et les paragraphes vont à la ligne automatiquement.
  • Les adresses de pages web et les adresses courriel se transforment en liens automatiquement.
limite : 600 signes
Cette question sert à vérifier si vous êtes un visiteur humain ou non afin d'éviter les soumissions de pourriel (spam) automatisées.

Voulez-vous continuer à lire nos vérifications des faits ?

Nous ne vous ferons jamais payer pour des informations vérifiées et fiables. Aidez-nous à poursuivre cette voie en soutenant notre travail

S’abonner à la newsletter

Soutenir la vérification indépendante des faits en Afrique