Retour sur Africa Check
PIXABAY

BLOG : Comment les algorithmes alimentent la désinformation en Afrique

Les campagnes de désinformation en ligne sont souvent appuyées par l'usage des algorithmes qui, notamment, vont jusqu'à définir le comportement des individus afin de les cibler avec plus de précision. Un prétexte pour susciter la réflexion sur le sujet en Afrique.

Les psychologues Daniel Kahneman (lauréat du Prix Nobel d’économie en 2002) et Amos Tversky ont montré que nous ne prenons pas toujours une décision économique en nous fondant sur la logique ou la raison, il nous arrive de nous baser sur des émotions ou sur des erreurs de raisonnement, c’est-à-dire des biais. On pourrait en dire de même pour l’usage de l’information, surtout avec le développement des technologies et les algorithmes, qui contribuent aux changements en cours mais peuvent aggraver les biais existants. 

Propre au langage mathématique et informatique, « un algorithme est la description d'une suite d'étapes permettant d'obtenir un résultat à partir d'éléments fournis en entrée », indique l'autorité administrative indépendante en charge de la protection des données personnelles en France, la Commission nationale de l'informatique et des libertés (Cnil). En clair, « un algorithme est en fait une procédure par étapes. C’est un ensemble de règles à suivre pour accomplir une tâche ou résoudre un problème », résume DataScientest, un organisme français de formation en sciences de données, dans une fiche d’information sur le sujet publiée le 11 août 2021. « Bien avant l’émergence de l’informatique, les humains utilisaient en fait déjà les algorithmes. On peut considérer que les recettes de cuisine, les opérations mathématiques ou même la notice pour monter un meuble sont des algorithmes », ajoute-t-il. En Afrique, de nombreuses campagnes de désinformation ont été aggravées par le piège algorithmique. Même si les géants du web n’ont pas dévoilé toutes leurs logiques, de nombreux indices laissent apparaître de nouvelles formes de manipulation silencieuse qui exploitent les données comportementales.

Exit la qualité, au scalp le comportement !

Cambridge Analytica est une société britannique de conseil politique créée en 2014, ayant été au centre d’une levée de boucliers dans le monde en 2018 pour avoir « récupéré sans leur consentement » les données de dizaines de millions d’utilisateurs du réseau social Facebook pour tenter d’influencer vote des électeurs. La firme a annoncé l’arrêt de ses opérations et entamé des procédures d'insolvabilité en 2018.

Dans son livre « Mindfuck - Le complot Cambridge Analytica pour s'emparer de nos cerveaux » (Éditions Grasset, 2020),  Christopher Wylie, un lanceur d’alerte canadien qui a travaillé au sein de cette société britannique, revient sur les mécanismes que la firme a expérimentées lors des élections de 2015 au Nigeria et lors des scrutins de 2017 au Kenya. Cambridge Analytica a réussi à segmenter les citoyens, dans ces deux pays,  à partir de leur âge,  leur sexe, leurs goûts esthétiques,  leurs aspirations,  leurs croyances pour influencer les électeurs et semer la haine. 

L'algorithme affine et vise à prédire au plus près les désirs et les perceptions en se basant sur le profil comportemental. Dans ces cas cités, les codes combinent à la fois des techniques de persuasion de masse, de mesure des émotions et des désirs informationnels des utilisateurs. 

En ce sens, Cambridge Analytica a fait sauter le verrou entre espionnage et neuromarketing (l'application des neurosciences cognitives au marketing). L’Afrique devient ainsi le terrain d’expérimentation des algorithmes. Elle permet de tester de nouvelles pratiques qui seront utilisées ailleurs, comme ce fut le cas avec l’élection de Donald Trump aux États-Unis d’Amérique en 2016

Prendre le contrôle de « l’esprit des gens »

Dans ce contexte, des entreprises utilisent les profils psychologiques des individus pour les rendre vulnérables à la désinformation. Hannah Arendt, une philosophe et politologue américaine d’origine allemande, parlerait de la guerre de l’information visant à prendre le  contrôle de « l’esprit des gens ». Les campagnes de désinformation qui ont eu lieu au Nigeria, au Burkina Faso et au Mali depuis 2020 en sont des illustrations. 

Que ce soit sur Facebook, sur WhatsApp ou sur TikTok, les mécanismes restent les mêmes : le microciblage via le comportement. « Microciblage est le processus d’utilisation des informations dont vous disposez sur un utilisateur pour vous connecter avec lui de manière plus personnelle. Il permet des messages marketing sur mesure et permet aux entreprises d’identifier des clients potentiels », explique le blog Arc Optimizer, dédié aux « actualités digitales et numériques dans le monde » en français, dans un article sur ce sujet publié le 30 janvier 2023. « Le microciblage se fait souvent avec des données recueillies à partir de plateformes de médias sociaux comme Facebook ou Twitter. Ces données incluent ce que les utilisateurs publient sur leurs profils, leurs intérêts et les autres personnes avec lesquelles ils interagissent en ligne. Les entreprises peuvent utiliser ces informations pour envoyer des publicités ou des promotions ciblées directement aux utilisateurs en fonction de leurs intérêts spécifiques », ajoute-t-il.

En analysant les contenus des commentaires sur les vidéos virales entre les différents réseaux, deux constats se dégagent.

Tout d'abord, l'on retrouve le même champ lexical dans les commentaires lorsqu'un contenu est partagé d’une plateforme à une autre, surtout entre TikTok, Facebook et Snapchat. D'ailleurs, l’exposition répétée d’une même fausse nouvelle, et qui finit par être acceptée comme vraie, a un nom : l’effet de vérité illusoire. Connu comme l’effet de validité ou l’effet de réitération, ce phénomène, que l'on observe de plus en plus sur le numérique, a été identifié pour la première fois dans une étude qui date de 1977.

Ensuite, l'on constate que plus les utilisateurs défendent les mêmes causes, plus ils sont proches et partagent presque les mêmes contenus d'un réseau social à un autre. Il arrive aussi, surtout sur Twitter et TikTok, que les batailles de narratifs s'entrechoquent. Rarement la nuance est de rigueur.

Eli Pariser est un auteur et activiste américain qui promeut la pratique de l’engagement citoyen en ligne avec pour credo déclaré de mettre la technologie et les médias au service de la démocratie. Il utilise l'expression « bulle de filtres » pour désigner le filtrage de l'information qui parvient à l'internaute par différents filtres et son « isolement intellectuel » par le biais des algorithmes qui, sans que cet internaute s’en rende compte, lui imposent des informations. En filigrane, les algorithmes possèdent, à ce niveau, une dimension de socialisation à partir de fausses nouvelles, en participant au rapprochement entre des personnes de mêmes idées ou ayant les mêmes attentes. L’urgence se trouve dans l’éducation et l’accompagnement au numérique comme le préconise le livre « Politiques de désinformation en Afrique subsaharienne : des lois et réglementations à l'éducation aux médias », un ouvrage collectif publié en 2021 (en anglais : "Misinformation Policy in Sub-Saharan Africa", Éditions de l'Université de Westminster), auquel l’auteur de cet article de blog a participé sous la direction du journaliste et chercheur britannique Peter Cunliffe-Jones, fondateur d’Africa Check.

Un piège sans fin

D'une plateforme numérique à une autre, malgré les différences algorithmiques, l'on constate une certaine vulnérabilité de l’internaute. Il serait envahi par « un piège sans fin », pour reprendre le titre du roman d'Olympe Bhêly-Quenum. Le flou sur les codes des algorithmes renforce cette situation.

Les journalistes Motunrayo Joel, du bureau d’Africa Check au Nigeria, et Alphonce Shiundu, du bureau kényan d’Africa Check, sont revenus sur cette problématique dans un article publié le 26 avril 2023 dans notre rubrique blog :  « Désinformation en période électorale en Afrique : enseignements du Kenya et du Nigeria (et ce que vous pouvez faire face à ce problème) ». Ils écrivent que « la mauvaise réglementation des espaces en ligne permet aux promoteurs de la désinformation politique d'utiliser facilement l'analyse des données comme on l'a vu dans le scandale Cambridge Analytica ».

Rappelons que les Facebook Files, du nom des  révélations publiées en 2021 par une lanceuse d’alerte sur le fonctionnement de ce réseau social, ont mis en lumière une politique de modération arbitraire de Meta, la maison mère de Facebook. En 2022, Facebook a refusé de supprimer des réseaux de désinformation bien identifiés opérant surtout entre le Mali et le Burkina Faso, comme l’a rapporté (en anglais) le média britannique The Guardian dans un article mis en ligne le 17 avril 2022 et comme on peut le lire en français dans une « cartographie de la désinformation en Afrique » publiée le 13 mai 2022 par le Centre d’études stratégiques de l’Afrique, un organisme du Département (ministère) de la Défense des États-Unis d’Amérique.

Initiatives salutaires

À ce niveau, il est salutaire de voir des initiatives visant à dénoncer le flou algorithmique. Au Sénégal, le Rassemblement des entreprises du secteur des technologies de l’information et de la communication (Restic) a annoncé une plainte contre le réseau social TikTok devant la Commission de protection des données personnelles du Sénégal (CDP). Le Restic accuse le réseau social d’origine chinoise de « non-respect de la législation du Sénégal sur les données personnelles, notamment les enfants et les mineurs qui constituent une audience et une cible pour » cette plateforme.

Avec TikTok, l’utilisateur reste pour le moment dépendant de ce que lui est soumis comme contenu, même s'il peut passer à la vidéo suivante. Cette singularité algorithmique permet à l'usager de cliquer facilement sur ce qu'il apprécie, augmentant ainsi le volume de données, contrairement à Meta (Facebook) ou encore YouTube.

Cette situation n’est pas un cas isolé et elle ne se produit pas seulement en Afrique.

La Commission irlandaise de protection des données (DPC, pour Data Protection Commission), un régulateur qui agit pour le compte de l’Union européenne (UE), a, en décembre 2022 fait condamner Meta, qu’elle accusait de ne pas respecter « ses obligations en matière de transparence » et d’utiliser une base illégale juridique « pour son traitement des données à caractère personnel à des fins de publicité ».

Dans cette perspective, les projets et programmes de lutte contre la désinformation initiés par les géants du net viseraient principalement à les dédouaner, partiellement, de leurs responsabilités. C'est ainsi que Facebook a lancé un programme mondial de fact-checking fin 2016. Le réseau social collabore avec des médias et des organisations indépendantes de fact-checking autour d'une charte déontologique pour signaler et décrypter les fausses informations.

Concernant Twitter, on en sait davantage sur le fonctionnement de son algorithme. Le « Tweepcred » représente le score, entre 0 et 100, qui permet à l’algorithme de faire le classement des usagers afin d'étudier leur comportement et de prévoir le type de contenus selon leur âge, le nombre de followers, le nombre de personnes qui les bloque. Et l’identification payante rendra difficile la certification de l’information.

L’info-algo

À partir de ces exemples, il est clair qu’avec l’algorithme, le cyberespace devient un marché structuré, hiérarchisé, monétisé, clivant et propice à la fausse nouvelle. Il s' ajoute que, pour les nombreuses campagnes de désinformation, les trolls et les bots participent à parasiter l'information et à rythmer les conversations.

Par ailleurs, sur les réseaux sociaux, abondance d’information ne signifie pas nécessairement connaissances. Sur internet, les grandes plateformes web choisissent les messages en se basant non pas sur le contenu lui-même ou sur sa qualité, mais sur le comportement des lecteurs.

Ce que nous nommons finalement l’info-algo est, certes, une donnée sur un fil d’actualité avec des conséquences sur les perceptions ; mais elle est, avant tout, une denrée de consommation, calculable, variable et souvent très pauvre.

À propos de l’auteur : Sahite Gaye est enseignant-chercheur en sciences de l'information et de la communication au Centre d'Études des Sciences et Techniques de l'Information (Cesti) de l’Université Cheikh Anta Diop (Ucad) de Dakar. Ses travaux couvrent notamment la communication de crise et la désinformation. Il a publié « Le pouvoir du fact », une étude sur la pratique du fact-checking par Africa Check au Sénégal.

 

Republiez notre contenu gratuitement

Veuillez remplir ce formulaire pour recevoir le code de partage HTML.

Les algorithmes, peuvent effectivement affiner des orientations, mais il faut dire qu'en amont, la rédaction de l'algorithme, a été d'abord orienter ,par la volonté des software engineers, les contrôles géographiques. Ce n'est pas simple l'attitude seul des internautes la cause.

Ajouter un commentaire

HTML restreint

  • Balises HTML autorisées : <a href hreflang> <em> <strong> <cite> <blockquote cite> <code> <ul type> <ol start type> <li> <dl> <dt> <dd> <h2 id> <h3 id> <h4 id> <h5 id> <h6 id>
  • Les lignes et les paragraphes vont à la ligne automatiquement.
  • Les adresses de pages web et les adresses courriel se transforment en liens automatiquement.

Ajouter un commentaire

HTML restreint

  • Balises HTML autorisées : <a href hreflang> <em> <strong> <cite> <blockquote cite> <code> <ul type> <ol start type> <li> <dl> <dt> <dd> <h2 id> <h3 id> <h4 id> <h5 id> <h6 id>
  • Les lignes et les paragraphes vont à la ligne automatiquement.
  • Les adresses de pages web et les adresses courriel se transforment en liens automatiquement.
limite : 600 signes

Voulez-vous continuer à lire nos vérifications des faits ?

Nous ne vous ferons jamais payer pour des informations vérifiées et fiables. Aidez-nous à poursuivre cette voie en soutenant notre travail

S’abonner à la newsletter

Soutenir la vérification indépendante des faits en Afrique