Ce que l’Intelligence Artificielle nous dit de la fabrique de la désinformation

Aujourd’hui, nous baignons dans la désinformation permanente. Cette désinformation est principalement émise par les médias traditionnels, encore largement dominants dans la fabrique de l’opinion publique. Pourtant, il est très rare de pouvoir accuser directement un média traditionnel de fabriquer de fausses informations. Mais alors, comment se fabrique cette désinformation au quotidien?

De manière surprenante, l’Intelligence Artificielle nous donne beaucoup de réponses sur la psyché humaine et la façon dont les médias utilisent ses biais pour installer une fausse image de la réalité dans l’opinion publique majoritaire.

Comment l’industrie de la désinformation fonctionne t-elle?

Prenez un fait entier, sans rien omettre, puis découpez-le en retirant tout ce qui représente une gêne pour vous. Puis, présentez ce découpage que vous aurez réalisé à vos téléspectateurs. Automatiquement, les trous que vous aurez laissés seront comblés à partir de l’imagination de votre auditoire. Mais de quoi est faite cette imagination? Elle est faite le plus souvent faite de préjugés que vous aurez instillé à votre public en amont.

La première chose à comprendre est qu’une information sera toujours par nature incomplète. Une information en soi est toujours stérile. Elle est une simple graine qui se déploie dans le cerveau de l’interlocuteur en puisant dans son imaginaire et ses connaissances déjà acquises. La communication repose toujours sur la faculté de l’individu à intégrer une information dans une toile plus vaste. C’est ce qui donne du sens aux choses, et c’est aussi la raison pour laquelle chaque personne interprétera de façon unique une seule et même information.

Dans le processus de la cognition, il est naturel de délivrer une information incomplète, souvent par manque de temps, en pouvant compter sur l’interlocuteur pour combler habilement tous les trous. Il ne s’agit alors pas de biaiser l’information mais simplement de rendre le processus de communication le plus efficace possible en se reposant sur les facultés d’interprétation de l’interlocuteur.

Mais si l’on souhaite se tourner vers le domaine de la désinformation, c’est tout un processus que l’on peut souhaiter maitriser: à la fois l’information qui est délivrée mais aussi l’imaginaire qui recevra et interprétera l’information.

Il s’agit donc d’abord de réduire l’information considérablement. Un bon commencement est de retirer ou de changer les noms des criminels dans les faits divers, par exemple, afin de masquer toute origine ethnique des agresseurs.

Un tel processus se caractérise par une qualité d’information extrêmement pauvre. L’information est l’élément perturbateur dans le processus de désinformation. Issue de la réalité et très difficile à falsifier, réduire sa portée est donc une priorité pour le manipulateur.

Plus la qualité de l’information est réduite, plus l’imaginaire tient un rôle prépondérant, plus celui qui maîtrise cet imaginaire garde le contrôle global.

Ce procédé habile est le modus operandi dans les médias traditionnels. La rétention d’information est savamment orchestrée pour laisser faire l’imagination du public, un imaginaire que l’on garde sous contrôle par la répétition d’éléments de langage sans factualité.

Comment est construit et maintenu cet imaginaire?

Dans le cadre d’une manipulation, cet imaginaire est construit à partir de la somme des préjugés que vous aurez instillé à votre public en amont.

L’imaginaire des téléspectateurs est gardé sous contrôle de trois façons différentes.

A- L’utilisation de la fiction via les séries télévisés, les talkshows, les films, les romans, les spots publicitaires, les campagnes de prévention, etc. Il n’est pas rare non plus que parfois, la distinction entre la fiction et l’information ne soit plus faite. C’est ainsi le cas pour les très nombreux films ou livres français se présentant comme des “œuvres” décrivant une réalité par la fiction.

B- L’utilisation de l’effet de loupe. Très souvent, il est utilisé une petite sélection de profils triés sur le volet pour cacher une vérité statistique. L’imaginaire est ainsi construit à partir de cette infime sélection. L’effet de loupe se cumule souvent à l’utilisation de la discrimination positive. Les profils ne sont parfois pas simplement sélectionnés mais construits. Loin de vouloir servir une quelconque notion d’égalité, dont le principe de discrimination positive est la négation, ce type de dispositif vise la création de ce vivier réduit mais exploitable.

C- La répétition constante des mêmes omissions. Ce phénomène de renforcement créé la confiance de la personne dans l’information partielle auto-complétée qu’il a acquise. Le principe de répétition est essentiel car cet imaginaire se construit par renforcement. Parti de rien, il se gorge de ces faits découpés. Ainsi, il n’est pas rare de voir des gens nier la réalité des chiffres et des faits révélés, car ils auront toute cette inertie derrière eux.

Ainsi, de cette façon, vous pourrez diffuser sur vos antennes à longueur de journée des mensonges complets sans falsifier quoi que ce soit.

Ce que l’Intelligence Artificielle nous apprend de l’humain

En vérité, le cerveau n’est pas un outil très élaboré pour traiter des faits. Il fonctionne avant tout par renforcement. Dans un réseau neuronal artificiel, ce phénomène est nommé la rétropropagation.

La chose essentielle à comprendre est qu’une information ne se contente par d’être une information. Une information structure la façon de penser de la machine comme de l’humain pour établir une façon de penser particulière.

Dans un réseau neuronal artificiel, les connexions sont altérées par le renforcement d’une information. Un réseau neuronal artificiel ne peut se redéfinir que par la détection d’une incompatibilité entre la réalité et le résultat qu’il anticipait. Lorsqu’un tel écart est détecté, la rétropropagation propage cette erreur dans tout son réseau pour redéfinir les connexions neuronales.

Or, voilà le biais d’un tel mécanisme: plus l’erreur sera importante et interviendra à une étape avancée de l’apprentissage, plus la rétropropagation sera douloureuse. Dans un tel mécanisme de renforcement, il est extrêmement coûteux (donc réellement épuisant physiquement) pour la machine comme pour l’humain de revenir sur un conditionnement.

Pour une machine, l’apprentissage sera la lecture d’un jeu de données. Pour l’humain, l’apprentissage sera la répétition d’omissions courantes par les médias.

Lorsque par exemple, Alain Finkelkraut, se fit insulter et menacer par un islamiste qui lui cria sa haine des juifs lors de manifestations de Gilets Jaunes, les médias ont tue l’identité de l’agresseur pour laisser faire l’imaginaire des citoyens, dans la certitude qu’ils associeraient cette agression à l’extrême-droite, sans factualité. Ce fut un pari réussi jusqu’au deuxième passage d’Alain Finkelkraut dans les médias qui rappela le fait le plus élémentaire qu’aurait du contenir l’information à l’origine, ce que n’avaient pas fait les médias à dessein.

DeepDream, l’exemple d’un biais cognitif similaire à l’humain chez la machine

Dans le cadre de ses recherches en Intelligence Artificielle sur les réseaux neuronaux, Google a présenté un projet atypique. Le projet, DeepDream, consiste à montrer une image à la machine, une image qu’elle ne connait pas du tout, une image qui sort totalement du cadre de ce pour quoi la machine a été entrainée. Par exemple, on montrera des images de nébuleuses ou de pizzas à une IA capable uniquement de reconnaitre des chiens. Sans surprise, c’est une myriade de chiens que l’IA reconnaitra dans le magma picturale qui lui est présenté.

Une IA entrainée dans le cadre d’un apprentissage par renforcement, confrontée à ce qu’elle ne connait pas, comblera toujours le vide par ce qu’elle connait. Il en ira de même pour l’humain. C’est exactement par ce mécanisme que la désinformation par omission se verra automatiquement complétée par l’humain et considérée comme valide. Dans un bon mensonge par omission, l’essentiel est alors de construire cet apprentissage par renforcement sans base factuelle. Une fois cet entrainement effectué, le sujet conditionné ne sera plus capable d’en sortir qu’au prix d’un effort incommensurable. Il sera condamné à voir pour le restant de ses jours des têtes de chiens sur des images de pizzas et de nébuleuses.

Un autre exemple d’Intelligence Artificielle par renforcement est également intéressant. Il s’agit de la retouche de photos. En effet, l’utilisateur peut sélectionner une zone de sa photographie pour éliminer un élément graphique déplaisant (telle qu’une personne en arrière plan sur une photographie à la plage). L’IA fera appel à son conditionnement pour combler le vide, et proposer une mer ultra-réaliste en remplacement.