Le Conseil de l’Europe a rendu public en octobre 2017 un rapport sur la lutte contre la désinformation. Intitulé « « Chaos informationnel » : vers un cadre interdisciplinaire pour la recherche et l’élaboration de politiques », le rapport observe la manière dont les campagnes de désinformation, s’appuyant sur les réseaux sociaux et une myriade d’opérateurs de contenus, aboutissent à une « pollution de l’information » et un « chaos informationnel » d’un genre nouveau. Depuis les résultats du vote du « Brexit » au Royaume-Uni, la victoire de Donald Trump aux États-Unis et la récente décision du Kenya d’annuler le résultat de ses élections nationales, nous serions « seulement au début des étapes de la compréhension de leurs impacts directs et indirects ». Le rapport s’inquiète tout particulièrement des implications à long terme de ces campagnes de désinformation sur nos démocraties, dont le seul objet est de « semer la méfiance et la confusion et d’attiser les différences socioculturelles existantes en exploitant les tensions nationalistes ethniques, raciales et religieuses ».
Refusant de parler de fake news, terme « inadéquat à décrire le phénomène complexe de la pollution de l’information », les auteurs s’attachent à proposer un cadre de réflexion au désordre informationnel. Ils distinguent la mésinformation (mis-information), la désinformation (dis-information) et l’information malveillante (mal-information). La mésinformation correspond à de fausses informations partagées sans intention de nuire, où aucun mal n’est signifié. La désinformation consiste à partager des informations que l’on sait fausses avec pour objectif unique de causer des dommages. Et l’information malveillante correspond à une information authentique partagée uniquement pour causer un préjudice, le plus souvent en violant la sphère de la vie privée.
Après avoir posé ce cadre de réflexion, le rapport analyse l’écosystème du désordre informationnel en distinguant, d’une part, les trois phases d’une information préjudiciable – la création, la production et la diffusion – et, d’autre part, les trois familles d’acteurs qui y concourent – les agents, les messages et les interprètes. Le chaos informationnel ne peut être compris qu’en considérant attentivement cet écosystème. Au niveau des agents, quels sont les types d’acteurs engagés ? Officiels ou non ? Quel est leur degré d’organisation ? Aucun, lâche, serré ou en réseau ? Quelle est leur motivation ? Financière, politique, sociale, psychologique. Quel est leur degré d’automatisation ? Humain, cyborg ou bot ? Quelle est l’audience visée ? Des personnes en particulier, des groupes sociaux, des sociétés entières. Et enfin, existe-t-il une intention de nuire et d’induire en erreur ? Au niveau du message, quelle est sa durée ? Long terme, court terme ou basée sur un événement. Quel est son degré de précision ? Tromperie, manipulation, fabrication ? Le message reste-t-il « légal » ou non ? De quel type d’imposteur s’agit-il ? Une marque, un individu. Quelle est la cible du message ? Des individus, des entreprises, des groupes sociaux, la société entière. Et, au niveau de l’interprète, quelle est sa lecture du message ? L’accepte-t-il tel quel (hegemonic) ? Accepte-t-il le message partiellement (negotiated) ? Ou le refuse-t-il ? (oppositional). Enfin, que fait l’interprète face au message ? L’ignore-t-il, le partage-t-il en y adhérent, ou le partage-t-il pour s’y opposer ?
À travers cette matrice interprétative, il devient plus facile de percevoir que les agents qui créent, produisent et diffusent le message peuvent être bien différents. Pour être capable d’appréhender cette pollution de l’information, il faut comprendre les motivations de chacun, de même qu’il est important de comprendre les différents types de messages diffusés. Alors que les débats ont, à ce jour, principalement porté sur les sites d’informations textuelles, il se révèle que le contenu visuel, tout aussi répandu, est souvent bien plus difficile à identifier et à démystifier.
En s’inspirant des travaux du chercheur James Carey, le rapport insiste sur « la dimension émotionnelle et ritualiste de la communication. […] Plutôt que de simplement considérer la communication comme la transmission de l’information d’une personne à l’autre, nous devons reconnaître que la communication joue un rôle fondamental dans la représentation des croyances partagées. Ce n’est pas seulement de l’information, mais du drame – « une représentation des forces en présence dans le monde » ». Cette dimension émotionnelle est le terreau le plus favorable à la diffusion massive d’informations préjudiciables et les auteurs s’interrogent notamment sur « les raisons pour lesquelles les gens partagent des informations erronées » et sur « les manières d’enseigner aux gens comment réagir lorsque leurs amis ou leur famille publient du contenu fabriqué ou trompeur sur les réseaux sociaux ou des applications de messageries fermées ».
Le rapport évoque des initiatives et des projets de recherche en rapport avec ce « chaos informationnel » et s’intéresse tout particulièrement aux bulles de filtre et aux chambres d’échos. The Filter Bubble: How the New Personalized Web Is Changing What We Read and How We Think, ouvrage écrit en 2011 par Eli Pariser, reprend l’idée développée par le théoricien allemand Jürgen Habermas en 2006 selon laquelle « le développement de millions de chatrooms éparpillées à travers le monde conduit à la fragmentation de grands auditoires de masse politiquement ciblés en un grand nombre de publics isolés ». En outre, en utilisant des algorithmes pour fournir des contenus susceptibles de nous plaire, les plateformes renforcent notre propre vision du monde et nous permettent « de rester enfermés dans nos chambres d’écho sécuritaires et confortables ».
Le rapport suggère 35 recommandations à l’intention des entreprises du numérique (13 recommandations), des gouvernements nationaux (6), des médias (8), de la société civile (2), des ministères de l’éducation (3) et des organismes de financement (3).
Outre le fait de de travailler ensemble, les entreprises du numérique pourraient tout d’abord créer un « conseil consultatif international » et « fournir aux chercheurs les données relatives aux initiatives visant à améliorer le discours public ». Elles devraient également « fournir des critères transparents pour tous les changements algorithmiques qui dégradent le contenu ». Ces entreprises pourraient en outre « éliminer les incitations financières » à la diffusion de fausses informations. Enfin, le rapport propose une série de mesures techniques visant à « fournir des métadonnées aux partenaires de confiance », « construire des outils de vérification des faits (fact checking) ou encore créer des « moteurs d’authenticité » (authenticity engines), qui « marqueraient les contenus digne de confiance ». Pour minimiser l’impact des bulles de filtre, les entreprises technologiques pourraient « permettre aux utilisateurs de personnaliser les flux et les algorithmes de recherche, diversifier l’exposition des gens à différentes opinions et enfin, permettre à ces utilisateurs de consommer des informations qui ne sortiraient pas du registre privé ».
Les gouvernements nationaux, quant à eux, pourraient créer une « commission de recherche pour cartographier les troubles de l’information », « réguler les réseaux publicitaires », exiger la transparence autour des publicités Facebook » et « soutenir les médias remplissant une mission de service public et les médias locaux ».
Les médias d’information, outre le fait de collaborer davantage, pourraient convenir de « politiques sur le silence stratégique », « assurer des normes éthiques solides dans tous les médias », expliquer « l’ampleur et la menace posée par le trouble de l’information » et également, « ne pas diffuser de contenu fabriqué ».
Les ministères de l’éducation pourraient « travailler à l’échelle internationale pour créer un programme d’alphabétisation normalisé, travailler avec les bibliothèques et mettre à jour les programmes scolaires de journalisme ».
Enfin, les organismes de financement pourraient soutenir les initiatives visant à lutter contre la désinformation en apportant subsides et solutions technologiques, mais également promouvoir « les enseignements visant à développer un regard critique en matière d’information ».
Autant de pistes destinées à lutter contre ce « chaos informationnel », dont les impacts sur nos démocraties sont sans commune mesure et dont les effets sont encore peu compris.
Information Disorder : Toward an interdisciplinary framework for research and policy making, Claire Wardle et Hossein Derakhshan, Conseil de l’Europe, September 2017