La responsabilisation des utilisateurs face à la désinformation en ligne

Les géants du web jouent sur la difficile conciliation entre la lutte contre la désinformation et la protection des données personnelles

L’étude publiée par l’Observatoire européen de l’audiovisuel dresse un état des lieux des « multiples moyens mis en œuvre par les autorités publiques et les entreprises privées pour donner aux utilisateurs les moyens de lutter contre la désinformation en ligne ». Jugée comme « l’un des problèmes les plus complexes de notre époque », la désinformation a un impact sur la société sans qu’elle soit pour autant toujours illicite, eu égard la liberté d’expression et d’information constitutive de nos démocraties contemporaines. La désinformation peut influer sur le vote des citoyens, le respect de leur vie privée, leur réputation ou encore viser des groupes particuliers de la société comme les migrants ou les personnes LGBT+ et, dans ce cas, enfreindre la loi.

Le rapport commence par souligner la difficulté à appréhender les différentes facettes de la désinformation, en citant notamment la distinction proposée par les chercheurs Claire Wardle et Hossein Derakhshan (auteurs du rapport Information Disorder, voir La rem n°45, p.62) pour qui « les désordres de l’information sont la mésinformation, la désinformation et l’information malveillante, les deux premiers termes impliquant une fausse information, tandis que les deux derniers ont un objectif malveillant ». La stratégie la plus efficace pour lutter contre la désinformation en ligne, licite, serait ainsi de donner aux utilisateurs des outils pour s’en prémunir, tels que « des campagnes d’éducation aux médias, le marquage des contenus par les plateformes en ligne, la possibilité pour les utilisateurs de signaler les éléments de désinformation, ainsi que la promotion d’informations fiables, de méthodes de conception sûres et de mécanismes de recours transparents ».

Après avoir dressé un état des lieux du cadre juridique et politique international et européen, émanant no­tam­ment de l’Unesco et du Conseil de l’Europe, ou encore de la directive européenne sur les Services de médias audiovisuels (SMA) et de ses révisions successives, les auteurs s’intéressent à la diversité des réponses des pays membres en faveur de la responsabilisation des utilisateurs dans la lutte contre la désinformation en ligne ou encore dans la manière « d’équiper les utilisateurs pour qu’ils puissent identifier la désinformation ».

La Commission européenne a notamment invité les grandes plateformes à « intensifier résolument leurs efforts pour lutter contre la désinformation en ligne » à travers la publication, en 2018, d’un Code de bonnes pratiques contre la désinformation que l’industrie a semblé accepter, en pleine affaire Cambridge Analytica, cette société britannique qui a usurpé les données de 87 millions d’utilisateurs de Facebook, à des fins de ciblage politique lors du Brexit en Angleterre et de l’élection de Donald Trump aux États-Unis (voir La rem n°48, p.90 et n°53, p.19). Dès 2020, la Commission européenne a relevé un certain nombre d’insuffisances, dû en grande partie à la liberté des plateformes d’appliquer tout ou partie de ce code. En mai 2021, la Commission a donc élaboré un « code renforcé », signé en 2022 par bon nombre de grandes entreprises du secteur comme Google, Meta, Microsoft, TikTok ou encore Twitter, sans toutefois que Amazon, Apple et Telegram en fassent partie. Parmi les vingt-cinq engagements du code 2022, l’engagement 22, le plus controversé, prévoit que les plateformes « doivent fournir aux utilisateurs des outils qui vont leur permettre de prendre des décisions plus avisées lorsqu’ils sont confrontés à des informations en ligne susceptibles d’être fausses ou trompeuses, ainsi que faciliter leur accès aux outils et aux informations destinés à évaluer la fiabilité des sources d’information, comme les indicateurs permettant une navigation en ligne éclairée, notamment en ce qui concerne les questions de société ou liées à un débat d’intérêt général » (voir La rem n°63, p.10).

Mais la mise en place d’un tel indice de fiabilité des contenus des plateformes n’est pas vraiment dans l’intérêt des plateformes. Cité par l’Observatoire européen de l’audiovisuel, L. Gordon Crovitz, directeur général de Newsguard, un outil qui fournit des indices de confiance pour plus de 7 500 sites web d’information et d’actualité, estime que les plateformes « ont conçu leurs produits pour maximiser l’engagement et augmenter les recettes publicitaires, indépendamment de la fiabilité des informations qu’elles diffusent […] et elles savent quel pourcentage de leurs utilisateurs reçoivent la plupart de leurs informations de sources peu fiables ». Pour ce dernier, le partage de ces informations « mettrait les plateformes dans l’embarras, ce qui expliquerait probablement leur refus de fournir ces données aux utilisateurs ou aux chercheurs ». Si les stratégies les plus efficaces pour lutter contre la désinformation, selon les auteurs du rapport, seraient de donner aux utilisateurs de véritables outils pour s’en prémunir, rien n’avancera tant que les plateformes n’y seront pas contraintes, l’autorégulation semblant être un échec.

La responsabilisation des utilisateurs face à la désinformation en ligne, Francisco Javier Cabrera Blázquez, Maja Cappello, Julio Talavera Milla et Sophie Valais, IRIS Plus, Observatoire européen de l’audiovisuel, 2022.

 

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici