Interview de Romain Badouard, maître de conférences en sciences de l’information et de la communication à l’Université Paris 2 Panthéon-Assas, chercheur au laboratoire CARISM de l’Institut français de presse. – Propos recueillis par Françoise Laugée.
Quelles sont les différentes modalités de la censure (non étatique) exercée sur le web ?
Il faut d’abord distinguer ce qui relève de la censure de ce qui relève de la modération. La modération, c’est l’activité qui consiste à encadrer les discussions ou les contenus produits par des internautes au sein d’un espace d’échange. Les forums et les réseaux sociaux se sont toujours dotés de chartes et de règles de publication fixant ce qui peut se dire ou non sur les fils de discussion. Le rôle des modérateurs et modératrices est alors de faire appliquer ces règles, et cette activité est légitime tant qu’elle consiste à assurer un certain niveau de respect mutuel entre les interlocuteurs. On bascule dans la censure privée à partir du moment où les entreprises qui détiennent les infrastructures d’échange vont se servir de cette position de pouvoir pour supprimer des contenus qui ne contreviennent pas à leurs standards de publication, notamment pour des raisons politiques ou économiques.
Il existe trois manières principales de modérer les contenus sur les réseaux sociaux : le signalement des internautes, qui fait l’objet d’un examen par des modérateurs professionnels ; la détection automatique de contenus problématiques ; l’invisibilisation (couramment appelée « shadowban »). Ce sont surtout les deux dernières qui posent un problème de censure abusive. Les outils de détection automatique sont développés pour repérer des images ou des mots interdits, mais ils sont assez peu performants pour prendre en compte le contexte d’un échange, notamment lorsque les internautes ont recours à l’ironie ou au second degré. Résultat : ils peuvent être amenés à supprimer des contenus légitimes. L’invisibilisation, quant à elle, consiste non pas à supprimer un contenu, mais à en limiter la diffusion (en l’affichant plus bas sur un fil d’actualité par exemple, ou en arrêtant de le faire recommander par des algorithmes), ce qui a pour conséquence de faire chuter la visibilité du contenu en question. Dans ce cas précis, la censure est quasiment imperceptible, car la publication est toujours en ligne, mais personne ne la voit, ce qui rend le mécanisme difficilement contestable.
De nombreux sites de presse ont fini par fermer leurs espaces dédiés aux commentaires. Quelles en sont les raisons ?
Il peut y avoir en effet plusieurs raisons. L’activité de modération a un coût et les médias avaient tendance, ces dernières années, à déléguer ce travail de modération à des professionnels. Le caractère peu constructif des échanges a pu lasser également. Mais la raison principale, me semble-t-il, est que le débat d’actualité a migré depuis les espaces de commentaires des médias vers les réseaux sociaux. Là où l’actualité est en discussion, c’est principalement dans les commentaires des articles qui sont postés par les pages officielles des médias. Les médias en question ont d’ailleurs toujours tendance à faire appel à des professionnels de la modération, mais dorénavant c’est pour gérer les discussions sur les réseaux sociaux, notamment Facebook. Dans ces conditions, les entreprises de presse n’ont que peu d’intérêt à maintenir sur leurs sites des espaces de commentaires.
LA CENSURE EST QUASIMENT IMPERCEPTIBLE, CAR LA PUBLICATION EST TOUJOURS EN LIGNE, MAIS PERSONNE NE LA VOIT
À la suite de l’assaut du Capitole le 6 janvier 2021, la décision de bloquer les comptes du président Donald Trump sur les réseaux sociaux marque-t-elle un tournant, notamment en infléchissant la conception absolutiste de la liberté d’expression aux États-Unis ?
Oui, c’est indéniable. Quoi que l’on pense de Donald Trump, il s’agit d’un président élu démocratiquement, dont les canaux de communication principaux ont été coupés par des entreprises privées. On peut considérer que Trump a enfreint les standards de publication des plateformes, et qu’à ce titre il doit faire face aux mêmes sanctions que n’importe quel autre usager, mais, dans la pratique, les personnalités politiques ont toujours bénéficié d’une certaine mansuétude de la part des réseaux sociaux, qui considèrent leurs prises de parole comme étant d’intérêt général. Si cet événement est un tournant, c’est aussi parce que les grandes plateformes semblent dorénavant assumer leur rôle d’organisateurs du débat public en ligne, qui prennent des décisions proprement éditoriales, alors que jusqu’à présent elles défendaient leur statut d’hébergeur et leur position de neutralité quant aux contenus produits par les internautes, ce qui limitait leur responsabilité juridique.
LES GRANDES PLATEFORMES SEMBLENT DORÉNAVANT ASSUMER LEUR RÔLE D’ORGANISATEURS DU DÉBAT PUBLIC EN LIGNE
Que vous inspire la création de la Cour suprême de Facebook ?
Il y a deux manières de voir les choses. On peut, d’une part, se réjouir que, face à l’énorme pouvoir dont disposent les plateformes sur l’exercice de la liberté d’expression et sur l’organisation du débat public, celles-ci cherchent à déléguer une partie de ce pouvoir à des organisations indépendantes. La Cour suprême de Facebook (dont le vrai nom est Conseil de surveillance) fonctionne à la manière d’une cour de cassation et juge les litiges liés à la régulation des contenus quand les procédures d’appel des plateformes n’ont pas permis de les trancher. C’est un organisme indépendant de Facebook, dans la mesure où les personnalités qui le composent ne sont pas liées à l’entreprise (elles viennent essentiellement du monde universitaire ou de sphères militantes), mais qui est malgré tout financé par l’entreprise.
APRÈS AVOIR CHERCHÉ À FRAPPER SA PROPRE MONNAIE, FACEBOOK EST EN PASSE DE PRODUIRE SES PROPRES INSTITUTIONS JUDICIAIRES
Une autre manière de voir les choses est de considérer que, après avoir cherché à frapper sa propre monnaie, Facebook est en passe de produire ses propres institutions judiciaires internationales et que, si nous avons besoin de ce type d’organisme pour garantir les droits fondamentaux des internautes, ce n’est pas aux plateformes de les prendre en charge. Il y a tout un dispositif à inventer, notamment à l’échelle nationale, qui articulerait trois acteurs : les plateformes qui modèrent en première instance et font légitimement respecter leurs standards, ainsi que les procédures d’appel qu’elles mettent en place ; les pouvoirs publics qui surveillent les activités de modération des plateformes et garantissent que les droits fondamentaux des citoyens soient bien respectés ; la justice enfin (le parquet numérique ?) qui pourrait être saisie par les internautes quand ils jugent avoir été victimes de censure abusive, mais qui pourrait également punir les infractions liées aux abus de la liberté d’expression (insulte, diffamation, etc.) prévues par le droit français.
Quelles sont les actions ou les pistes qui vous paraissent intéressantes, afin de limiter le pouvoir d’influence des géants du numérique ? Fin de l’anonymat ? Slow web ? Installation par défaut sur les smartphones d’une application de modération des contenus comme Bodyguard ?
Mettre fin à l’anonymat sur les réseaux sociaux est une mauvaise solution, car elle irait à l’encontre d’un des principes fondamentaux du web, et même d’internet, qui a permis une libération de la parole sans commune mesure dans l’Histoire. Pour limiter les effets néfastes de l’anonymat, comme le harcèlement ou la brutalisation des échanges, d’autres solutions peuvent être envisagées, notamment celle qui consiste à obliger les plateformes à une meilleure collaboration avec la justice.
UNE RÉFLEXION PLUS GLOBALE SUR LE FONCTIONNEMENT DE L’ÉCONOMIE DE L’ATTENTION
Ensuite, il existe toute une panoplie de solutions possibles pour contrôler les activités de modération des plateformes : les forcer à davantage de transparence, mais aussi organiser les modalités de contrôle de cette transparence, par exemple, en autorisant l’audit des plateformes par des organismes indépendants. C’est l’une des pistes suivies par le Digital Services Act à l’échelle européenne, présenté par la Commission en décembre 2020.
Enfin, s’attaquer aux maux qui ruinent le débat en ligne ne peut faire l’économie d’une réflexion plus globale sur le fonctionnement de l’économie de l’attention sur internet. Les applications et algorithmes des plateformes favorisent la visibilité des contenus à forte teneur émotionnelle, et en particulier les contenus radicaux ou violents. Il faut aujourd’hui réfléchir à ce que pourrait être une architecture du débat qui soit respectueuse de l’attention des usagers d’une part, et qui garantisse un certain niveau de pacification des échanges d’autre part. Cela passe, par exemple, par des choix de design des plateformes portant sur le fonctionnement des algorithmes (organiser la visibilité des contenus sur d’autres critères que ceux habituellement en vigueur) ou sur les formats d’expression à la disposition des internautes (limiter les possibilités de partage – afin de réduire le « réchauffement médiatique », pour reprendre l’expression du sociologue Dominique Boullier – ou la citation d’autres tweets, qui servent notamment à des pratiques d’humiliation publique).
On pourrait aussi déléguer une partie de la modération aux internautes eux-mêmes, en ayant recours à des applications de type Bodyguard que vous citez, laissant chacun décider de ce à quoi il souhaite être exposé. Le problème que l’on risque de rencontrer, en revanche, à vouloir trop personnaliser les espaces d’échange, est d’accentuer la segmentation du débat en ligne et les phénomènes de bulles informationnelles, qui veut que l’information en ligne est distribuée aux internautes en fonction de leurs préférences personnelles, les enfermant de facto dans des sphères idéologiquement homogènes.
IMAGINER DES RÉSEAUX SOCIAUX PUBLICS, CE QUI LIMITERAIT LA MARCHANDISATION DES DONNÉES PERSONNELLES
La légitimité accordée aux plateformes, entreprises privées, pour contrôler la circulation des informations et des idées ne traduit-elle pas une défaillance des États démocratiques ? Que pensez-vous de l’idée d’un internet géré comme un service public ou de réseaux sociaux de service public financés par une taxe sur la publicité en ligne ?
C’est une piste intéressante sur laquelle travaillent un certain nombre de chercheurs et de chercheuses, notamment aux États-Unis. De la même façon que nous avons des chaînes de télévision ou des stations de radio publiques, nous pourrions tout à fait imaginer des réseaux sociaux publics, ce qui limiterait, par ailleurs, la marchandisation des données personnelles des usagers. Le problème, que l’on retrouve à différents moments de l’histoire du web, est le phénomène d’effet de réseau : les réseaux sociaux y ont un intérêt parce qu’ils réunissent beaucoup de monde autour d’un même service, et les usagers n’auraient que très peu d’intérêt à quitter les réseaux commerciaux qu’ils utilisent, et où se trouvent leurs proches, pour investir d’autres espaces d’échange. Dans la pratique, je ne suis pas sûr que cela puisse fonctionner. En revanche, il est possible de concevoir des formes de contrôle public des entreprises privées, à partir du moment où celles-ci se voient octroyer de fait une délégation de service public. Pendant de nombreuses années, les échecs des tentatives de régulation d’internet par les pouvoirs publics ont nourri l’idée d’un internet « indomptable », où les plateformes seraient « plus fortes que les États ».
Aujourd’hui, on assiste à un retour de la puissance publique sur ces dossiers, à travers le vote de lois au sein de pays européens, ou avec le Digital Services Act à l’échelle de l’Union. Mais il faut également s’assurer que cette régulation étatique ne devienne pas un levier pour limiter la liberté d’expression des internautes. Il y a un nouveau modèle à inventer, qui passe par la définition du type d’espace public que nous voulons voir fonctionner sur internet. La tâche est colossale, mais exaltante.
[…] Pour en savoir plus sur les enjeux de la modération, vous pouvez consulter cet article : Les enjeux de la modération des contenus sur le web. […]
[…] BADOUARD Romain. 2021. “Les enjeux de la modération des contenus sur le web”. La revue européenne des médias et du numérique, Panthéon Assas. URL : https://la-rem.eu/2021/11/les-enjeux-de-la-moderation-des-contenus-sur-le-web/ […]
[…] Romain Badouard, “Les enjeux de la modération des contenus sur le web”. La revue européenne des médias et du numérique, Panthéon Assas, 2021. URL : https://la-rem.eu/2021/11/les-enjeux-de-la-moderation-des-contenus-sur-le-web/ […]