La proposition de loi visant à lutter contre la haine sur internet a été définitivement adoptée le 13 mai 2020.
Ce vote est intervenu dans le contexte troublé de la crise sanitaire liée à l’épidémie de coronavirus, qui a elle-même vu proliférer toutes sortes de contenus haineux, notamment antisémites, liés à des fausses informations1. L’apparition, quelques jours après le vote de la loi, du hashtag #sijetaitunjuif, qui est très rapidement monté dans les « top tendances » en quelques heures, témoigne de l’actualité et de l’ampleur du phénomène. Les tweets comportant ce mot-dièse ont ainsi pu être consultés, partagés et même « renchéris » par des milliers de personnes en un très court délai, et ce malgré les mesures qui ont été prises par le réseau social. La diffusion de tweets agrémentés de hashtags antisémites, racistes ou homophobes est malheureusement devenue un problème structurel. La tendance avait déjà conduit Twitter à se voir ordonner il y a quelques années la communication des données d’identification des utilisateurs ayant publié lesdits contenus2. Son inaction en la matière lui a valu une nouvelle assignation devant le tribunal judiciaire de Paris par plusieurs associations, notamment l’UEJF et SOS-Racisme, en mai dernier3.
De façon générale, les réseaux sociaux et autres services de communication au public en ligne ont donné une visibilité nouvelle à des contenus discriminatoires dont la diffusion tombe pourtant sous le coup de la loi. Qu’il s’agisse des sites négationnistes4, ou de simples messages postés sur les réseaux sociaux, une véritable résurgence de la haine sur internet a vu le jour. La facilité d’accès aux services de communication en ligne et le décloisonnement des sources d’information leur ont donné une audience potentielle aussi importante que celle des médias « grand public », de presse écrite ou audiovisuels. La diffusion de contenus haineux reste pourtant rarissime dans ces derniers5, alors même qu’ils sont soumis aux mêmes textes. C’est là l’effet du différentiel de régulation et de responsabilité qui distingue les services de presse écrite et les services de médias audiovisuels d’un certain nombre de services de communication au public en ligne. En la matière, la neutralité présumée des hébergeurs de contenus explique qu’ils ne soient soumis qu’à un régime d’irresponsabilité conditionnée, celui-ci contribuant lui-même à « libérer la parole » de leurs utilisateurs6, qui sont toujours plus nombreux. Des condamnations ont certes pu être prononcées à l’égard des auteurs de tels contenus7. De même, des dispositifs de signalement des contenus haineux ont vu le jour, afin de contribuer à leur répression. Mais ces moyens d’action se révèlent finalement inefficaces car ils ne permettent pas d’endiguer la propagation de ces contenus dans des délais satisfaisants.
Il semble donc impératif de renforcer les obligations des services de communication en ligne, et plus particulièrement des réseaux sociaux et autres opérateurs de plateformes, afin de les inciter à accélérer le retrait des contenus haineux. La Commission européenne privilégie pour l’instant une approche souple, basée sur un code de conduite non contraignant, qui enjoint notamment aux opérateurs de retirer ces contenus dans les 24 heures qui suivent leur signalement8. Malgré les difficultés rencontrées par les réseaux sociaux, le respect de ce code semble donner des résultats encourageants, bien qu’ils restent à relativiser9. L’Allemagne a en revanche opté pour une logique plus contraignante, avec la fameuse loi « d’application sur les réseaux sociaux » du 1er octobre 2017. Celle-ci oblige les services à retirer dans les 24 heures tout contenu qui relève d’une liste de 22 infractions figurant dans le code criminel, avec de lourdes sanctions financières en cas de négligence répétée10.
C’est dans ce sillage que s’est a priori insérée la proposition de loi de lutte contre les contenus haineux sur internet, portée par Laetitia Avia, dont l’objectif principal tient à l’accélération des procédures de retrait, et au renforcement du devoir de coopération à la charge des opérateurs de plateformes, tant à l’égard des autorités publiques que de leurs utilisateurs. Si les objectifs du texte sont très certainement légitimes, les moyens alloués à la lutte contre la haine ont pu susciter une certaine inquiétude au regard des risques qu’ils présentent à l’égard de la liberté d’expression. La proposition a ainsi fait l’objet de nombreuses critiques quant au caractère excessif des mesures qu’elle tend à établir, et à la difficulté pour les opérateurs de cerner clairement les contenus tombant sous le coup de ses dispositions.
La loi sera finalement censurée de façon substantielle par le Conseil constitutionnel, dans sa décision n°2020-801 DC du 18 juin 202011. De façon générale, les mesures critiquées ont été considérées comme portant une atteinte manifestement disproportionnée à la liberté d’expression, telle que celle-ci peut être exercée par des moyens de communication en ligne. Le Conseil ne manque pas d’en rappeler l’importance pour la participation à la vie démocratique et l’expression des idées et opinions, comme il l’avait fait dans d’autres décisions.
La censure du dispositif de blocage administratif des contenus pédopornographiques ou faisant l’apologie du terrorisme
La première série de dispositions faisant l’objet d’une censure de la part du Conseil concerne la procédure de retrait administratif des contenus pédopornographiques (article 227-23 du code pénal) ou faisant l’apologie du terrorisme (article 421-2-5 du code pénal).
Prévue par l’article 6-1 de la loi du 21 juin 2004 et le décret du 5 février 201512, la procédure permet en l’état à l’office central de lutte contre la criminalité liée aux technologies de l’information et de la communication de notifier aux éditeurs et hébergeurs et, à défaut, aux fournisseurs d’accès à internet la liste des sites contrevenant aux deux dispositions précitées. Les destinataires de cette liste ont alors 24 heures pour rendre impossible l’accès à ces contenus, le blocage devant être effectué « sans délai » par les FAI (fournisseurs d’accès à internet) lorsque la liste leur est notifiée après une première demande infructueuse effectuée auprès des éditeurs et hébergeurs des contenus. Cette procédure, controversée, est censée être sous le contrôle d’une personnalité qualifiée de la Cnil, qui peut demander l’annulation d’une telle mesure de blocage, si elle l’estime excessive. Tel avait pu être le cas s’agissant du blocage d’un site proche d’une mouvance anarchiste13. La proposition de loi entendait, en son article 1er § 1, réduire le délai de retrait à une heure après réception de la notification, les FAI devant par ailleurs informer l’autorité administrative des suites données à celle-ci.
Si l’objectif poursuivi par ces dispositions est légitime dans une société démocratique, le Conseil constitutionnel estime qu’elles portent une atteinte qui n’est pas « adaptée, nécessaire et proportionnée » à la liberté d’expression. D’une part, le Conseil relève le fait que la procédure n’est pas réservée aux seuls contenus « manifestement » illicites, et que ce caractère est soumis à l’appréciation de l’autorité administrative. La notion de contenu « manifestement » illicite avait été dégagée par le Conseil constitutionnel dans sa décision n°2004-496 DC, relative à la loi pour la confiance dans l’économie numérique, afin de conforter l’exclusion de la responsabilité civile ou pénale des hébergeurs et fournisseurs d’accès à l’égard des contenus « simplement » illicites dont ils n’auraient pas effectué le retrait. Ce faisant, les Sages rappellent que seuls les contenus revêtant un caractère « manifestement » illicite peuvent justifier une réponse aussi exceptionnelle, et attentatoire à la liberté d’expression, que le blocage administratif. D’autre part, le Conseil estime que le délai d’une heure, laissé aux fournisseurs d’accès est insuffisant pour permettre à l’opérateur de contester la mesure par voie judiciaire et d’obtenir une décision du juge le contraignant à retirer ledit contenu. Ce point est évidemment essentiel puisqu’il vient rappeler le rôle indispensable du juge judiciaire en matière d’atteintes aux libertés fondamentales. Une telle mesure aurait pour effet de laisser entre les mains de la seule autorité administrative le pouvoir d’ordonner le blocage d’un contenu pour une raison et dans des circonstances qui ne pouvaient matériellement être discutées devant le juge.
Là encore, si l’objectif affiché est légitime, de tels outils, une fois gravés dans le marbre de la loi, peuvent produire des effets bien plus dangereux pour la sauvegarde des libertés à travers les latitudes qu’ils laissent aux pouvoirs publics dans l’appréciation des discours en ligne.
La censure du dispositif de retrait en 24 heures des contenus après notification
L’article 1er paragraphe 2 de la proposition de loi prévoyait la création d’un nouvel article 6-2 dans la loi du 21 juin 2004.
Assez substantiel, celui-ci prévoyait un renforcement de la procédure de retrait de contenus en ligne tombant sous le coup d’un certain nombre de dispositions pénales et que l’on qualifie classiquement de contenus « haineux » (contestation de crimes contre l’humanité, injure et provocation à la discrimination, à la haine ou à la violence à l’égard de personnes en fonction de leur origine, leur appartenance ou non-appartenance à une ethnie, une nation, une race, une religion, en fonction de leur sexe, leur orientation sexuelle, leur identité de genre ou leur handicap…) ou à caractère sexuel (contenus pédopornographiques, contenus pornographiques susceptibles d’être vus par un mineur). Les opérateurs de plateformes en ligne se voyaient ainsi tenus de retirer ceux-ci en moins de 24 heures après réception d’une notification émanant d’une ou plusieurs personnes. Une obligation similaire était prévue pour les moteurs de recherche, tenus de déréférencer de tels contenus dans le même délai. Il est à noter que la loi réservait cette procédure de retrait aux contenus contrevenant « manifestement » aux dispositions précitées. Le non-respect de ces délais ou l’absence d’examen du contenu notifié étaient passibles d’une amende de 250 000 euros. Les sénateurs auteurs de la saisine ont fait valoir les risques de « sur-censure » liés à cette procédure, les opérateurs pouvant être tentés de retirer massivement les contenus signalés comme potentiellement illicites, donc sans se livrer à un examen approfondi des motifs avancés pour justifier leur retrait, plutôt que de risquer d’être sanctionnés pénalement. Les sénateurs relevaient également les difficultés liées à cette analyse, le caractère illicite ne se déduisant parfois que de manière implicite ou en fonction du contexte dans lequel les contenus ont été postés.
Le Conseil constitutionnel a une nouvelle fois entendu ces griefs et censuré ce dispositif de retrait accéléré, en dépit de sa proximité avec ceux de la loi allemande et du code de conduite de la Commission européenne. Si l’objectif de retrait en moins de 24 heures est partagé par ces dispositifs, celui de la loi Avia manque de garanties suffisantes pour lui conférer une certaine prévisibilité. Le Conseil relève tout d’abord que les notifications ne sont nullement soumises à l’intervention préalable d’un juge, rappelant encore le rôle de l’autorité judiciaire en la matière. Par ailleurs, quand bien même le retrait ne s’imposerait que pour les contenus « manifestement » illicites, la précision paraît vaine au regard de la multiplicité des dispositions en cause. De surcroît, celles-ci présentent une certaine technicité juridique, ce qui rend difficile toute analyse approfondie par les opérateurs au regard du nombre potentiel de notifications dans un délai aussi bref. Sur ce point, on signalera que la dernière évaluation du code de conduite européen a relevé que les réseaux sociaux avaient en moyenne retiré près de 71 % de contenus haineux dans les 24 heures suivant leur notification. Le Conseil constate également le caractère très vague de la seule cause exonératoire permettant aux opérateurs d’échapper à la sanction pénale et estime que d’autres causes auraient dû être prévues, telle la multiplicité des signalements. À cela s’ajoute le caractère disproportionné de l’amende, qui est encourue pour chaque défaut de retrait, et non en fonction du comportement global de l’opérateur ou de la répétition des manquements (ce qui est le cas dans la loi allemande). De telles contraintes ne peuvent que l’inciter à retirer systématiquement les contenus signalés, sans égard pour leur caractère « manifestement » ou « simplement » illicite. Pour toutes ces raisons, les dispositions sont déclarées contraires à la Constitution, en ce qu’elles portent une atteinte inadaptée et non proportionnée à la liberté d’expression.
La censure des dispositions accessoires
La non-conformité à la Constitution de l’article 1 de la proposition entraîne en cascade l’annulation de dispositions complémentaires de la loi.
Ainsi en est-il de l’article 3, qui était relatif aux notifications émanant de certaines associations reconnues d’utilité publique, et des articles 4 et 5, qui créaient un devoir de coopération à la charge des opérateurs de plateformes. Celui-ci s’apparentait à celui qu’avait créé la loi du 22 décembre 2018, relative à la lutte contre la manipulation de l’information, et comportait des obligations analogues (respect des recommandations du Conseil supérieur de l’audiovisuel), mise en place d’un dispositif de notification facilement accessible et lisible, transparence des procédures de traitement des signalements…). Il en va de même avec l’article 7, qui conférait au CSA de nouvelles compétences de recommandation, de contrôle et de sanction des opérateurs de plateformes, ces pouvoirs étant tous liés au respect des obligations mises à la charge de ces mêmes opérateurs par l’article 1er de la proposition de loi. Les articles 8 et 9 sont également emportés dans le flot des dispositions annulées. Ceux-ci entendaient lutter contre les sites et contenus « miroirs » en permettant à l’autorité administrative d’adresser aux fournisseurs d’accès à internet et aux moteurs de recherche des injonctions de blocage ou de déréférencement des sites et contenus identiques à ceux ayant fait l’objet d’une condamnation judiciaire passée en force chose jugée, par référence aux infractions visées par l’article 1er. Enfin, d’autres dispositions accessoires, faisant référence aux articles précités ou constituant des cavaliers législatifs, sont également annulées.
L’indivisibilité de la loi fondée sur l’article 1er entraîne finalement la disparition de la quasi-totalité des dispositions phares, au point que certains commentateurs se sont amusés, notamment sur Twitter, à surligner en rouge les nombreux passages de la proposition de loi faisant l’objet d’une censure de la part du Conseil constitutionnel.
L’intérêt des dispositions maintenues dans la loi du 24 juin 2020
La loi visant à lutter contre les contenus haineux sur internet sera finalement promulguée le 24 juin 2020, atrophiée de ses apports les plus substantiels.
Parmi les dispositions maintenues, l’article 2 vient simplifier le contenu de la notification qui doit être envoyée aux hébergeurs et permettant d’en faire présumer la connaissance du contenu signalé. L’article 6 fait passer de 75 000 euros à 250 000 euros le montant de l’amende encourue par les fournisseurs d’accès à internet et les hébergeurs qui auraient manqué à leur devoir de coopération à la lutte contre les contenus haineux (article 6 I. 7 et 6-1 de la LCEN) ou qui n’auraient pas conservé les données permettant d’identifier l’auteur d’un contenu. De même, l’article 17 de la loi procède à un « toilettage » de l’article 6 de la loi du 21 juin 2004. Les contenus pour lesquels les hébergeurs peuvent voir leur responsabilité civile ou pénale engagée sont désormais ceux qui présentent un caractère « manifestement » illicite. L’ajout de cet adverbe consacre ainsi la jurisprudence qui s’est développée autour de cette notion et devrait mettre un terme aux controverses liées au sens de cet article. Enfin, l’article 16 crée un observatoire de la haine en ligne, placé auprès du CSA. Cet organe, qui associe les opérateurs (tels que Facebook, Google, Twitter, TikTok, …), les associations de lutte contre les discriminations ainsi qu’un certain nombre d’administrations, sera chargé d’analyser le phénomène de la haine en ligne et d’en tirer un certain nombre d’informations propres à contribuer aux politiques publiques en la matière14. Cette création, bien que mineure dans le contexte de la loi du 24 juin 2020, contribuera à l’extension du champ de compétence du Conseil supérieur de l’audiovisuel à l’égard des services de communication en ligne, tout en privilégiant une approche souple de régulation, certainement plus adaptée en l’état actuel des choses.
Sur le plan technique, on ne peut que s’étonner de la survie de cet article, qui définit lui-même le rôle de l’observatoire par référence à l’article 1er de la loi.
Perspectives
La censure par le Conseil constitutionnel du dispositif « inutilement complexe »15 de la loi Avia aura rappelé la nécessité d’assortir les limites à la liberté d’expression de garanties judiciaires, y compris sur des sujets aussi sensibles que les contenus haineux en ligne.
Le risque de sur-censure de la part des opérateurs reste latent, ceux-ci n’ayant aucune opportunité économique à tirer en étant trop systématiquement (et facilement) sanctionné pour des contenus dont la qualification est elle-même aléatoire. La menace a également été évoquée aux États-Unis dans le contexte du bras de fer auquel se livre le président Trump avec le réseau social Twitter. Le décret signé le 28 mai 2020, tendant à renforcer la responsabilité des opérateurs pour les contenus illicites qu’ils hébergent, pourrait en effet se traduire par des retraits généralisés, y compris à l’égard des contenus postés par le président lui-même (voir La rem, n°54, p.71). Le sujet reste d’une brûlante actualité en Europe, alors que s’engage le chantier du Digital Service Act, auquel s’ajoute la proposition de règlement relatif à la prévention de la diffusion de contenus à caractère terroriste en ligne (voir La rem, n°50-51, p.8), lequel prévoit dans sa version initiale la possibilité d’adresser aux hébergeurs des injonctions de suppression de contenus à exécuter dans l’heure, ces injonctions devant faire malgré tout l’objet d’un contrôle juridictionnel.
Si l’avenir réserve encore des rebondissements s’agissant de la lutte contre les discours de haine, un regard sur le passé nous rappelle la nécessité de conserver une certaine mesure, y compris dans les périodes les plus tumultueuses. Ainsi le droit romain avait-il en son temps entrepris de juguler la diffusion des libelles diffamatoires, dont la multiplication était la source d’un désordre grandissant, notamment pendant le Bas-Empire. La délation publique ayant quasiment été érigée en système, le code Théodosien avait tenté, en 438, d’y mettre un terme avec des mesures radicales, allant jusqu’à la condamnation à mort des diffamateurs (Livre 9 – Titre 34 – De famosis libellis). Le code allait même jusqu’à sanctionner la simple possession d’un libelle diffamatoire. De même, la preuve de la vérité des allégations n’exonérait nullement le diffamateur, coupable d’avoir troublé la paix publique par ses accusations. C’était là une législation qui n’accordait que peu d’égards à la liberté de débattre et visait moins à préserver la réputation des citoyens diffamés qu’à sauvegarder par-dessus tout l’ordre public. Il n’est pas étonnant que le code Justinien, publié en 529, ait conservé une seule disposition sur ce point, pour exonérer de toute poursuite les auteurs de libelles qui prouvaient la vérité de leurs allégations (Livre 9 – Titre 36 – De famosis libellis). C’est là l’origine lointaine de l’exception de « vérité » que l’on connaît actuellement. La répression des libelles diffamatoires était ainsi insérée dans de plus justes limites, garantissant la possibilité pour les citoyens de débattre sur les accusations proférées publiquement.
L’exemple doit nous inspirer pour le présent, car la détermination et la dénonciation des « vrais » contenus haineux, tout comme les diffamations, ne peuvent se faire qu’à l’aune de la liberté d’expression.
Sources :
1. « Covid-19 : le retour du « Juif empoisonneur » », Conspiracy Watch – L’observatoire du conspirationnisme, 2 avril 2020.
2. Affaire « UEJF c./ Twitter » : TGI, ord. réf., 24 janvier 2013, et CA Paris, 12 juin 2013, RSC, juillet 2013, p.566-571, note J. Francillon.
3. « Twitter assigné en justice pour son « inaction massive » face aux messages haineux », Martin Untersinger, Le Monde, 12 mai 2020.
4. Dont l’affaire « Aaargh » reste l’un des exemples les plus emblématiques : C. Cass., 1re Ch. Civ., 19 juin 2008, n° 07-12.244.
5. Voir not., pour des propos racistes prononcés en direct : TGI Paris, 17e Ch., 29 mars 2012, LP, n° 294, mai 2012, p.314-317, note J.-M. Delas.
6. « Neutralité : liberté ou surveillance – Fondements et éléments du droit de l’internet », E. Derieux, RLDI, n° 74, août 2011, p.85-96.
7. Voir not. : TGI Paris, 17e Ch., 9 mars 2016, LP, n° 337, avril 2016, p.205-206 ; TGI Paris, 17e Ch., 13 octobre 2017, RLDI, n° 142, novembre 2017, pp. 40-41, obs. L. COSTES.
8. Code of Conduct on Countering Illegal Hate Speech Online, 31 May 2016.
9. Factsheet – 5th monitoring round of the Code of Conduct, D. Reynders, European Commission, June 2020.
10. « La Loi d’application sur les réseaux – L’approche allemande pour lutter contre les « fausses nouvelles », la violence et le discours terroriste dans les réseaux sociaux », B. Holznagel, in Les fausses nouvelles – Nouveaux visages, nouveaux défis, [Dir.] F. Sauvageau, S. Thibaut et P. Trudel, PUL, 2018, pp. 197-216.
11. Pour des commentaires de cette décision, voir not. : E. Derieux, « Lutte contre les contenus haineux sur internet » et E. Rancon, « Les dispositions phares de la loi Avia ne passent pas la barrière de la constitutionnalité », Revue Lamy Droit de l’Immatériel, n° 172, juillet 2020, p. 47-52 et 53-59.
12. Décret n° 2015-125 du 5 février 2015 relatif au blocage des sites provoquant à des actes de terrorisme ou en faisant l’apologie et des sites diffusant des images et représentations de mineurs à caractère pornographique.
13. Voir not. : TA Cergy-Pontoise, 4 février 2019, n° 1801344, AJDP, avril 2019, pp. 206-207, obs. J.-B Thierry.
14. CSA, « Observatoire de la haine en ligne : analyser pour mieux lutter », 23 juillet 2020.
15. CNCDH, Avis relatif à la proposition de loi visant à lutter contre la haine sur internet, 9 juillet 2019.