Accord européen sur la proposition de règlement relatif à la lutte contre la diffusion de contenus à caractère terroriste en ligne

« Par ce règlement, nous faisons en sorte que ce qui est illicite dans l’environnement hors ligne le soit également en ligne. » Ainsi s’exprimait Ylva Johansson, commissaire aux affaires intérieures au sein de la Commission européenne, à la suite de l’adoption d’un accord politique avec le Parlement et le Conseil quant à la proposition de règlement relatif à la prévention de la diffusion de contenus à caractère terroriste en ligne1.

L’argument est bien connu et a été employé depuis de nombreuses années pour dénoncer le différentiel de régulation qui caractérise les services de communication au public en ligne par rapport à d’autres services de communication. C’est pourquoi la lutte contre les contenus illicites, en particulier les contenus haineux et terroristes et les fausses informations, est plus que jamais d’actualité tant au niveau européen qu’au niveau national. Les plateformes de partage de contenus et autres réseaux sociaux sont dans la ligne de mire, pour plusieurs séries de raisons.

Outre leur grande accessibilité, ces services garantissent une capacité de diffusion et de partage des informations sans précédent. L’absence d’éditorialisation, qui constituait initialement leur principal intérêt, garantit à tout un chacun la capacité de poster n’importe quel contenu illicite avec la même visibilité que des informations licites et vérifiées. Surtout, les lacunes constatées en termes de modération a posteriori inquiètent sur leur capacité à faire disparaître rapi­dement les contenus les plus dangereux. Un manque de transparence a pu être dénoncé à ce niveau, notamment à l’égard de Twitter2. Toutes ces caractéristiques expliquent que des mouvements ou des individus ayant des motivations terroristes puissent très facilement toucher un public considérable.

Les conséquences de tels agissements peuvent malheureusement se produire dans l’environnement hors ligne, comme l’a démontré l’assassinat du professeur d’histoire Samuel Paty, le 16 octobre 2020. La lutte contre la menace terroriste en ligne fait ainsi l’objet d’importants chantiers, tant européens que nationaux, tendant à renforcer l’arsenal existant3.

L’accord intervenu le 10 décembre 2020 sur la proposition de règlement relatif à la prévention de la diffusion de contenus à caractère terroriste en ligne, initialement déposé en septembre 2018 (voir La rem n°50-51, p.8), engage la voie vers un vote final. Les principales mesures adoptées en décembre 2020 confortent la création de nouveaux mécanismes contraignants à la charge des plateformes4.

Le cadre juridique de l’injonction de retrait dans l’heure

L’abaissement du délai de retrait d’un contenu à caractère terroriste, qui constitue la mesure phare du règlement (art. 4), a été confirmé. Les fournisseurs de services d’hébergement auront l’obligation d’effectuer ce retrait dans l’heure suivant l’injonction ordonnée par l’autorité compétente, qui peut être de nature judiciaire ou administrative.

Des précisions ont été apportées dans le texte quant au déroulement de cette procédure. Le service visé devra ainsi recevoir une information adéquate au plus tard douze heures avant le prononcé de la mesure. Par ailleurs, les mesures de retrait pourront être ordonnées pour l’ensemble de l’Union européenne. Les autorités nationales compétentes pourront à ce titre les adresser à n’importe quel fournisseur d’hébergement établi dans un État membre de l’Union. Une procédure spécifique a été ajoutée lorsqu’une ordonnance de retrait présente un tel caractère transfrontalier (art. 4a). L’autorité nationale ayant prononcé la mesure devra en informer sans délai l’autorité nationale de l’État au sein duquel le service d’hébergement est établi. Celle-ci disposera de 72 heures pour l’examiner, puis la confirmer ou l’infirmer, notamment si elle estime qu’elle porte une atteinte disproportionnée aux droits et libertés consacrés par la Charte des droits fondamentaux de l’Union européenne. En ce cas, cette seconde décision primera sur la première, et le service devra être en mesure de rétablir l’accès et/ou la diffusion des contenus retirés. Les dispositions figurant dans la nouvelle version du règlement insistent bien sur la nécessité, pour l’hébergeur, de prendre toute mesure appropriée permettant de conserver puis de rétablir ces contenus, sans préjudice d’éventuelles poursuites judiciaires.

Cette procédure rappelle, dans ses grandes lignes, celle qui existe dans la directive « Services de médias audiovisuels », relative aux restrictions que peut imposer un État membre à la diffusion d’un service relevant de la compétence d’un autre État membre5. S’agissant de contenus diffusés en ligne, on peut néanmoins s’attendre à des difficultés d’interprétation, liées notamment aux erreurs de traduction et/ou d’appréciation. Certains propos publiés dans la langue d’un État membre peuvent ainsi faire l’objet d’une décontextualisation ou d’une mauvaise traduction dans un autre et être faussement perçus comme ayant une portée terroriste. La démonstration de ce problème a déjà été faite en matière de fausses informations, notamment dans le secteur audiovisuel, où de telles erreurs sont considérées, selon le droit français, comme des manquements à l’impératif d’honnêteté de l’infor­mation6 (voir La rem n°53, p.10-11). Le risque est d’autant plus élevé s’agissant d’un sujet aussi sensible que le terrorisme, les États membres pouvant en avoir des conceptions différentes en fonction de leurs problèmes de sécurité intérieure.

Enfin, il est précisé dans la dernière version du règlement que le service d’hébergement visé par une mesure de blocage devra être en mesure de contester celle-ci dans les 48 heures auprès de l’autorité l’ayant ordonnée. Au-delà, la mesure pourra également faire l’objet d’un recours devant une autorité judiciaire intenté par l’hébergeur (art. 9a). Il en est de même pour les éditeurs des contenus bloqués, qui devront pouvoir exercer des procédures internes mises en place par l’hébergeur, sans préjudice d’un éventuel recours devant un tribunal (art. 10). L’ordonnance de blocage pourra donc être contestée de multiples manières, eu égard à la sévérité de son impact potentiel sur la liberté d’expression.

Une définition précisée des contenus à caractère terroriste visés par le règlement

Pour parer aux difficultés précitées, la définition des contenus terroristes qui relèvent du champ d’application du règlement a été quelque peu précisée.

Si la mesure de blocage dans l’heure constitue une restriction nécessaire au titre de la prévention des risques que font peser les contenus à caractère terroriste, encore faut-il qu’elle soit dûment proportionnée à cet objectif, ce qui ne peut que passer par une délimi­tation précise desdits contenus. Aussi, le nouveau texte vise plus exactement les sollicitations directes à commettre l’un des actes visés par la directive n°2017/541/UE relative à la lutte contre le terrorisme7, l’apologie ou la glorification de tels actes ainsi que la délivrance d’instructions permettant de les commettre. La précision est essentielle alors que les termes employés dans la version initiale étaient beaucoup plus généraux. Seuls les contenus pouvant objectivement être considérés comme des menaces directes à la sécurité des personnes devraient être concernés, quels que soient le public visé, la langue employée et l’État d’établis­sement du service d’hébergement.

Cela contribuera à une appréciation plus stricte des contenus faisant l’apologie du terrorisme, les contenus simplement idéologiques, contestataires, tendancieux ou orientés ne pouvant rentrer dans cette catégorie. Il en va, encore une fois, de l’étendue même de la liberté d’expression dans les services de communication au public en ligne. La distinction a été utilement rappelée en France à l’occasion d’une mesure de blocage administratif d’un site web relevant d’un mouvement anarchiste, ordonnée par l’office central de lutte contre la criminalité liée aux technologies de l’information et de la communication sur le fondement de l’article 6-1 de la loi du 21 juin 2004. Contestée par la personnalité qualifiée de la Cnil, la mesure avait finalement été annulée par le tribunal administratif dans un jugement du 4 février 2019. Malgré le caractère hautement contestataire dudit site, le tribunal a estimé que celui-ci ne pouvait être regardé comme diffusant des provocations directes à commettre des actes de terrorisme « en l’absence de tout autre élément matériel attes­tant l’existence d’un plan concerté dont la mise en œuvre serait en cours en vue de perpétrer » de tels actes8.

Par ailleurs, la version révisée du règlement exclut expli­citement de son champ d’application les contenus à caractère journalistique, éducatif, artistique ou de recherche portant sur le terrorisme ou la prévention des actes terroristes, et exprimant des points de vue ou controverses relatifs à ces sujets (Art. 1, § 2a). Une fois encore, l’exclusion est salutaire. La nécessité de tenir compte de l’intention a été fort justement rappelée à plusieurs reprises en France ces dernières années. On se souvient à ce titre des critiques adressées au délit de consultation habituelle de sites à caractère terroriste, que le Conseil constitutionnel a jugé contraire à la Constitution, l’infraction ne comprenant pas, parmi ses éléments constitutifs, « l’intention terroriste de l’auteur de la consultation9 ». Il en été de même pour le délit de recel d’apologie du terrorisme, qui permettait de réprimer la seule détention de fichiers ou documents « sans que soit retenue l’intention terroriste ou apologétique du receleur comme élément constitutif de l’infraction10 ».

Les mesures complémentaires

Au-delà de ces deux apports essentiels, l’accord adopté le 10 décembre 2020 vient compléter d’autres dispositions qui figuraient dans la version initiale du règlement.

Les hébergeurs devront notamment prendre des mesures proactives permettant de limiter l’utilisation de leurs espaces à des fins terroristes, lorsqu’il est établi qu’ils y sont particulièrement exposés. Tel serait le cas lorsqu’un service a reçu au moins deux ordonnances de retrait sur une période de douze mois. La mise en place de mécanismes permettant de prévenir et de brider ce type d’usages devra alors être effectuée par le service. Cela passe par le recours à des mécanismes de signalement accessibles et lisibles, d’identification auto­matique et de retrait des contenus qui auraient déjà fait l’objet d’une demande de blocage. L’idée serait bien sûr d’en empêcher la remise en ligne par tout moyen. Sur ce point, le règlement insiste sur la nécessité de garantir le caractère approprié et nécessaire de ces mesures, qui ne peuvent qu’exception­nellement porter atteinte à la liberté d’expression des utilisateurs. Pour cette raison, la dernière version du règlement enjoint aux hébergeurs d’effectuer une vérification « humaine » des contenus problématiques, ce afin de prévenir les risques liés à l’utilisation d’algorithmes et autres mécanismes automatisés.

Une obligation de coopération est également mise à la charge des hébergeurs, qui devront rendre des comptes quant aux mesures qu’ils ont mis en place à ces fins, ainsi qu’au nombre et à la nature des contenus qu’ils auraient retirés, auprès des autorités compétentes. Celles-ci pourront leur ordonner d’ajuster, voire de faire cesser, l’utilisation de mesures qui leur paraîtraient excessives. À cela s’ajoute une obligation de transparence qui obligera les hébergeurs à remettre un rapport annuel faisant le bilan global des actions entreprises pour mettre en œuvre ces obligations.

Le règlement entend également renforcer la coopération des autorités nationales entre elles ainsi qu’avec Europol.

Perspectives européennes

Le vote final de la proposition de règlement constituera une avancée certaine de la stratégie de l’Union européenne sur la sécurité.

La Commission n’a pas manqué d’en faire un point essentiel de son programme en la matière, tout en rappelant son intégration dans une évolution plus globale du statut des services numériques11. Outre les dispositions du futur Digital Services Act (voir supra), qui tend à renforcer la responsabilité des plateformes vis-à-vis des contenus illicites12, ainsi que les recommandations découlant du code de conduite visant à combattre les discours de haine illégaux en ligne (voir La rem n°44, p.12), d’autres chantiers ont été évoqués par la Commission. Tel est le cas par exemple de la lutte contre la diffusion en ligne de contenus pédopornographiques, qui participe de la stratégie de l’Union en matière de lutte contre les abus sexuels commis contre des enfants13. Les dispositions de la directive n° 2011/92/UE du 13 décembre 2011, qui répriment déjà un certain nombre d’actes commis en ligne (diffusion, consultation, détention de contenus pédopornographiques, sollicitation de personnes mineures via des services de communication en ligne)14, y trouveront un complément efficace permettant de prévenir la commission de ces mêmes infractions.

Perspectives françaises

En France, l’actualité des derniers mois a remis le sujet sur le devant de la scène législative, le terrorisme et la haine en ligne participant d’un même fléau global.

Outre l’assassinat du professeur Samuel Paty, on pense au torrent d’insultes antisémites dont a fait l’objet la première dauphine du concours Miss France 2021, en raison de ses origines israéliennes, et qui dénote une certaine banalisation de l’antisémitisme en ligne15. Aussi, le projet de loi confortant le respect des principes de la République, qui est actuellement en cours de discussion, entend apporter une réponse adéquate à cette problématique16. À cette fin, le chapitre IV du projet de loi reprend plusieurs dispositions similaires à celles qui figuraient dans la loi visant à lutter contre la haine sur internet17, avant censure du Conseil constitutionnel18 (voir La rem n°54-55, p.17). Elles concernent les nouveaux mécanismes de responsa­bilité des plateformes et tendent à transposer de manière anticipée plusieurs des dispositions du Digital Services Act précité.

Une nouvelle infraction de « révélation » des données personnelles serait également créée, lorsqu’une telle divulgation induit un risque direct d’atteinte à la personne ou aux biens. On notera que la référence à une atteinte à « l’intégrité psychique » de la personne visée, qui figurait dans la version initiale du texte, a été retirée lors de la première lecture à l’Assemblée nationale. La défenseure des droits avait fort justement pointé le caractère mal défini et flou de cette notion, dont l’utilisation présenterait un risque d’atteinte dispro­portionnée à la liberté d’expression19. Le problème n’est pas sans rappeler celui qui concerne l’article 24 de la proposition de loi relative à la sécurité globale, s’agissant de la divulgation de l’image ou d’un autre élément d’identification d’un « agent de la police nationale, d’un militaire de la gendarmerie nationale ou d’un agent de police municipale lorsque ces personnels agissent dans le cadre d’une opération de police », et qui comporte cette même référence à l’intégrité psychique des agents.

Malgré la profusion de textes et le caractère très circon­stancié de certaines mesures, un cadre global de régulation et de responsabilité des services en ligne, et plus particulièrement des plateformes, tend à se dessiner quant à la lutte contre les contenus illicites. Nous ne pouvons qu’espérer que ces réformes européennes et nationales évoluent de manière cohérente et convergente.

Sources :

  1. « Union de la sécurité : la Commission se félicite de l’accord politique intervenu sur la suppression des contenus à caractère terroriste en ligne », Communiqué de presse, Commission européenne, 10 décembre 2020.
  2. M. Szadkowski, « Pourquoi la modération de Twitter fonctionne si mal », Le Monde, 4 février 2021.
  3. M. Quéméner, « Cyberhaine et cyberterrorisme : vers de nouvelles réponses juridiques et judiciaires », RLDI, n°176, décembre 2020, p.39-42.
  4. Voir la version de travail publiée par le Conseil : Proposal for a Regulation on addressing the dissemination of terrorist content online, Confirmation of the final compromise text with a view to agreement, n°12906/20, 27 janvier 2021.
  5. Art. 3 et 4 de la directive (UE) 2018/1808 du Parlement européen et du Conseil du 14 novembre 2018 modifiant la directive 2010/13/UE visant à la coordination de certaines dispositions législatives, réglementaires et administratives des États membres relatives à la fourniture de services de médias audiovisuels (directive « Services de médias audiovisuels »), compte tenu de l’évolution des réalités du marché.
  6. Voir la décision du CSA n°2018-493 du 28 juin 2018 mettant en demeure la société RT France.
  7. Directive (UE) 2017/541 du Parlement européen et du Conseil du 15 mars 2017 relative à la lutte contre le terrorisme et remplaçant la décision-cadre 2002/475/JAI du Conseil et modifiant la décision 2005/671/JAI du Conseil.
  8. TA Cergy-Pontoise, 4 février 2019, n°1801344, 180146, 180148 et 180152, RJPF, mai 2019, p.24, obs. S. Cacioppo.
  9. Décisions n°2016-611 QPC du 10 février 2017 et n° 2017-682 QPC du 15 décembre 2017, M. David P. [Délit de consultation habituelle des sites internet terroristes I et II], CCE, avril 2017, p.37-38, obs. A. Lepage, Gaz. Pal., 13 février 2018, p.17-18, obs. P. Piot. 1
  10. Décision n°2020-845 QPC du 19 juin 2020, M. Théo S. [Recel d’apologie du terrorisme], Gaz. Pal., 20 octobre 2020, p.24-25, obs. P. Piot. 
  11. Communication de la Commission relative à la stratégie de l’UE pour l’union de la sécurité, 24 juillet 2020, COM(2020) 605 final. 
  12. Proposition de règlement du Parlement et du Conseil relatif à un marché intérieur des services numériques (Législation sur les services numériques) et modifiant la directive 2000/31/CE, 15 décembre 2020, COM(2020) 825 final.
  13. Communication de la Commission relative à la stratégie de l’UE en faveur d’une lutte plus efficace contre les abus sexuels commis contre des enfants, 24 juillet 2020, COM(2020) 607 final.
  14. Art. 5, 6 et 25 de la directive n°2011/92/UE du Parlement européen et du Conseil du 13 décembre 2011 relative à la lutte contre les abus sexuels et l’exploitation sexuelle des enfants, ainsi que la pédopornographie et remplaçant la décision-cadre 2004/68/JAI du Conseil.
  15. « Miss France : le parquet de Paris ouvre une enquête après des tweets antisémites visant Miss Provence », Le Monde, 21 décembre 2020.
  16. Projet de loi n°3649 confortant le respect des principes de la République, enregistré à la résidence de l’Assemblée nationale le 9 décembre 2020. 
  17. Loi n°2020-766 du 24 juin 2020 visant à lutter contre les contenus haineux sur internet. 
  18. Décision n°2020-801 DC du 18 juin 2020, Loi visant à lutter contre les contenus haineux sur internet. 
  19. Avis n°21-01 de la Défenseure des droits sur le projet de loi confortant le respect des principes de la République, 12 janvier 2021. 

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici