Le règlement relatif à la lutte contre la diffusion des contenus à caractère terroriste

La Commission européenne a proposé, en septembre 2018, un règlement définissant de nouveaux moyens de lutte contre la diffusion de contenus à caractère terroriste. Le contenu et la portée de ce texte font toutefois débat.

« Les attentats terroristes perpétrés récemment sur le territoire de l’Union ont montré comment les terroristes abusent de l’internet pour faire des émules et recruter des sympathisants, pour préparer et faciliter des activités terroristes, pour faire l’apologie de leurs atrocités et pour exhorter d’autres à leur emboîter le pas et à semer la peur parmi le grand public ». Ainsi commence l’exposé des motifs de la proposition de règlement relatif à la prévention de la diffusion de contenus à caractère terroriste en ligne, dévoilée par la Commission européenne le 12 septembre 20181. Ce texte entend entériner de nouvelles mesures permettant de repérer et de retirer plus efficacement les contenus à caractère terroriste diffusés sur des services de communication en ligne. Les plateformes numériques et autres réseaux sociaux sont directement concernés, en ce qu’ils sont les plus propices à la diffusion de tels contenus.

La pression sur ces services s’est d’ailleurs accentuée depuis le dépôt de la proposition, le drame de Christchurch ayant mis en évidence les lacunes des réseaux sociaux sur le terrain de la modération. La vidéo diffusée en direct par le terroriste Brenton Tarrant n’aura été signalée qu’au bout de 29 minutes et a été vue près de 4 000 fois. Il est ainsi apparu nécessaire d’aller au-delà de la législation pénale existante pour mieux prévenir de telles communications au public. L’Appel de Christchurch, lancé le 15 mai dernier à l’initiative du président de la République française et de la Première ministre néo-zélandaise, entend ainsi inciter les gouvernements et les entreprises de communication en ligne à prendre les mesures nécessaires pour restreindre plus efficacement la propagation de contenus terroristes2. Le Parlement australien a déjà pris les devants et a adopté une loi prévoyant de lourdes peines pour les dirigeants de réseaux sociaux qui ne procéderaient pas au retrait, dans un bref délai, de contenus à caractère terroriste3.

Le texte proposé par la Commission européenne entend pour sa part compléter d’autres dispositifs existants qui concernent les services de communication en ligne afin de renforcer la prévention de tels actes. Certaines de ces dispositions sont toutefois critiquées en ce qu’elles impliqueraient de nouveaux risques pour le respect de la liberté d’expression.

Un projet de règlement complémentaire à d’autres dispositifs de lutte contre la diffusion de contenus

Le projet de règlement vient compléter d’autres dispositifs invitant les services de communication en ligne, dont principalement les plateformes de partage, à faire preuve de proactivité et/ou de réactivité dans la lutte contre certains contenus, l’objectif étant exclusivement pensé en termes de prévention.

C’est ainsi qu’il prend appui sur la directive n° 2017/541/UE relative à la lutte contre le terrorisme4, notamment en ce qui concerne la définition des infractions liées aux activités terroristes, étant entendu que son champ d’application couvrira également les contenus qui sont simplement relatifs au recrutement ou à la formation de futurs terroristes. L’exposé des motifs du projet de règlement affirme également que ses dispositions viendront compléter celles de la nouvelle directive « Services de médias audiovisuels », en date du 14 novembre 20185, s’agissant de la régulation des contenus (voir La rem n°49, p.13). Néanmoins, il est précisé que d’autres services de communication, permettant le partage de contenus, pourront être concernés. À ce niveau, la proposition vient compléter les mesures prises au titre de la lutte contre les contenus haineux et les fausses informations. Outre le code de conduite relatif à la lutte contre les discours de haine illégaux en ligne édicté par la Commission européenne6, le sujet a trouvé un certain écho dans les législations nationales, notamment allemande et française7 (voir La rem, n°45, p.66, n°48 p.12 et n°49, p.9). La proposition de loi visant à lutter contre la haine sur internet, déposée par la députée Laetitia Avia le 20 mars 2019, va notamment en ce sens, avec une obligation de retrait des contenus haineux dans les vingt-quatre heures suivant le signalement ; elle étend aussi les compétences du Conseil supérieur de l’audiovisuel à l’égard des plateformes de partage de contenus.

Les tendances nationales et européenne sont donc convergentes. Le recours à un règlement présente toutefois l’avantage d’harmoniser les dispositions applicables en matière de lutte contre la diffusion de contenus terroristes, ce qui devrait permettre de pallier la diversité des initiatives prises par les États membres.

Les principales dispositions de la proposition de règlement

En dépit du caractère préventif affiché par l’exposé des motifs, les dispositions du texte proposé par la Commission vont au-delà d’une simple régulation des plateformes de partage de contenus.

S’agissant du champ d’application (art. 1 et 2), d’autres services sont concernés par ces nouvelles mesures, puisque le règlement vise tous les fournisseurs de services d’hébergement qui proposent, dans l’Union, des services consistant à stocker des informations fournies par et à la demande d’un fournisseur de contenus en vue d’une mise à disposition du public ou à des tiers, quel que soit le lieu de leur principal établissement. La moindre page permettant à un internaute de charger, ne serait-ce qu’un contenu à un titre quelconque, entrera donc dans cette catégorie, ce qui inclurait par exemple les services de cloud. Les contenus à caractère terroriste visés sont également définis de manière assez englobante, puisqu’ils incluent tous ceux qui provoquent, font l’apologie ou encouragent la participation à la commission d’infractions terroristes, promeuvent les activités d’un groupe terroriste ou donnent des instructions ou méthodes sur la commission de telles infractions. Si les images et vidéos, particulièrement choquantes, relatives à un attentat ou à une exécution sont concernées, le texte inclura tout fichier rendu public, quel qu’en soit le format (texte, document sonore…), sur la base de la seule connotation terroriste.

L’article 3 du règlement met à la charge des services précités un devoir de vigilance, défini en des termes assez flous. Il est ainsi exigé que des mesures « appropriées, raisonnables et proportionnées » ainsi que « non discriminatoires » et respectueuses de la liberté d’expression soient prises par ces services afin de contribuer à la lutte contre la propagation de contenus terroristes. Cet article semble fixer des lignes directrices générales destinées à éclairer les dispositions suivantes, celles-ci en reprenant parfois les mêmes termes.

L’article 4 constitue le pivot du règlement, puisqu’il dispose des règles relatives aux injonctions de suppression de contenus que les services devront mettre en œuvre. Le texte va ici plus loin que les dispositions nationales précitées, qui s’en tiennent à un délai de retrait maximal de 24 heures. S’agissant des contenus à caractère terroriste, les services seraient censés effectuer le retrait dans l’heure suivant la réception de l’injonction ordonnée par l’autorité compétente, celle-ci pouvant être un juge ou une autorité administrative. Il est précisé qu’une injonction aussi contraignante devra respecter un formalisme strict, dont l’article 4 établit les principaux éléments (description et localisation du contenu, exposé des motifs, voies de recours ouvertes…). Une procédure est par ailleurs organisée afin que l’hébergeur faisant l’objet d’une injonction puisse contester celle-ci.

Les articles 5 et 6 de la proposition établissent des obligations en termes de signalement de contenus et de mesures proactives. Celles-ci permettront de mieux identifier les contenus terroristes ainsi que leurs sources, et surtout d’évaluer si leur retrait s’impose au regard des conditions commerciales du service. De même, les hébergeurs devront être en mesure de déployer des techniques permettant de bloquer la remise en ligne de contenus préalablement supprimés. Le recours à des outils automatisés de filtrage est ainsi autorisé. Si l’exposé des motifs indique que de telles mesures ne sauraient aboutir à une obligation générale de surveillance, il est quand même précisé qu’il peut être dérogé à cette interdiction pour des raisons impérieuses de sécurité publique.

Les autres dispositions peuvent être résumées par l’examen de six articles. L’article 7 impose aux services la conservation pendant au moins six mois des contenus ayant fait l’objet d’un blocage ou d’un retrait au titre d’une injonction, d’un signalement ou d’une mesure proactive, à des fins d’enquête ou poursuites judiciaires. Les articles 8 à 11 du règlement établissent un certain nombre de garanties à la charge des hébergeurs : obligation de transparence quant aux mesures proactives et de retrait, délivrance d’informations aux fournisseurs de contenus, mise en place de dispositifs de réclamation… Les articles 12 à 14 prévoient des procédures de coopération des autorités compétentes entre elles et en relation avec les fournisseurs de services d’hébergement. Enfin, l’article 18 prévoit le principe des sanctions qui pourront être infligées aux hébergeurs en cas de manquement aux obligations précitées. S’il est renvoyé, pour la plupart, aux États membres le soin de les déterminer, la sanction applicable en cas de manquement systématique à des injonctions de suppression est déjà déterminée par le règlement. De nature financière, elle pourra s’élever jusqu’à 4 % du chiffre d’affaires global de l’hébergeur.

Les amendements au texte apportés par le Parlement

Malgré la légitimité de ses objectifs, le texte a été fortement critiqué depuis sa publication en ce qu’il donnerait une trop grande latitude aux acteurs privés et publics dans la définition de ce qu’est un contenu terroriste. Les mesures contraignantes qu’il prévoit n’en serait que plus attentatoires à la liberté d’expression. Les amendements votés par le Parlement européen n’ont guère suffi à apaiser les protestations8, comme celles publiées par la Quadrature du Net9. Ainsi, le champ d’application est désormais réduit aux seuls services d’hébergement qui proposent des contenus à destination du public. S’agissant de l’article 4, les eurodéputés ont ajouté l’obligation, pour l’autorité compétente, d’avertir l’hébergeur visé pour la première fois par une injonction de suppression au moins douze heures avant le prononcé de celle-ci. L’article 5 a été supprimé et l’article 6 modifié pour exclure le recours à des outils automatisés, conformément à l’absence d’obligation générale de surveillance. Un certain nombre de précisions ont aussi été apportées tout au long du texte afin de garantir la stricte proportionnalité des mesures à mettre en œuvre, au regard du respect de la liberté d’expression. Néanmoins, la plupart des dispositions initiales ont été conservées, et devraient de nouveau être débattues lors de la phase de trilogue qui s’ouvrira prochainement.

Sources :

  1. Proposition de règlement du Parlement et du Conseil relatif à la prévention de la diffusion de contenus à caractère terroriste en ligne, 12 septembre 2018, COM(2018) 640 final, 2018/0331(COD).
  2. « L’Appel de Christchurch pour agir contre le terrorisme et l’extrémisme violent en ligne », 15 mai 2019, www.elysee.fr
  3. Criminal Code Amendment (Sharing of Abhorrent Violent Material) Act 2019, Parliament of Australia, https://parlinfo.aph.gov.au
  4. Directive (UE) 2017/541 du Parlement européen et du Conseil du 15 mars 2017 relative à la lutte contre le terrorisme et remplaçant la décision-cadre 2002/475/JAI du Conseil et modifiant la décision 2005/671/JAI du Conseil.
  5. Directive n° 2018/1808 du Parlement européen et du Conseil du 14 novembre 2018 modifiant la directive 2010/13/UE visant à la coordination de certaines dispositions législatives, réglementaires et administratives des États membres, relatives à la fourniture de services de médias audiovisuels (directive « Services de médias audiovisuels »), compte tenu de l’évolution des réalités du marché.
  6. Voir Factsheet – 4th monitoring round of the Code of Conduct, European Commission, V. Jourava, February 2019, disponible sur le site de la Commission européenne.
  7. Loi organique n° 2018-1201 et loi n° 2018-1202 du 22 décembre 2018 relatives à la lutte contre la manipulation de l’information.
  8. Résolution législative du Parlement européen du 17 avril 2019 sur la proposition de règlement du Parlement européen et du Conseil relatif à la prévention de la diffusion de contenus à caractère terroriste en ligne (COM (2018) 0640 – C8-0405/2018 ; 2018/0331 – COD).
  9. « Règlement terroriste : premier bilan et prochaines étapes », 26 avril 2019, www.laquadrature.net

LAISSER UN COMMENTAIRE

Please enter your comment!
Please enter your name here