En octobre 2022, l’Office fédéral allemand de la justice (BfJ) a infligé une lourde amende à l’entreprise Telegram. Cette amende fait suite à un débat public sur le rôle de ce service de communication dans l’organisation de l’extrême droite et dans la diffusion de théories du complot, de désinformation et de haine.
Au cours des dernières années, Telegram est devenue l’une des applications de communication les plus utilisées au monde, aux côtés de WhatsApp, Facebook Messenger ou WeChat, et se présente volontiers comme une alternative plus favorable aux utilisateurs que les outils commerciaux habituels. Le succès est d’importance : selon Telegram, le nombre de ses utilisateurs actifs mensuels dans le monde est passé de 62 millions en mai 20151 à plus de 700 millions en juin 20222.
La raison de la popularité de Telegram réside dans le fait qu’il promet aux utilisateurs un haut degré d’anonymat et qu’il a jusqu’à présent refusé de coopérer avec quelque autorité publique que ce soit. Le service a été développé à l’origine en Russie et aujourd’hui, selon ses propres déclarations, son siège social est installé à Dubaï. En Allemagne, les autorités ont longtemps partagé l’avis que Telegram était un simple service de messagerie permettant une communication numérique non publique entre deux ou plusieurs personnes. En référence au droit à la communication confidentielle, Telegram a donc pu se soustraire aux interventions étatiques. La pierre d’achoppement et le succès politique du ministère allemand de la justice tiennent à la loi sur l’amélioration de l’application du droit sur les réseaux sociaux (Netzwerkdurchsetzungsgesetz, NetzDG)3. En vertu de cette loi, en vigueur depuis 2017, les autorités allemandes tentent de réglementer Telegram en tant que réseau social, c’est-à-dire comme moyen de communication de masse.
L’anonymat de ses utilisateurs est un aspect important pour Telegram. Le service propose deux types de communication chiffrée. Le chat standard, basé sur le cryptage client-serveur/serveur-client, de sorte que les utilisateurs peuvent par exemple restaurer leurs contenus de chat avec un nouveau terminal en les chargeant à nouveau depuis le serveur. Ce protocole permet des groupes de discussion comprenant jusqu’à 200 000 intervenants. Les chats secrets de Telegram utilisent en revanche le cryptage client-client et offrent aux utilisateurs un contrôle total sur leurs contenus, car toutes les données sont enregistrées localement sur les terminaux personnels des utilisateurs concernés. Avec ces deux formes de communication, Telegram offre effectivement un service de messagerie crypté qui relève de la protection du droit à la communication confidentielle.
Cependant, depuis 2015, Telegram propose des canaux à sens unique avec un nombre illimité d’abonnés, qui ne sont en général pas visibles publiquement, sauf si l’administrateur le souhaite. Contrairement aux groupes de discussion, dans lesquels tous les membres du groupe peuvent partager des contenus, le flux d’informations dans ces canaux est unidirectionnel : les abonnés ne peuvent pas répondre directement aux opérateurs d’un canal, mais peuvent partager les contributions diffusées par ces derniers. En décembre 2020, Telegram annonce vouloir financer le support de ses presque 500 millions d’utilisateurs par la publicité4. Le service, initialement axé sur la communication individuelle, s’est donc transformé en plateforme. En tant que réseau social avec plus de 2 millions d’utilisateurs actifs et dans un but lucratif, Telegram entre dès lors dans le champ d’application de la NetzDG.
La NetzDG5 réglemente le traitement des signalements des utilisateurs concernant les crimes de haine et autres contenus punissables sur les plateformes des réseaux sociaux comptant plus de 2 millions d’utilisateurs. D’une part, la loi prescrit la mise en place d’un système de gestion des plaintes transparent et efficace permettant aux utilisateurs de signaler les contenus contraires à la loi, tels que les insultes, la diffamation, la provocation publique au crime, l’incitation à la haine, la représentation de la violence et les menaces. Les opérateurs des plateformes doivent prendre une décision sur ces contenus dans un délai de sept jours, les contenus « manifestement punissables » devant même être supprimés dans les vingt-quatre heures. D’autre part, des « mandataires pour la notification » (Zustellungsbevollmächtigter) doivent être désignés par chaque entreprise pour fournir rapidement des informations aux autorités publiques allemandes afin d’élucider des délits. Cette réglementation veut améliorer l’application du droit en Allemagne, indépendamment du siège officiel de l’entreprise. La loi prévoit de pouvoir infliger des amendes d’un montant maximal de 50 millions d’euros si les entreprises ne respectent pas les obligations de la NetzDG.
Le BfJ contre Telegram
Les autorités judiciaires allemandes reprochent à Telegram d’avoir enfreint en 2020 et 2021 l’obligation de fournir des voies de notifications conformes à la loi et de ne pas avoir fourni de mandataires pour la notification en Allemagne. Il a donc été difficile pendant longtemps d’entrer en contact avec l’entreprise. Ce n’est qu’une fois que les autorités allemandes, ne parvenant pas à contacter Telegram par courrier à Dubaï, ont publié les lettres relatives à ces accusations dans le Bundesanzeiger6 en mars 2022 que Telegram a pris contact avec les autorités par l’intermédiaire d’un cabinet d’avocats allemand. Les arguments du cabinet d’avocats n’ayant toutefois pas dissipé les accusations, le BfJ a émis en octobre 2022, plus d’un an après le début de la procédure, deux avis d’amende d’un montant de 5,125 millions d’euros7. L’entreprise a fait appel contre ceux-ci. En réponse à nos questions, le BfJ a déclaré que les motifs de cet appel sont encore en cours d’examen. On ne sait pas encore si une procédure judiciaire sera engagée.
Néanmoins, l’affaire BfJ vs Telegram constitue déjà un signal fort concernant la régulation étatique et juridique des plateformes. La culture du débat en ligne de plus en plus toxique et polarisée par les effets de l’économie de l’attention, qui a été fortement perçue pendant la pandémie de Covid-19, a renforcé la nécessité de « modérer » les contenus numériques et leur diffusion. En tant que législateur, rester dans l’inaction n’est plus une position susceptible de réunir la majorité, et cela non seulement par rapport à la mobilisation des groupes d’extrême droite et des campagnes de désinformation des antivax. La NetzDG a été la première initiative réglementaire en Europe visant à rendre les entreprises responsables des contenus diffusés sur les plateformes qu’elles mettent à disposition. En France, une loi similaire – la loi visant à lutter contre les contenus haineux sur internet, dite loi Avia – a été adoptée des années après, en mai 2020 (voir La rem n°54bis-55, p.17) et, quelques semaines plus tard, le Conseil constitutionnel déclarait contraire à la Constitution la plupart de ses dispositions8.
Toutefois la NetzDG a fait dès le début l’objet de vives critiques. Cette loi reflète notamment la tendance à privatiser l’application du droit dans le secteur numérique car elle ne renforce pas l’application du droit par les tribunaux, mais elle formule des obligations pour les entreprises. La responsabilité des obligations de suppression est confiée aux entreprises ; ce sont pourtant ces acteurs dont le pouvoir devrait être limité. Comme son homologue français, la loi allemande vise en priorité la « haine en ligne ». Il reste que l’économie de l’attention est ignorée, laquelle profite pourtant de la surreprésentation du conflit et de la polarisation9.
De la NetzDG au DSA
Ces dernières années, les initiatives législatives nationales concernant les services numériques telles que la NetzDG et la loi Avia ont été complétées, voire remplacées, par des règlements de l’Union européenne (UE). La loi sur les services numériques (Digital Services Act – DSA10), dont la plus grande partie des règles est entrée en vigueur en novembre 2022, joue un rôle particulier à cet égard. Le DSA couvre entièrement le champ d’application de la NetzDG et va même au-delà. En tant que règlement de l’UE, le DSA, ayant priorité sur le droit national, est devenu automatiquement contraignant pour l’ensemble des pays membres. Cependant, la plupart des fournisseurs de plateformes bénéficient encore d’une période de transition jusqu’en février 2024, au cours de laquelle ils peuvent adapter progressivement les nouvelles règles. La NetzDG est censée avoir servi de modèle au nouveau cadre juridique européen pour le marché unique numérique11 ; il existe néanmoins des différences importantes pour les citoyens et les entreprises concernés.
Tout d’abord, le champ d’application de la réglementation européenne est plus large : alors que la NetzDG se limite aux réseaux sociaux, le DSA propose la notion plus large de « fournisseurs de services intermédiaires » (art. 1), ce qui inclut les services de cloud ou d’hébergement web, ainsi que les App Stores, les places de marché en ligne et les réseaux sociaux. De plus, le DSA ne s’applique pas, comme la NetzDG, uniquement aux entreprises totalisant plus de 2 millions d’utilisateurs actifs et à but lucratif, mais à tous les fournisseurs. Quant aux services intermédiaires comptant au moins 45 millions d’utilisateurs actifs par mois, ils sont soumis à des obligations particulières (art. 65 (1)). Ainsi, le DSA ne prévoyant pas de nombre minimum d’utilisateurs, la nouvelle loi européenne s’applique pleinement à Telegram.
Sous le régime de la NetzDG, Telegram se rend passible d’une amende parce qu’il ne met pas à la disposition des utilisateurs des voies conformes à la loi pour signaler des contenus illégaux. À cet égard, la NetzDG pose un simple cadre assez général concernant la procédure de transmission de ces plaintes (§ 3 (1) NetzDG). Les exigences du DSA, nettement plus précises, prévoient en revanche que les fournisseurs eux-mêmes ont la responsabilité de veiller à ce que chaque plainte contienne des informations détaillées, telles que le lieu de stockage électronique d’une publication (URL), le nom et l’adresse électronique de la personne ou de l’institution qui a signalé le cas, etc.
Le DSA repose également sur le principe du lieu du marché, déjà ancré dans la NetzDG ainsi que dans d’autres règlements numériques de l’UE : quiconque met ses services numériques à la disposition des internautes au sein de l’UE tombe sous le coup du DSA – ce qui est le cas de toutes les grandes applications de messagerie, y compris Telegram. Une partie de l’amende était infligée à Telegram parce que l’entreprise ne met pas à disposition un mandataire pour la notification (§ 5 NetzDG) qui servirait d’interlocuteur pour la justice allemande. Le DSA oblige également tous les services d’intermédiation sans établissement fixe dans l’UE à désigner un représentant légal comme interlocuteur pour la surveillance (art. 11). Toutefois, rien n’est dit sur les notifications dans le cadre de procédures judiciaires.
Toutes les infractions que le BfJ reproche à l’entreprise Telegram s’appliqueraient donc de la même manière sous le régime du DSA, après l’expiration de sa période de transition. En d’autres termes, l’Allemagne a quasiment devancé la Commission européenne en infligeant une amende. La réaction de Telegram à l’amende peut donc également être considérée comme un test pour les règles du DSA qui viennent d’entrer en vigueur, ce qui rend l’affaire encore plus intéressante.
L’économie de plateforme : l’amende comme ultime moyen coercitif des États ?
Des initiatives comme la NetzDG et le DSA sont des jalons qui servent de référence dans la réglementation des entreprises de plateformes. C’est précisément pour cette raison qu’elles peuvent se voir reprocher de ne pas avoir suffisamment d’impact réglementaire sur les pratiques de l’économie de l’attention et de ne pas avoir remis en question de manière plus fondamentale les modèles commerciaux sur lesquels reposent les intermédiaires. Certes, le scepticisme à l’égard de la concentration du marché des Big Tech s’exprime régulièrement au niveau européen, y compris le scepticisme à l’égard de la légitimité des entreprises privées à modérer elles-mêmes les espaces publics numériques12. Mais, sous le paradigme réglementaire de l’UE d’un marché unique, la réglementation concrète se limite à la création de conditions cadres pour le marché13, plutôt que d’oser des interventions réglementaires dans les pratiques commerciales14.
Au-delà du conservatisme réglementaire, la question se pose de savoir si la diffusion de contenus illégaux via des plateformes comme Telegram pourrait être limitée par une réglementation plus interventionniste. Telegram représente ici un cas particulier parmi les grandes applications de communication, puisqu’elle se définit elle-même comme non commerciale et souligne qu’elle ne réalise justement pas de profits en analysant les données des utilisateurs afin de diffuser des publicités personnalisées – la publicité sur Telegram doit être axée sur le thème du canal et non sur le comportement individuel en ligne des utilisateurs. La proposition très controversée au niveau européen consistant à réglementer la publicité personnalisée et l’exploitation des données des utilisateurs par des interdictions concrètes n’aurait donc pas d’effet immédiat sur Telegram.
Aussi, l’idée de rappeler l’entreprise à l’ordre en l’interdisant au sein de l’UE ou de l’Allemagne – parfois envisagée par différents acteurs mais généralement vivement critiquée – n’apparaît pas une option réalisable ou souhaitable. D’une part, il est techniquement très facile pour les utilisateurs avertis de contourner sa suppression des App Stores ainsi que les éventuels blocages des adresses IP qui sont attribuées au service. En 2018, une telle tentative par le gouvernement russe a échoué et a eu l’effet inverse : rendre Telegram encore plus populaire en Russie15. D’autre part, le blocage de certains services est considéré comme une atteinte trop importante à la liberté d’expression. Une telle démarche a donc été qualifiée de « violation des droits fondamentaux » par la Cour européenne de justice, qui l’a comparée à l’interdiction d’un journal ou d’une chaîne de télévision. En effet, un blocage ne toucherait pas seulement les contenus illégaux véhiculés par Telegram, mais aussi la majeure partie de la communication qui est tout à fait légale.
Les critiques à l’encontre d’une interdiction potentielle d’un outil de communication comme Telegram argumentent en outre qu’une accessibilité limitée à la plateforme ne conduirait pas à métamorphoser l’ensemble des utilisateurs en bons citoyens respectueux de la loi. Au contraire, ils se tourneraient vers la plateforme suivante. Telegram n’est pas à l’origine des expressions de haine et de la désinformation, mais elle leur offre une plateforme numérique importante. La manière dont il faut réglementer cette situation est le défi du moment. Au sein de l’UE, une politique d’intervention directe semble improbable à l’heure actuelle, le primat d’obligation à l’autoréglementation restant privilégiée. L’avenir nous dira si la procédure d’amende infligée à la messagerie Telegram contribuera à ce que l’entreprise se soumette à ces obligations.
Co-écrit avec Leo Thüer
Sources :
- « Telegram says it’s hit 62M MAUs and messaging activity has doubled », Join TechCrunch+, Mike Butcher, May 13, 2015, techcrunch.com
- https://telegram.org/blog/700-million-and-premium
- Le ministère de la justice sur la NetzDG en anglais : https://www.bmj.de/DE/Themen/FokusThemen/NetzDG/NetzDG_EN_node.html
- https://t.me/durov/142
- Voir le texte de loi en allemand : https://www.gesetze-im-internet.de/netzdg/BJNR335210017.html – Pour une traduction non officielle par le German Law Archive (University of Oxford), voir https://germanlawarchive.iuscomp.org/?p=1245
- Le registre de publication officiel du ministère allemand de la justice, utilisé pour annoncer les lois et les décisions légales et judiciaires obligatoires.
- Le communiqué de presse de l’Office de la justice en allemand : https://www.bundesjustizamt.de/DE/ServiceGSB/Presse/Pressemitteilungen/2022/20221017.html
- https://www.laquadrature.net/2020/06/18/loi-haine-le-conseil-constitutionnel-refuse-la-censure-sans-juge
- Les révélations de la lanceuse d’alerte Francis Haugen ont prouvé que Facebook, par exemple, encourage particulièrement les contenus polarisants – bien que, selon des études internes, ceux-ci contenaient plus souvent de la désinformation et des discours de haine. Voir l’interview avec 60 Minutes : https://www.youtube.com/watch ? v=_Lx5VmAdZSI
- Pour le texte final, voir https://eur-lex.europa.eu/legal-content/FR/TXT/PDF/ ? uri=CELEX : 32022R2065&from=FR
- Comme le dit Daniel Holznagel, juriste au ministère fédéral allemand de la justice de 2017 à 2021 qui a participé à la rédaction de la NetzDG, dans une présentation : https://docs.google.com/presentation/d/1Twid7RpDXXmUX0UtA0VZSbkJUJdkQfPbV1JcXGMt6no/edit#slide=id.p
- « Ursula von der Leyen : « Ce qui est interdit dans le monde réel doit être aussi interdit en ligne » », lefigaro.fr, 29 janvier 2021.
- La rationalité ordolibérale d’une telle « politique de cadre » était analysée de façon critique dans son origine historique, voir Naissance de la biopolitique. Histoire de la Gouvernementalité II (vol. 2), Michel Foucault, Hautes Études/Seuil/Gallimard, 2024, p. 145.
- « The European Digital Markets Act : A Revolution Grounded on Traditions », Pierre Larouche, Alexandre de treel, Journal of European Competition Law & Practice, 12 (7), 2021, p. 542-560. https://doi.org/10.1093/jeclap/lpab066
- « The Telegram ban : How censorship « made in Russia » faces a global Internet », Ksenia Ermoshina & Francesca Musiani, 2021, First Monday, 26 (5). https://doi.org/10.5210/fm.v26i5.11704