La section 230 : quelle immunité pour les réseaux sociaux ?

Les 30 000 mensonges et plus proférés par Donald Trump durant la campagne électorale et ses quatre années de présidence ont mis en lumière un élément spécifique du contexte étatsunien : l’interprétation absolutiste donnée au premier amendement (qui garantit la libre expression et la liberté de la presse) par la Cour suprême, rendant impossible de sanctionner les déclarations mensongères et ceux qui les profèrent. Le résultat est que, malgré sa défaite, Donald Trump peut continuer de mentir, de parler d’élection volée alors que Joe Biden a été légitimement élu et qu’il n’y a pas eu de fraude de grande ampleur susceptible de modifier les résultats des élections en 2020. Il peut aussi, quasiment en toute impunité, inciter ses électeurs à la violence, comme l’insurrection contre le Capitole le 6 janvier 2021. Et, lors de ses quatre mises en examen, il a répété les mensonges et redit qu’il était victime d’une chasse aux sorcières partisane.

S’il n’est pas possible de poursuivre les auteurs de mensonges protégés par le premier amendement, peut-on au moins rechercher la responsabilité des médias et des réseaux sociaux pour les mensonges répétés à l’antenne et en ligne ? En apparence, la victoire du fabricant de machines à voter Dominion contre Fox News, dans son procès en diffamation, semble indiquer qu’au moins, par ce biais, il est possible d’obtenir réparation (voir La rem n°65-66, p.72). Mais si Fox News a dû transiger pour près de 800 millions de dollars avec Dominion, les responsables de la chaîne n’ont jamais vraiment admis qu’ils avaient menti, et surtout journalistes et présentateurs continuent de mentir et vont probablement continuer durant la campagne électorale 2024.

L’INTERPRÉTATION ABSOLUTISTE DONNÉE AU PREMIER AMENDEMENT PAR LA COUR SUPRÊME, RENDANT IMPOSSIBLE DE SANCTIONNER LES DÉCLARATIONS MENSONGÈRES

Quant aux réseaux sociaux, nous savons qu’il y circule les pires mensonges, théories du complot, menaces de mort et déclarations haineuses, mais tous sont protégés par la section 230 de la loi sur les communications de 1996, qui leur confère une immunité quasi absolue. Nombreux sont les politiques qui critiquent cette impunité, pour des raisons différentes selon qu’ils sont de gauche ou de droite. Chez les Démocrates, on s’élève contre les mensonges, la désinformation et les risques pour la démocratie. Chez les Républicains, au contraire, ce sont des accusations de partialité, les réseaux sociaux étant soupçonnés de favoriser les Démocrates et de s’acharner contre les conservateurs – ce que les études démentent1, les mensonges étant majoritairement le fait de la droite.

Compte tenu de la visibilité de la question, les membres du Congrès ont déposé des dizaines de propositions de loi entre 2020 et 2023 visant à encadrer les réseaux sociaux, mais les propositions démocrates et républicaines sont si totalement opposées qu’il y a très peu de chances qu’un texte soit adopté. Les Républicains veulent protéger à tout prix une liberté d’expression totale puisqu’ils considèrent qu’ils font l’objet d’une véritable censure. Quant aux Démocrates, ils veulent lutter contre la désinformation et les dangers pour la démocratie et les plus fragiles. Le blocage au Congrès peut expliquer que la Cour suprême ait accepté deux affaires en 2022 dans lesquelles les familles de victimes d’attentats terroristes (à Paris et en Turquie) voulaient voir reconnaître la responsabilité, dans un cas, de Twitter et, dans l’autre, de Google.

LA SECTION 230 STIPULE QU’« AUCUN FOURNISSEUR D’ACCÈS NE SERA TRAITÉ COMME UN ÉDITEUR »

Ce n’est pas le rôle de la Cour de légiférer, son rôle étant en principe de se prononcer sur la légalité ou la constitutionnalité d’un texte. Mais, aux États-Unis, en raison du système de common law et d’application (en principe) de la règle du précédent (stare decisis), le rôle des juridictions est central.

Nous allons partir de l’adoption de la section 230 puis expliciter certaines des propositions de loi avant d’étudier les deux affaires dans lesquelles la Cour suprême a pris conscience que ce n’était pas à elle de régler le problème de la responsabilité des plateformes et réseaux sociaux et incidemment qu’elle était quelque peu dépassée par les évènements. Le résultat est que, sans doute, rien ne sera fait avant les élections de 2024 et que la campagne électorale aura lieu dans un climat de désinformation et de polarisation dangereux pour le bon déroulement des élections, et donc pour la démocratie.

Un législateur dans l’incapacité de légiférer

La section 230 a été ajoutée à la loi Communications Decency Act (CDA) de 1996 (qui visait à réguler la pornographie) grâce au lobbying de ceux que les chercheuses Mary Ann Franks et Danielle Keats Citron2 appellent les « fondamentalistes de l’internet » : ceux qui défendent une vision du web comme espace paradisiaque de liberté totale. La section 230 (surnommée « les 26 mots qui ont créé l’internet ») fut, à l’origine, conçue pour encourager les compagnies de la Tech à nettoyer les contenus offensifs en ligne. Il s’agissait de contrer une décision rendue en 19953 dans l’État de New York, ayant conclu à la responsabilité de Prodigy qui avait modéré des contenus postés sur son site. La section 230 (c) (1) stipule qu’« aucun fournisseur d’accès ne sera traité comme un éditeur ». Un deuxième paragraphe, 230 (c) (2), précise qu’« aucun fournisseur ou utilisateur d’un service informatique interactif ne sera tenu responsable, s’il a de bonne foi restreint l’accès ou la disponibilité de matériaux qu’il considère être obscènes, excessivement violents, de nature harcelante ou autrement problématiques (otherwise objectionable4), que cette information soit constitutionnellement protégée ou non ».

LES JURIDICTIONS ÉTATIQUES ET FÉDÉRALES ONT ÉTENDU LA PROTECTION JURIDIQUE BIEN AU-DELÀ DE CE QUE PRÉVOIT LE TEXTE DE LA LOI

C’est ce qu’on appelle la disposition du « bon Samaritain », conçue comme plus limitée5 que le paragraphe (c) (1), car nécessitant de prouver la bonne foi.

Mais les juridictions étatiques et fédérales ont étendu la protection juridique bien au-delà de ce que prévoit le texte de la loi, avec pour résultat que les plateformes ne soient guère incitées à combattre les abus en ligne. La section 230 a, de fait, libéré les sites internet, les sites de streaming et les réseaux sociaux (pas encore nés en 1996), qui peuvent héberger du contenu extérieur sans être confrontés à la tâche (impossible ?) de vérifier et de contrôler tout ce qui est posté par les utilisateurs. Telle qu’interprétée par les juridictions fédérales, la section 230 confère aux plateformes et réseaux sociaux une immunité totale, quels que soient le contexte et le cas de figure (modération ou non). Avec pour conséquences, entre autres, la multiplication des mensonges et la prolifération de la désinformation et des discours de haine. Ils ont donc le pouvoir sans la responsabilité, selon les mots de Rebecca Tushnet6.

NOMBREUX SONT CEUX QUI VOUDRAIENT VOIR ABOLIE LA SECTION 230

Du fait des critiques fréquentes et des accusations récurrentes de partialité par les Républicains et de désinformation par les progressistes, nombreux sont ceux qui voudraient voir abolie la section 230, dont les deux présidents Trump et Biden7. Plusieurs propositions de lois ont été déposées8 tant à la Chambre qu’au Sénat. Mais, en raison de la polarisation et de la puissance des lobbies de l’internet, aucun texte n’a été adopté. À l’exception d’un texte de 2018, la loi FOSTA (Fight Online Sex Trafficking Act) qui facilite la lutte contre les trafics sexuels en ligne et que les juridictions ont d’abord appliquée avec timidité.

MAIS, EN RAISON DE LA POLARISATION ET DE LA PUISSANCE DES LOBBIES DE L’INTERNET, AUCUN TEXTE N’A ÉTÉ ADOPTÉ

Deux lois adoptées en Floride et au Texas en 2021, dans la foulée des sanctions prises contre Donald Trump (suspension de ses comptes Twitter et Facebook après l’attaque contre le Capitole du 6 janvier 2021), donnent une idée de ce que voudraient les Républicains au plan national. Les deux textes visent à protéger les utilisateurs des plateformes comme Facebook ou Twitter en interdisant à celles-ci de censurer certains d’entre eux – sous-entendu les conservateurs qui sont, selon eux, particulièrement visés. Ils illustrent une tendance croissante des législatures des États à majorité républicaine à agir quand le parti ne peut pas légiférer au niveau fédéral car il y est minoritaire. Ainsi, la loi du Texas autorise les résidents de l’État ou le ministère de la justice de l’État à poursuivre en justice les réseaux sociaux et les plateformes ayant plus de 50 millions d’utilisateurs aux États-Unis, si les requérants considèrent qu’ils ont été interdits ou censurés de façon injuste.

UNE TENDANCE CROISSANTE DES LÉGISLATURES DES ÉTATS À MAJORITÉ RÉPUBLICAINE À AGIR QUAND LE PARTI NE PEUT PAS LÉGIFÉRER AU NIVEAU FÉDÉRAL

Les géants de la Tech ont contesté en justice9 les deux lois, arguant qu’elles violent leur droit à contrôler les types d’expression et de discours qui apparaissent sur leur plateforme et qu’elles les empêchent également de retirer les discours de haine, la désinformation politique, les vidéos violentes et/ou trafiquées et d’autres contenus préjudiciables. En raison de décisions divergentes rendues par deux cours d’appel en mai et en septembre 2023, le Solicitor General (qui représente les États-Unis devant la Cour suprême) a, sur demande de celle-ci, donné sa position et a sollicité la Cour suprême pour trancher l’affaire NetChoice, LLC v. Paxton10 dans laquelle est posée la question suivante : le premier amendement interdit-il les lois (comme celles de Floride et du Texas) qui limitent les possibilités de modération des sites et plateformes ? Le 29 septembre 2023, la Cour suprême a annoncé qu’elle acceptait l’affaire11.

Au plan fédéral, plus de cinquante propositions de loi ont été déposées depuis 2020, au Sénat ou à la Chambre. Certaines déposées durant le 116e et le 117e Congrès sont tombées avec la fin de la session parlementaire et d’autres, les plus importantes, parfois bipartisanes, ont été reprises et envoyées en commission. Il est possible de les classer selon leur objet et selon la coloration politique de ceux qui sont à l’origine du texte. Quelques-unes envisagent d’abroger totalement la section 230, ainsi le 21st Century Free Speech Act 12 ; la plupart se contentent de limiter le champ d’application de l’immunité de la section 230 en prévoyant qu’elle ne s’applique pas dans toutes les conditions, par exemple en cas d’exploitation sexuelle des enfants ou de violation des droits civils.

LE PREMIER AMENDEMENT INTERDIT-IL LES LOIS QUI LIMITENT LES POSSIBILITÉS DE MODÉRATION DES SITES ET PLATEFORMES ?

Celles qui prévoient des obligations de transparence pour les réseaux sociaux sont le fait des Démocrates, alors que toutes celles émanant des Républicains veulent protéger la liberté d’expression qui serait, selon eux, menacée. L’intitulé des textes est clair : Stop Censorship Act13 ou Preserving Political Speech Online Act amendent la section 230 en limitant les exonérations de responsabilité en vertu de la disposition du « bon Samaritain ». Actuellement, les plateformes ne jouissent de l’immunité que lorsqu’elles retirent « de bonne foi » du contenu qu’elles considèrent « obscène, excessivement violent, harcelant ou posant problème (otherwise objectionable) ». Le texte limiterait la justification de bonne foi aux contenus obscènes, illégaux ou excessivement violents14.

Dans l’autre camp, les Démocrates ont des objectifs plus différenciés. Citons d’abord les propositions visant à lutter contre la désinformation en matière médicale15, contre le trafic de Fentanyl en ligne16 ou à limiter les protections de la section 230 pour les places de marché d’armes en ligne17. Le projet de loi SAFE TECH (Safeguarding Against Fraud, Exploitation, Threats, Extremism and Consumer Harms Act) a, quant à lui, été repris par plusieurs sénateurs démocrates au printemps 2023 ; il tente de réformer la section 230 afin qu’il soit possible de rechercher la responsabilité des réseaux sociaux lorsqu’ils aident au cyberharcèlement en ligne ou incitent à la discrimination18.

LES FORCES DU MARCHÉ NE SUFFIRONT PAS À ENCOURAGER UNE MODÉRATION DE CONTENUS RESPONSABLE

Les élus démocrates recherchent également davantage de transparence et d’accountability (répondre de ses actes) des plateformes internet. C’est le cas de l’Internet PACT Act, déposé par l’un des sénateurs démocrates de Hawaï en février 2023 (qui est une reprise du texte soumis en 2019-2020 et révisé en 2021-2022). Pour bénéficier de l’immunité de la section 230, les fournisseurs de services informatiques interactifs seraient dans l’obligation de publier leur politique d’utilisation détaillant le type de contenu autorisé par le fournisseur d’accès, la façon dont il fait respecter ses politiques, et les moyens mis à disposition des utilisateurs pour faire connaître les contenus illégaux ou en violation de la politique du réseau. Si le texte était adopté, il exigerait des gros fournisseurs la création d’un centre d’appels ouvert huit heures par jour cinq jours par semaine (avec un humain au bout du fil) ainsi qu’une adresse courriel pour les plaintes des utilisateurs. Un autre texte, Platform Accountability and Transparency Act (PATA), déposé en décembre 2022 par le sénateur démocrate Chris Coons avec le soutien de la sénatrice Amy Klobuchar du Minnesota et du Républicain Bill Cassidy de Louisiane, vise à améliorer la transparence en exigeant des sociétés de l’internet qu’elles partagent certaines données avec des chercheurs qualifiés.

L’un des textes a fait l’objet d’une audition devant la sous-commission Communications et technologie (qui fait partie de la commission Énergie et commerce), intitulée « Une nation de désinformation : le rôle des médias sociaux dans la promotion de l’extrémisme et de la désinformation »19. Les responsables des réseaux sociaux, en particulier Mark Zuckerberg pour Meta (Facebook, Instagram) et Sundar Pichai, PDG d’Alphabet (Google, YouTube), se sont montrés favorables à une transparence accrue sur la façon dont ils modèrent les contenus préjudiciables et dangereux mais légaux. Rien ne les empêche d’être transparents sur leur politique de modération mais, manifestement, ils ont besoin d’une incitation législative. Les forces du marché ne suffiront pas à encourager une modération de contenus responsable, car les plateformes tirent leurs revenus des publicités générées par le trafic – les « like » et les « partages de contenus » –, ce modèle économique causant les plus forts préjudices aux plus vulnérables.

Il faudrait donc une loi. Pourtant, compte tenu du contexte au Congrès et de la campagne électorale qui a déjà commencé, il y a peu de chances qu’un texte soit adopté avant 2025. Le blocage au Congrès peut expliquer que la Cour suprême, qui n’est jamais dans l’obligation de le faire, ait accepté deux affaires en 2022. Les requérants recherchaient la responsabilité de Google et de Twitter dans le contexte d’attaques terroristes.

Les affaires Gonzales v. Google et Twitter v. Taamneh

Les audiences qui ont eu lieu les 21 et 22 février 2023 posaient la question du champ d’application de la section 230. Dans Gonzales v. Google, c’est la question de l’immunité dans le cas bien précis des recommandations ciblées. La famille de Noemie Gonzales tuée à Paris lors des attentats terroristes de novembre 2015 a saisi un tribunal fédéral de première instance en Californie (en vertu de la loi antiterroriste ATA, qui accorde un moyen d’action aux survivants et aux héritiers d’un ressortissant américain tué dans « un acte de terrorisme international »). Pour les requérants, Google, en recommandant les vidéos de l’État islamique (ISIS) aux utilisateurs, l’a aidé à diffuser son message, lui a apporté un « soutien matériel » et a contribué à la radicalisation des terroristes. La juridiction de première instance a débouté, réaffirmant que Google fournit des outils neutres qui ne le transforment pas en développeur de contenus en vertu de la section 230. La cour d’appel du neuvième circuit, la plus importante des États-Unis, a confirmé, jugeant que l’activité de recommandation de contenus bénéficie de l’immunité accordée par la section 230 et qu’il était impossible d’engager la responsabilité de la plateforme. Pourtant, deux juges – auteurs, pour l’un, d’une opinion convergente et, pour l’autre, d’une opinion dissidente – ont affirmé que les recommandations ne devaient pas être couvertes par l’immunité de la section 230. Au niveau de la Cour suprême, les requérants ont soutenu que les recommandations ne sont pas un « contenu publié par un tiers, mais une publication autonome, un nouveau contenu personnalisé, créé grâce à des algorithmes qui invitent les utilisateurs à accéder à des contenus tiers grâce aux liens hypertexte générés ». L’affaire Twitter v. Taamneh posait des questions voisines : le défendeur Twitter affirme « travailler régulièrement pour empêcher les terroristes d’utiliser ses services » et allègue qu’il n’est donc pas possible de lui reprocher d’apporter « sciemment une assistance substantielle » (à ISIS), simplement parce que les plaignants allèguent que l’application aurait pu prendre des mesures plus agressives pour interdire cette utilisation.

LES RECOMMANDATIONS NE SONT PAS UN « CONTENU PUBLIÉ PAR UN TIERS, MAIS UNE PUBLICATION AUTONOME, UN NOUVEAU CONTENU PERSONNALISÉ, CRÉÉ GRÂCE À DES ALGORITHMES »

La Cour suprême s’est prononcée le 18 mai 2023 dans les deux affaires20, les juges statuant d’abord dans l’affaire Twitter puis appliquant leur raisonnement à l’affaire Gonzales. La décision, qui rejette les allégations des requérants et maintient le statu quo, était assez prévisible. Il est vrai que de nombreuses pétitions « amicus curiae »21, soumises par le secteur de l’internet et par les réseaux sociaux, avaient souligné les dangers d’une décision qui mettrait fin à l’immunité accordée par la section 230. Pour les juges, les requérants n’ont pas fait la démonstration d’une « participation consciente, volontaire et coupable de la plateforme aux actes répréhensibles d’autrui ». Ils n’ont pas pu démontrer que les défendeurs ont « sciemment fourni une assistance substantielle et ainsi aidé et encouragé les actes de l’État islamique ». Selon la majorité, « une conclusion contraire aurait pour effet de rendre tout type de fournisseur de communication responsable de toutes sortes d’actes répréhensibles, en raison du seul fait que les auteurs utilisent ses services et qu’il a été incapable de les arrêter ». La décision valide donc le statu quo mais la juge Ketanji Brown Jackson laisse ouverte une petite fenêtre en soulignant dans son opinion convergente que, dans une situation factuelle se distinguant « des allégations particulières dans ces deux plaintes », des requérants pourraient apporter la preuve manquante. Autrement dit, s’ils parvenaient à caractériser de façon concluante des activités relevant de l’assistance ou de l’incitation, ils pourraient convaincre la Cour suprême.

UN DEUXIÈME ÉLÉMENT À NE JAMAIS SOUS-ESTIMER EST LA MÉFIANCE DES AMÉRICAINS VIS-À-VIS DE L’ÉTAT FÉDÉRAL

En conclusion, la régulation des réseaux sociaux n’est pas qu’un problème étatsunien mais, en raison de l’interprétation extensive donnée au premier amen­dement, la question de la censure est au cœur de la question outre-Atlantique, avec deux volets souvent oubliés. En premier lieu, et n’en déplaise aux Républicains qui voudraient empêcher les plateformes de modérer les contenus ou de suspendre certains utilisateurs, le texte du premier amendement (qui interdit la censure) s’applique à l’État fédéral et aux cinquante États, et non à des entités privées comme les plateformes ou les réseaux sociaux. C’est l’un des mythes rendant difficile de réformer la section 230 selon Mary Anne Franks et Danielle Keats Citron22. Un deuxième élément à ne jamais sous-estimer est la méfiance des Américains vis-à-vis de l’État fédéral, qui remonte aux origines de la jeune république et dont on trouve les traces durant les débats au Congrès en 1996 lors de l’adoption de la section 230. Les membres du Congrès avaient précisé qu’ils ne souhaitaient pas que l’État (en l’occurrence, la Federal Communications Commission, FCC) soit en charge de contrôler l’information. Cette méfiance est instrumentalisée par les Républicains qui ont par exemple contesté en justice les « pressions » exercées selon eux par l’administration Biden sur les réseaux sociaux pour qu’ils retirent des informations mensongères sur le coronavirus23.

Mary Anne Franks et Danielle Keats Citron évoquent un autre mythe qui consiste à considérer que toute activité sur internet est de l’expression (speech), ce qui n’est pas le cas lorsque l’on achète un billet de train, une location Airbnb, ou que l’on cherche un emploi ou un rendez-vous en ligne. Même si ces acteurs privés ne sont pas des acteurs gouvernementaux (donc soumis au premier amendement), les réseaux sociaux, devenus puissants et omniprésents, proposent des forums.

UN AUTRE MYTHE QUI CONSISTE À CONSIDÉRER QUE TOUTE ACTIVITÉ SUR INTERNET EST DE L’EXPRESSION (SPEECH)

Mais ceux-ci n’ont pas à être des « forums publics neutres ». Pourtant, en raison de leur rôle, ils devraient être soumis à certaines règles, ce que n’interdit pas le premier amendement. Mais s’attaquer aux plateformes et aux réseaux sociaux, comme le font les lois de Floride et du Texas, porte sans doute atteinte à leur liberté d’association garantie par le premier amendement.

Si d’aucuns regardent avec intérêt les mécanismes du Digital Services Act24, ce type de texte n’a pratiquement aucune chance de voir le jour aux États-Unis en raison de la polarisation et du blocage du Congrès.

LES LOIS ET LE CODE DE BONNES PRATIQUES DE L’UNION EUROPÉENNE CONTRE LA DÉSINFORMATION CHANGERONT PEUT-ÊTRE ÉGALEMENT LA DONNE AUX ÉTATS-UNIS

Les responsables, plutôt démocrates, sont-ils alors réduits à suivre ce qui se passe au sein de l’Union européenne qui s’est dotée de plusieurs outils25. Il reste, certes, à voir comment les textes européens seront appliqués au fil des années. Mais de même que le RGPD a modifié le comportement des plateformes et des géants américains de l’internet, les lois et le code de bonnes pratiques de l’Union européenne contre la désinformation26 changeront peut-être également la donne aux États-Unis.

 

 

 

 

Sources :

  1. Il n’existe aucune base empirique établissant une censure contre les points de vue conservateurs. Facebook avait recruté l’ancien sénateur John Kyl et plusieurs avocats d’un gros cabinet pour conduire un audit indépendant sur un éventuel préjugé anticonservateur. Le rapport a conclu par la négative : il n’existe aucune preuve que les réseaux sociaux réduisent au silence l’expression des conservateurs, cdn.arstechnica.net/wpcontent/uploads/2019/08/covington-interim-report-1.pdf ; theatlantic.com/ideas/archive/2019/07/conservatives-pretend-big-tech-biased-against-them/594916.
  2. Citron Danielle Keats, Freedom of Speech in the Digital Age, Oxford University Press, 2019 ;
    Franks Mary Ann, The Cult of the Constitution, Stanford University Press, 2019.
  3. Stratton Oakmont, Inc. v. Prodigy Services Co., 23 Media L. Rep. 1794 (N.Y. Sup. Ct. 1995).
  4. Le ministère de la justice, en 2020, avait demandé au législateur de prévoir des définitions claires afin d’éviter l’ambiguïté et le recours aux juridictions. Plusieurs propositions suppriment ce terme trop imprécis,
    gov/archives/ag/department-justice-s-review-section-230-communications-decency-act-1996.
  5. La section 230 prévoit aussi des limites à l’immunité. Les protections ne s’appliquent pas en cas de violation du droit pénal fédéral, du droit de la propriété intellectuelle, de la loi sur la vie privée dans les communications électroniques et, depuis 2018, de la loi sur la facilitation des trafics sexuels.
  6. Tushnet Rebecca, « Power Without Responsibility : Intermediaries and the First Amendment », George Washington University Law Review, vol. 76, p. 101, 2008.
  7. Restuccia Andrew, Tracy Ryan, « Biden Calls for Limiting Tech Companies’ Use of Personal Data, Targeted Ads », The Wall Street Journal, January 11, 2023.
  8. Parallèlement, le Congrès a tenté de s’attaquer à la question, viale démantèlement des Gafa et un renforcement de la législation antitrust dont l’administration Biden veut assurer le respect via des actions en justice ; ainsi l’action contre Google. « Justice Department Sues Google for Monopolizing Digital Advertising Technologies », justice.gov/opa/pr/justice-department-sues-google-monopolizing-digital-advertising-technologies, January 24, 2023.
  9. Dans NetChoice v. Paxton, NetChoice v. Moody etMoody v. NetChoice, deux cours d’appel ont rendu des décisions opposées. La cour du onzième circuit, en mai 2023, a invalidé la quasi-totalité de la loi de Floride intitulée « loi interdisant la censure par les médias sociaux » adoptée en 2021, après la suspension de Tweeter de l’ancien président Donald Trump et en réaction contre celle-ci. La cour d’appel du cinquième circuit a, quant à elle, en septembre 2023, validé la loi SB20 du Texas en jugeant que les plateformes ne sont pas des journaux et que leurs décisions éditoriales ne sont donc pas protégées. Cette situation de décisions d’appel divergentes (qu’on appelle « circuit split ») amènera la Cour suprême à accepter les recours, afin de tenter d’harmoniser le droit applicable.
  10. com/case-files/cases/netchoice-llc-v-paxton
  11. com/2023/09/justices-take-major-florida-and-texas-social-media-cases
  12. Le 21stCentury Free Speech Act déposé en avril 2022 par Marjorie Taylor Greene à la chambre,
    qui reprend les mêmes termes que S.384 au Sénat, abrogerait la section 230 et la remplacerait par
    la section 232, qui requiert « un accès raisonnable et non discriminatoire », pour les services interactifs
    de plus de 10 millions d’utilisateurs au plan mondial.
  13. HR 8612 déposé à la chambre le 29 juillet 2022, avec le soutien de toute la droite radicale,
    a été transmis à la commission de la chambre sur l’énergie et le commerce. Le texte vise
    à autoriser les réseaux sociaux à opérer des modérations seulement dans certains cas.
  14. Le texte introduit l’idée de « modération de mauvaise foi », définie comme le fait de bloquer
    des contenus pour des raisons « de race, religion, sexe, affiliation, politique ou type d’expression ».
  15. Health Misinformation Act de 2021, déposé par la sénatrice Amy Klobuchar en 2023.
  16. S 2264 par John Ossof en juillet 2023.
  17. Elles permettent de fabriquer une arme à feu sur une imprimante 3D. The Accountability for
    On line Firearms Marketplaces Act de 2021.
  18. senate.gov/public/index.cfm/2023/2/legislation-to-reform-section-230-reintroduced-in-the-senate-house.
  19. Thorbecke Catherine, « Takeaways from House hearing on disinformation with Facebook,
    Google and Twitter CEOs. The big tech CEOs are back in the hot seat after the Jan. 6 riot »,
    go.com, March 25, 2021.
  20. Twitter, Inc. v. Taamneh, 598 U.S. 471 (2023), Gonzalez v. GoogleLLC, 598 U.S. 617 (2023).
  21. Ce sont des pétitions soumises par des tiers non parties directes au contentieux et qui souhaitent faire
    connaître leur approche aux juges de la Cour. Parmi les auteurs, citons la Ligue antidiffamation (ADL),
    Internet Society et la fondation Wikimedia.
  22. Citron Danielle Keats, Franks Mary Anne, « The Internet As a Speech Machine and Other Myths
    Confounding Section 230 Reform », Boston University School of Law, research paper, n° 20-8,
    ssrn.com/sol3/papers.cfm ? abstract_id=3532691, September 2022.
  23. Affaire Missouri v. Biden. Zakrzewski Cat, « Supreme Court asked to pause limits on White House
    social media requests », The Washington Post, September 14, 2023.
  24. Règlement UE 20 22/2065 du 19 octobre 2022, qui impose un devoir de vigilance aux plateformes
    numériques et les contraint à faire preuve de transparence et de diligence quant à l’impact de leurs
    algorithmes sur le système de recommandation.
  25. Outre le règlement Digital Services Act, le règlement UE 2021/784 du 29 avril 2021, qui impose
    des obligations de modération aux plateformes numériques en matière de contenu terroriste.
  26. Parmi les 34 signataires figurent les grandes plateformes en ligne, notamment Meta, Google, Twitter, TikTok et Microsoft, et toute une série de plateformes plus petites ou spécialisées, digital-strategy.ec.europa.eu/fr/policies/code-practice-disinformation.