Le procès de l’assassinat de Samuel Paty se poursuit devant la cours d’assise spéciale de Paris. Un certain nombre d’accusés comparaissent pour avoir mené une campagne de haine sur les réseaux sociaux avant le meurtre. Depuis 2020, de nouvelles lois – européennes et françaises – sont entrées en vigueur pour lutter contre les violences en ligne. Que retenir de ces législations ? Sont-elles efficaces ? Le procès de l’assassinat de Samuel Paty a débuté lundi 4 novembre. Sur le banc des accusés se trouvent notamment ceux qui ont créé la polémique et intentionnellement faussé la réalité d’un des cours de l’enseignant portant sur la liberté d’expression. Dans une vidéo, le père d’une élève qui sera jugé durant le procès avait appelé à écrire à la direction de l’établissement « pour virer ce malade » et livrait publiquement le nom du professeur, son numéro de téléphone portable et l’adresse du collège. Les insultes, menaces et commentaires haineux contre l’enseignant et la directrice du collège inondèrent les réseaux sociaux Facebook, WhatsApp, Instagram, Twitter, Snapchat, YouTube, TikTok, Google… devenus de véritables tribunaux virtuels. Suite à l’émoi suscité par ces événements, la France a adopté en 2021 plusieurs lois pour contrer la haine en ligne, notamment l’article surnommé « Samuel Paty » de la loi sur le respect des principes de la République qui criminalise les actes d’intimidation et d’entrave au travail des enseignants par la diffusion de messages haineux.
par Nathalie Devillier Docteur en droit international, Auteurs historiques The Conversation France
Plus largement, ces dernières années, de multiples initiatives législatives, à l’échelle française et européenne ont cherché à responsabiliser les plates-formes de contenus, les réseaux sociaux mais aussi les utilisateurs pour limiter les impacts de la violence en ligne.
Entré en vigueur en 2023, le Règlement européen sur les services numériques (Digital Services Act, DSA) a notamment pour objectif d’endiguer la viralité de contenus violents pour éviter d’y exposer les utilisateurs. Il exige aussi la publication de rapports de transparence par les réseaux sociaux et plates-formes de partage tels que Facebook, Google Search, Instagram, LinkedIn, Pinterest, Snapchat, TikTok, X (anciennement Twitter) et YouTube.
En vertu de ce texte, les réseaux sociaux doivent aussi donner des informations sur leurs équipes de modération de contenu, mettre en place des mécanismes de signalement des contenus illicites et fournir des informations sur le fonctionnement de leurs algorithmes de recommandation.
Ce partage d’informations sur le fonctionnement des algorithmes devrait permettre aux utilisateurs de mieux comprendre et contrôler ce qu’ils voient en ligne. Il est surtout utile pour le Centre européen pour la transparence algorithmique qui contrôle l’application du règlement.
Un outil de dénonciation permettant aux employés ou autres lanceurs d’alerte de signaler les pratiques nuisibles des très grandes plates-formes en ligne et des moteurs de recherche a été mis en place.
Avant ces nouvelles mesures, ces entreprises n’étaient soumises qu’à un code de conduite non juridiquement contraignant et dont les résultats avaient atteints leurs limites.
Comment évaluer l’efficacité de ces mesures ? Nous le saurons bientôt, la Commission européenne a ouvert, le 18 décembre 2023 une procédure contre X (ex-Twitter) après avoir mené une enquête préliminaire pour non respect de l’obligation de transparence et des défaillances dans la modération de contenus. X interdit aussi aux chercheurs éligibles d’accéder de manière indépendante à ses données conformément au règlement. La société encourt une amende pouvant aller jusqu’à 6 % de son chiffre d’affaires mondial et, en cas de manquements répétés, elle peut voire l’accès à son service restreint dans l’Union européenne.
Aujourd’hui, l’épée de Damoclès des sanctions financières et surtout le blocage du service sur le territoire européen font peser un risque économique et réputationnel que les plates-formes souhaitent éviter. Plusieurs procédures formelles ont été lancées par la Commission européenne contre le réseau social X en 2023, TikTok, AliExpress et Meta cette année.
En France, la loi « Sécuriser et Réguler l’Espace Numérique » (SREN) promulguée en mai 2024 sanctionne les plates-formes qui échouent à retirer les contenus illicites dans un délai rapide (75 000 euros d’amende) et met aussi en place des mécanismes pour mieux sensibiliser et protéger les utilisateurs contre les dangers en ligne.
Cela se traduit par l’information des collégiens en milieu scolaire et des parents en début d’année. Une réserve citoyenne du numérique (rattachée à la réserve civique) est également instaurée avec pour but lutter contre la haine dans l’espace numérique et à des missions d’éducation, d’inclusion et d’amélioration de l’information en ligne. Ce dispositif qui constitue un moyen officiel d’alerte auprès du procureur de la République aurait été le bienvenu il y a 4 ans, au moment de l’affaire Paty. À l’époque, seuls la médiation scolaire et le référent laïcité du rectorat avaient été actionnés, sans effet.
Les plates-formes en ligne ont des obligations légales croissantes issues du règlement européen et de la loi SREN pour prévenir et réagir au cyberharcèlement et aux contenus illicites, avec une responsabilité à plusieurs niveaux.
L’obligation de modération proactive signifie que les plates-formes doivent mettre en place des systèmes pour détecter, signaler et retirer rapidement les contenus haineux, violents, ou incitant au cyberharcèlement. C’est l’ARCOM (Autorité de régulation de la communication audiovisuelle et numérique) qui veille à ce que les éditeurs et fournisseurs de services d’hébergement de sites retirent effectivement ces contenus et conduit des audits pour vérifier la conformité aux règles. Cette obligation, issue du règlement européen sur les services numériques et de la loi SREN, sera mise en œuvre grâce à la publication d’un rapport annuel le nombre de signalements effectués. À ce jour, le premier rapport n’a pas été publié.
Les hébergeurs qui ont connaissance du caractère illicite du contenu et qui n’informent pas les autorités compétentes, par exemple, le procureur de la République, ni bloqué l’accès à cette publication, encourent des sanctions allant jusqu’à 250 000 euros d’amende et un an d’emprisonnement pour le dirigeant.
Les plates-formes doivent également sensibiliser leurs utilisateurs aux risques de cyberharcèlement et fournir des outils pour signaler facilement les contenus et comportements nuisibles. C’est le cas par exemple sur X, Facebook, Instagram.
En France, le cyberharcèlement est un délit sévèrement puni par des lois visant à lutter contre le harcèlement moral et les actes répétés de violence en ligne, notamment sur les réseaux sociaux. Une personne coupable de harcèlement moral encourt jusqu’à deux ans d’emprisonnement et 30 000 € d’amende. Si la victime est mineure, ces peines sont alourdies à trois ans de prison et 45 000 € d’amende. Des peines plus graves peuvent s’appliquer en cas d’incapacité de travail de la victime ou si les actes conduisent au suicide ou à la tentative de suicide, avec une sanction maximale de dix ans d’emprisonnement et 150 000 € d’amende.
Pour protéger les victimes de harcèlement groupé, en 2018 la loi Schiappa avait introduit un délit de « harcèlement en meute » ou raid numérique, visant à pénaliser les attaques concertées de multiples internautes contre une victime, même si chaque participant n’a pas agi de façon répétée.
La loi SREN prévoit également que les personnes reconnues coupables de cyberharcèlement peuvent se voir interdites de réseaux sociaux pendant six mois ou un an en cas de récidive. Ce bannissement inclut la création de nouveaux comptes durant la période d’interdiction. Les plates-formes risquent des amendes allant jusqu’à 75 000 € si elles ne bannissent pas les utilisateurs condamnés pour cyberharcèlement ou ne bloquent pas la création de nouveaux comptes pour les récidivistes.