Archive pour le Tag 'Avia)'

La loi Avia : pour lutter contre la haine ou installer la censure ?

La loi Avia : pour lutter contre la haine ou installer la censure ?

L’élargissement du champ de la loi dite Avia sur la haine en ligne provoque de nombreuses réactions négatives car l’objet même de la loi devient confus et risque d’entraîner un vaste phénomène de censure. Certaines plateformes pour éviter les risques juridiques pouvant systématiquement éliminer des contenus douteux ou supposés comme tels. Pas forcément d’ailleurs des contenus liés à la haine en ligne et qui restreindrait de façon considérable la liberté d’expression des internautes. Bref on s’interroge pour savoir si la loi Avia est bien l’outil destiné  à lutter contre la haine en ligne ou à installer une forme de censure. Rappelons aussi que le gouvernement a tenté à plusieurs reprises d’intervenir pour essayer d’ interdire un sujet tout aussi délicat : les » fausses nouvelles ».

La mesure phare de la proposition de loi de la députée LREM Laetitia Avia prévoyait à l’origine d’obliger les plateformes Internet à retirer en moins de 24 heures les contenus haineux signalés par les autorités ou par le public. Mais des  députés ont élargi sa protée en proposant une série d’amendements. Les députés proposent ainsi d’étendre l’obligation de retrait en moins de 24 heures pour des infractions comme le harcèlement sexuel, la traite des êtres humains, le proxénétisme, la mise à disposition de mineurs à contenus pornographiques ou encore l’apologie du terrorisme. Les réseaux sociaux ne sont également plus les seules plateformes concernées : un amendement veut aussi soumettre à la loi les moteurs de recherche, pour déréférencer le contenu problématique. Pour Salwa Toko, la présidente du Conseil national du numérique (instance consultative qui rassemble à la fois acteurs associatifs et professionnels de l’internet), le texte ne parvient pas à bien clarifier quels contenus les plateformes doivent accepter, et quels contenus elles doivent refuser. La proposition de loi « ne donne pas une définition juridique et bien précise », souligne-t-elle. Elle rejoint les acteurs professionnels sur l’avis que ce n’est pas à Facebook, Twitter, YouTube ou Google de déterminer ce qui censurable et ce qui ne l’est pas. « Nous regrettons que le pouvoir judiciaire ne soit pas plus mis en avant et ne soit pas plus renforcé. On se demande s’il n’y a pas là un glissement de responsabilité étatique qui est en train de se mettre en place, au profit des acteurs économiques » que sont les grandes plateformes internet, a-t-elle ajouté.

Contre la haine sur internet (Laetitia Avia)

Contre la haine sur internet  (Laetitia Avia)

La député Laetitia Avia  rend compte dans une  interview du JDD de son rapport sur la lutte contre la haine sur internet.

Le secrétaire d’Etat au Numérique, Mounir Mahjoubi, a dit à propos de votre rapport : c’est « plus de transparence, des sanctions plus élevées et plus de condamnations ». Un bon résumé?
Oui. Il faut mettre fin au sentiment d’impunité qu’on a aujourd’hui sur Internet. Le point de départ de la réflexion a été d’en finir avec ce mythe selon lequel Internet, et en particulier les réseaux sociaux, n’est pas la vraie vie. En réalité, on y passe plus de temps qu’en interaction dite « réelle ». L’objectif est d’y rétablir l’état de droit et du civisme sur Internet.

Dans ce rapport, plusieurs mesures concernent directement les plateformes?
Plusieurs éléments concernent les « grosses plateformes », à savoir celles qui ont une capacité à créer de la viralité. Ce qu’on appelle dans le rapport les « accélérateurs de contenus » : ce sont les gros réseaux sociaux comme Facebook, Twitter, Instagram… Notre approche est bien sûr de viser ces sites, mais cette nouvelle réglementation doit aussi pouvoir concerner des outils qui n’existent pas encore. Ce rapport doit encore pouvoir s’appliquer dans vingt ans. Aujourd’hui, la directive e-commerce a été créée [en 2004, NDLR] à une époque où Facebook n’existait pas encore en France, c’est pour ça qu’elle peut parfois être inadaptée.

Ces « accélérateurs » devront retirer un contenu illicite sous 24 heures…
Nous préconisons une obligation de retrait [d'un contenu raciste] sous 24 heures. Deux possibilités : soit ils suppriment car c’est manifestement illicite ; soit il y a un doute et ils mettent ce contenu dit « gris » sous quarantaine – la publication disparaît et arrête de nuire – dans ce délai de 24 heures. Il revient ensuite à une autorité administrative dédiée d’arbitrer le caractère raciste ou non de ce contenu. Elle devra juger rapidement, en quelques jours. Car si jamais cette publication n’est pas illicite, il ne faut pas non plus qu’elle devienne obsolète.

Et en cas de non-respect, les amendes seront-elles augmentées?
Nous sommes actuellement sur des sommes dérisoires. Nous prônons dans le rapport de les multiplier par 100. Elles s’appliquent à chaque fois que les obligations des plateformes ne sont pas respectées. Et ce, dans deux cas de figure :

  • quand les contenus illicites ne sont pas retirés ;
  • quand les plateformes ne répondent pas à certaines obligations, notamment relatives aux réquisitions judiciaires.

Aujourd’hui, lorsqu’on a des auteurs anonymes, on demande des informations à Facebook, Twitter… pour les identifier ; mais ils ne répondent pas car ils risquent éventuellement 370.000 euros d’amende. Ça coute en réalité bien plus à la justice française d’engager cette procédure que d’obtenir gain de cause. En multipliant par 100 ces amendes, les portant ainsi à 37,5 millions d’euros, nous ne sommes toujours pas au seuil de la loi allemande qui prévoit une amende de 50 millions d’euros.

Que prévoit votre rapport côté utilisateur?
Les plateformes affirment leurs bonnes intentions. Mais il faut voir si elles sont réellement prêtes à évoluer, notamment avec la mise en place d’un mécanisme de signalement uniformisé via un bouton unique. C’est une simplification de l’expérience utilisateur qui pourra se dire : « Je vois ce bouton sur tous les sites Internet et je sais que c’est là qu’on va pouvoir traiter ma demande. » Les mécanismes de signalement actuels parfois décourageants ; il faut parfois aller jusqu’à faire un recommandé… Ce bouton sera contraignant pour les plateformes puisque cela touche à leur architecture, mais c’est mettre des actes sur la bonne volonté affichée.

 

Il ne faut pas non plus qu’il soit pénible lorsqu’on est victime de contenus racistes ou antisémites d’engager des poursuites. Actuellement, le mécanisme de signalement est très lourd et il faut se rendre au commissariat pour déposer plainte. Il faut que les victimes puissent déposer plainte en ligne. Si les choses fonctionnent comme nous le souhaitons, il va y avoir beaucoup plus de plaintes qu’aujourd’hui. Il faudra les traiter avec le recours à l’ordonnance pénale : un juge – sans audience – va traiter plus rapidement les affaires, sachant qu’elles restent bien sûr susceptibles de recours.

On a des mesures. Maintenant, cela reste un rapport. Concrètement, comment fait-on et à partir de quand cela change?
Le Premier ministre a indiqué qu’il souhaitait mettre en œuvre les préconisations du rapport au début de l’année 2019. Le véhicule législatif n’a pas encore été décidé. Mais en tant que parlementaire, j’aimerais beaucoup que ce soit une proposition de loi portée par la majorité. D’ici là, il y a en novembre les Etats généraux du numérique. On a laissé deux éléments sur lesquels il faudra préciser les choses : la définition de « l’accélérateur de contenu » et le montant de l’amende. Nous avons tapé fort avec le x100. C’est un choix que nous assumons. Il faudra voir comment cela sera perçu par les acteurs. En France, il faut que cela change en 2019. A l’échelle européenne, cela sera plus long, mais les positions allemande et française enclencheront des discussions sur ces sujets.




L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Créer un blog | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol