Liberté d’expression au Royaume-Uni : cest l’affaire du parlement, et non de l’Ofcom, de juger ce qu’il est correct de publier

Le gouvernement britannique a récemment annoncé un nouveau plan pour réglementer les entreprises de médias sociaux comme YouTube, Facebook et Twitter. Les propositions donnent au régulateur des médias du gouvernement, Ofcom, des pouvoirs étendus pour dire aux géants de la technologie quel discours ils doivent supprimer – et pour les punir s’ils ne le font pas.

Ces propositions semblent avoir été attendues depuis longtemps. Il suffit de considérer le cas de YouTube. Autrefois célébré pour ses vidéos de fiançailles de mariage, de discours de remise de diplômes et de chats mignons, ses coins plus sombres ont été utilisés pour afficher des décapitations télévisées, des rassemblements de suprémacistes blancs et des incitations au terrorisme. Facebook et Twitter ont été abusés de la même manière à des fins néfastes.

Sûrement, selon l’argument, il est juste et approprié de tenir les entreprises de médias sociaux profiteurs partiellement responsables des préjudices causés par le contenu qu’elles mettent en plateforme. Se contenter de compter sur ces entreprises pour s’autoréguler n’est pas suffisant.

Mais à moins que les propositions du gouvernement ne soient radicalement révisées, elles représentent un risque important pour deux valeurs politiques fondamentales : la liberté d’expression et la démocratie.

Débutons par les risques pour la liberté d’expression. La proposition actuelle découle d’un livre blanc sur les préjudices en ligne publié en avril 2019, qui décrit de manière peu utile deux types de discours à réglementer : « les préjudices avec une définition claire » et « les préjudices avec une définition moins claire ».

Ofcom : les dix plus grands préjudices en ligne au Royaume-Uni. Ofcom

La première catégorie se concentre sur les discours qui sont pour la plupart déjà illégaux – hors ligne et en ligne. Ainsi, par exemple, la pornographie extrême (par exemple, les vidéos représentant des viols) et les discours qui incitent au terrorisme entrent dans cette catégorie. Pourtant, la deuxième catégorie est nébuleuse précisément parce qu’elle concerne des discours qui sont pour la plupart déjà légaux – comme ce qu’on appelle le « trolling », la « désinformation » et d’autres « contenus extrémistes » (bien que le livre blanc offre peu d’exemples).

Selon la proposition, les entreprises de médias sociaux seront chargées d’un « devoir de diligence » l’obligeant à restreindre la diffusion de ces deux types de contenu – l’Ofcom devant servir de juge, de jury et de bourreau.

Règle de droit

C’est la deuxième catégorie, plus nébuleuse, qui devrait troubler les défenseurs de la liberté d’expression. S’il est parfaitement légal de mettre en ligne certains discours – s’il existe de bonnes raisons de permettre aux citoyens de s’engager dans, et d’accéder à, certaines expressions sans craindre d’être sanctionnés – pourquoi ces discours devraient-ils alors faire l’objet d’une suppression (que ce soit sous la forme d’une censure pure et simple ou d’une diffusion réduite) ?

Il peut y avoir de rares cas dans lesquels une asymétrie peut être justifiée – par exemple, nous ne voudrions pas punir des adolescents perturbés qui publient des vidéos de leur propre automutilation, même si nous voudrions limiter la circulation de ces vidéos. Mais en ce qui concerne le contenu propulsé par des adultes responsables – la majorité du discours en cause ici – la symétrie devrait être la norme.

Si certains discours sont à juste titre protégés par la loi – si nous avons décidé que les adultes doivent être libres de les exprimer et d’y accéder – nous ne pouvons pas ensuite exiger que les entreprises de médias sociaux les suppriment. Sinon, nous ne faisons que restreindre la liberté d’expression par des moyens détournés.

Délicat numéro d’équilibriste : le nouveau secrétaire à la culture Oliver Dowden. Stefan Rousseau/PA Wire/PA Images

Par exemple, prenez la catégorie des « contenus extrémistes » – des contenus jugés nuisibles malgré leur légalité. Supposons que l’Ofcom suive la définition utilisée dans la stratégie Prevent du gouvernement, selon laquelle les discours critiquant les « valeurs britanniques » – comme la démocratie – sont considérés comme extrémistes. Les entreprises de médias sociaux violeraient-elles alors leur devoir de vigilance si elles ne limitaient pas la diffusion d’arguments philosophiques remettant en cause le bien-fondé de la règle démocratique ? Nous espérons que non. Mais sur la base de ce que nous savons maintenant, c’est simplement à l’Ofcom de décider.

Des rapports récents suggèrent que, en ce qui concerne les discours légaux, la proposition finale pourrait simplement insister pour que les entreprises de médias sociaux appliquent leurs propres termes et conditions. Mais cela reporte les choix difficiles sur les entreprises privées, et en fait les incite simplement à rédiger des conditions extrêmement laxistes.

Un travail pour la démocratie

Cela m’amène à ma dernière préoccupation, avec la démocratie. En tant que société, nous avons des choix difficiles à faire sur les limites de la liberté d’expression. Il existe un désaccord raisonnable sur cette question, les différentes démocraties adoptant des positions différentes. Les discours de haine, par exemple, sont illégaux en Grande-Bretagne mais largement légaux aux États-Unis. De même, les discours faisant l’apologie du terrorisme sont un crime en Grande-Bretagne, mais sont légaux aux États-Unis tant qu’ils ne présentent pas un risque élevé de causer une violence imminente.

Il est instructif que ces décisions aient été prises aux États-Unis par sa Cour suprême, qui a le dernier mot sur ce qui compte comme discours protégé. Mais en Grande-Bretagne, les règles sont différentes : c’est le pouvoir législatif, et non le pouvoir judiciaire, qui décide.

La décision de restreindre une expression nuisible nous oblige à juger quel discours a une valeur suffisamment « faible » pour la société pour que sa suppression soit acceptable. Il s’agit d’un jugement moral qui doit avoir une légitimité pour tous ceux sur qui il est appliqué. Cette tâche incombe à la démocratie. Il ne s’agit pas d’un travail pour Ofcom. Si le Royaume-Uni décide que certains discours qui sont actuellement légaux sont suffisamment nuisibles pour que le pouvoir de l’État soit utilisé pour les supprimer, le parlement doit spécifier avec précision ce que cela comprend exactement, plutôt que de laisser les régulateurs de l’Ofcom y travailler plus tard.

Le Parlement pourrait le faire, de la manière la plus évidente, en promulguant des lois pénales interdisant tout discours qu’il désire que l’Ofcom supprime (en incorporant les échappatoires pertinentes pour protéger les enfants et autres orateurs vulnérables des poursuites). Sur ce modèle, les entreprises de médias sociaux seraient chargées de supprimer les discours précisément spécifiés qui sont indépendamment illégaux, et rien de plus. Si le gouvernement n’est pas prêt à criminaliser certains discours, alors il ne devrait pas être prêt à punir les entreprises de médias sociaux pour leur avoir donné une plateforme.

Le gouvernement a raison de tenir les entreprises de médias sociaux responsables. Un modèle de devoir de diligence pourrait encore fonctionner. Mais pour protéger la liberté d’expression, et faire en sorte que les décisions les plus lourdes de conséquences aient une légitimité, les règles fondamentales – sur les propos qui peuvent être supprimés – doivent être clairement spécifiées, et autorisées, par le peuple. C’est à cela que sert le parlement.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *