La libertà di parola nel Regno Unito: è compito del parlamento, non di Ofcom, giudicare cosa è giusto pubblicare

Il governo britannico ha recentemente annunciato un nuovo piano per regolare le società di social media come YouTube, Facebook e Twitter. Le proposte danno al regolatore dei media del governo, Ofcom, ampi poteri per dire ai giganti tecnologici quale discorso devono sopprimere – e per punirli se non lo fanno.

Queste proposte sembrano attese da tempo. Basta considerare il caso di YouTube. Una volta celebrato per i suoi video di fidanzamenti, discorsi di laurea e gatti carini, i suoi angoli più oscuri sono stati usati per mostrare decapitazioni televisive, raduni di supremazia bianca e incitamento al terrorismo. Facebook e Twitter sono stati analogamente abusati per fini nefasti.

Sicuramente, l’argomentazione va avanti, è giusto e corretto ritenere le aziende di social media a scopo di lucro in parte responsabili dei danni causati dai contenuti che essi ospitano. Ma a meno che le proposte del governo non vengano drasticamente riviste, esse rappresentano un rischio significativo per due valori politici fondamentali: la libertà di parola e la democrazia.

Partiamo dai rischi per la libertà di parola. L’attuale proposta deriva da un Libro Bianco sui danni online pubblicato nell’aprile 2019, che delinea in modo poco utile due tipi di discorso da regolare: “danni con una definizione chiara” e “danni con una definizione meno chiara”.

Ofcom: i dieci maggiori danni online in UK. Ofcom

La prima categoria si concentra sul discorso che è per lo più già illegale – offline e online. Così, per esempio, la pornografia estrema (per esempio, i video che rappresentano lo stupro) e il discorso che incita al terrorismo rientrano in questa categoria. Ma la seconda categoria è nebulosa proprio perché riguarda il discorso che è per lo più già legale – come il cosiddetto “trolling”, “disinformazione” e altri “contenuti estremisti” (anche se il libro bianco offre pochi esempi).

Secondo la proposta, le aziende di social media saranno incaricate di un “dovere di cura” che richiede di limitare la distribuzione di entrambi i tipi di contenuti – con Ofcom a servire come giudice, giuria e boia.

Regole di legge

È la seconda, più nebulosa categoria che dovrebbe preoccupare i difensori della libertà di parola. Se è perfettamente legale pubblicare certi discorsi online – se c’è una buona ragione per permettere ai cittadini di impegnarsi in certe espressioni e di accedervi senza timore di sanzioni – perché tali discorsi dovrebbero poi essere soggetti a soppressione (sotto forma di censura vera e propria o di riduzione della diffusione)?

Ci possono essere rari casi in cui un’asimmetria può essere giustificata – per esempio, non vorremmo punire adolescenti problematici che pubblicano video del proprio autolesionismo, anche se vorremmo limitare la circolazione di questi video. Ma per quanto riguarda i contenuti proposti da adulti responsabili – la maggior parte del discorso in questione qui – la simmetria dovrebbe essere la norma.

Se un certo discorso è giustamente protetto dalla legge – se abbiamo deciso che gli adulti devono essere liberi di esprimerlo e di accedervi – non possiamo poi pretendere che le aziende di social media lo sopprimano. Altrimenti stiamo semplicemente limitando la libertà di parola dalla porta di servizio.

Delicato atto di bilanciamento: il nuovo segretario alla cultura Oliver Dowden. Stefan Rousseau/PA Wire/PA Images

Per esempio, prendiamo la categoria dei “contenuti estremisti” – contenuti giudicati dannosi nonostante siano legali. Supponiamo che Ofcom segua la definizione usata nella strategia Prevent del governo, per cui il discorso critico dei “valori britannici” – come la democrazia – conta come estremista. Le aziende di social media violerebbero il loro dovere di cura, allora, se non riuscissero a limitare la distribuzione di argomenti filosofici che sfidano la saggezza della regola democratica? Speriamo di no. Ma sulla base di quello che sappiamo ora, sta semplicemente all’Ofcom decidere.

Recenti rapporti suggeriscono che, per quanto riguarda il discorso legale, la proposta finale potrebbe semplicemente insistere che le aziende di social media facciano rispettare i propri termini e condizioni. Ma questo passa le scelte difficili alle aziende private, e in effetti le incentiva semplicemente a scrivere termini estremamente permissivi.

Un lavoro per la democrazia

Questo porta alla mia preoccupazione finale, con la democrazia. Come società, abbiamo scelte difficili da fare sui limiti della libertà di espressione. C’è un ragionevole disaccordo su questo tema, con diverse democrazie che prendono posizioni diverse. Il discorso dell’odio, per esempio, è illegale in Gran Bretagna ma ampiamente legale negli Stati Uniti. Allo stesso modo, il discorso che sostiene il terrorismo è un crimine in Gran Bretagna, ma è legale negli Stati Uniti finché non pone un alto rischio di causare violenza imminente.

È istruttivo che queste decisioni siano state prese negli Stati Uniti dalla Corte Suprema, che ha l’ultima parola su ciò che conta come discorso protetto. Ma in Gran Bretagna, le regole sono diverse: è il legislatore, non la magistratura, a decidere.

La decisione di limitare l’espressione dannosa ci richiede di giudicare quale discorso è di “basso valore” per la società in modo che la sua soppressione sia accettabile. Richiede un giudizio morale che deve avere legittimità per tutti coloro sui quali viene applicato. Questo è un lavoro per la democrazia. Non è un lavoro per Ofcom. Se il Regno Unito decide che alcuni discorsi che sono attualmente legali sono sufficientemente dannosi che il potere dello stato dovrebbe essere usato per sopprimerli, il parlamento deve specificare con precisione cosa esattamente questo comprende, piuttosto che lasciare che venga elaborato in seguito dai regolatori Ofcom.

Il Parlamento potrebbe farlo, ovviamente, emanando statuti penali che vietino qualsiasi discorso che desidera che Ofcom sopprima (incorporando le relative scappatoie per proteggere i bambini e altri oratori vulnerabili dalla persecuzione). Su questo modello, le aziende di social media sarebbero incaricate di sopprimere precisamente il discorso specificato che è indipendentemente illegale, e niente di più. Se il governo non è preparato a criminalizzare certi discorsi, allora non dovrebbe essere preparato a punire le aziende di social media per avergli dato una piattaforma.

Il governo ha ragione a ritenere le aziende di social media responsabili. Un modello di dovere di cura potrebbe ancora funzionare. Ma per proteggere la libertà di parola, e assicurare che le decisioni delle maggiori conseguenze abbiano legittimità, le regole fondamentali – su quale discorso può essere soppresso – devono essere chiaramente specificate, e autorizzate, dal popolo. È a questo che serve il parlamento.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *