O governo do Reino Unido anunciou recentemente um novo plano para regular empresas de comunicação social como o YouTube, Facebook e Twitter. As propostas dão ao regulador dos media do governo, Ofcom, amplos poderes para dizer aos gigantes da tecnologia que discurso devem suprimir – e para os punir se não o fizerem.
Estas propostas parecem há muito atrasadas. Basta considerar o caso do YouTube. Uma vez celebrados pelos seus vídeos de compromissos de casamento, discursos de graduação e gatos giros, os seus cantos mais escuros foram usados para exibir decapitações televisivas, comícios de supremacia branca e incitação terrorista. O Facebook e o Twitter têm sido igualmente abusados para fins nefastos.
Seguramente, o argumento vai, é adequado e apropriado responsabilizar parcialmente as empresas de comunicação social que lucram com os danos causados pelo conteúdo da sua plataforma. Confiar simplesmente nestas empresas para se auto-regularem não é suficiente.
Mas a menos que as propostas do governo sejam drasticamente revistas, elas representam um risco significativo para dois valores políticos fundamentais: liberdade de expressão e democracia.
Comece com os riscos para a liberdade de expressão. A proposta actual deriva de um Livro Branco Online Harms White Paper publicado em Abril de 2019, o qual descreve inutilmente dois tipos de discurso a ser regulamentado: “danos com uma definição clara” e “danos com uma definição menos clara”.
A primeira categoria centra-se na fala que na sua maioria já é ilegal – offline e online. Assim, por exemplo, a pornografia extrema (por exemplo, vídeos que retratam violações) e a fala que incita ao terrorismo enquadram-se nesta categoria. No entanto, a segunda categoria é nebulosa precisamente porque diz respeito ao discurso que na sua maioria já é legal – como o chamado “trolling”, “desinformação” e outros “conteúdos extremistas” (embora o Livro Branco ofereça poucos exemplos).
Até ao abrigo da proposta, as empresas de comunicação social serão incumbidas de um “dever de cuidado”, exigindo-lhe que restrinja a distribuição de ambos os tipos de conteúdo – com o Ofcom a servir de juiz, júri e executor.
Regra de lei
É a segunda categoria, mais nebulosa, que deverá incomodar os defensores da liberdade de expressão. Se é perfeitamente legal afixar determinado discurso em linha – se há uma boa razão para permitir aos cidadãos o envolvimento e o acesso a determinada expressão sem medo de penalização – por que razão deveria tal discurso ser então sujeito a supressão (seja sob a forma de censura directa ou de disseminação reduzida)?
Pode haver casos raros em que uma assimetria possa ser justificada – por exemplo, não quereríamos punir adolescentes perturbados que afixem vídeos da sua própria auto-flagelação, mesmo que quiséssemos limitar a circulação desses vídeos. Mas com respeito ao conteúdo proposto por adultos responsáveis – a maioria do discurso aqui em questão – a simetria deveria ser a norma.
Se determinado discurso estiver correctamente protegido pela lei – se decidimos que os adultos devem ser livres de o expressar e aceder a ele – não podemos então exigir que as empresas de comunicação social o reprimam. Caso contrário, estamos simplesmente a restringir a liberdade de expressão através da porta das traseiras.
Por exemplo, pegue na categoria de “conteúdo extremista” – conteúdo considerado prejudicial apesar de ser legal. Suponha-se que o Ofcom seguiria a definição utilizada na estratégia de prevenção do governo, em que o discurso crítico dos “valores britânicos” – como a democracia – conta como extremista. Estariam então as empresas de comunicação social a violar o seu dever de cuidado, se não conseguissem limitar a distribuição de argumentos filosóficos que desafiam a sabedoria do regime democrático? Esperamos que não. Mas com base no que sabemos agora, cabe simplesmente à Ofcom decidir.
Os relatórios recentes sugerem que, em relação ao discurso legal, a proposta final pode simplesmente insistir que as empresas de comunicação social façam cumprir os seus próprios termos e condições. Mas isto passa as escolhas difíceis para as empresas privadas, e na verdade simplesmente encoraja-as a escrever termos extremamente laxistas.
Um trabalho para a democracia
Isto leva à minha preocupação final, com a democracia. Como sociedade, temos escolhas difíceis a fazer acerca dos limites da liberdade de expressão. Há um desacordo razoável sobre esta questão, com democracias diferentes a tomarem posições diferentes. O discurso do ódio, por exemplo, é ilegal na Grã-Bretanha, mas amplamente legal nos EUA. Da mesma forma, o discurso que defende o terrorismo é um crime na Grã-Bretanha, mas é legal nos EUA desde que não represente um risco elevado de causar violência iminente.
É instrutivo que estas decisões tenham sido tomadas nos EUA pelo seu Supremo Tribunal, que tem a última palavra sobre o que conta como discurso protegido. Mas na Grã-Bretanha, as regras são diferentes: o legislador, não o judiciário, decide.
A decisão de restringir a expressão prejudicial exige que julguemos qual é o discurso de valor suficientemente “baixo” para a sociedade para que a sua supressão seja aceitável. Exige um juízo moral que deve ter legitimidade para todos aqueles sobre os quais é aplicado. Este é um trabalho para a democracia. Não é um trabalho para o Ofcom. Se o Reino Unido decidir que algum discurso que é actualmente legal é suficientemente prejudicial para que o poder do Estado seja utilizado para o suprimir, o parlamento deve especificar com precisão o que é exactamente isto, em vez de o deixar para ser trabalhado mais tarde pelos reguladores Ofcom.
O Parlamento poderia fazer isto, muito obviamente, promulgando estatutos criminais proibindo qualquer discurso que desejasse que o Ofcom suprimisse (incorporando as lacunas relevantes para proteger as crianças e outros oradores vulneráveis da acusação). Neste modelo, as empresas de comunicação social seriam encarregadas de suprimir discursos especificados com precisão, que são independentemente ilegais, e não mais. Se o governo não está preparado para criminalizar determinado discurso, então não deve estar preparado para punir as empresas de comunicação social por lhe dar uma plataforma.
O governo tem razão em responsabilizar as empresas de meios de comunicação social. Um modelo de dever de cuidado poderia ainda funcionar. Mas para proteger a liberdade de expressão, e assegurar que as decisões de maior consequência tenham legitimidade, as regras fundamentais – sobre que discurso pode ser suprimido – devem ser claramente especificadas, e autorizadas, pelo povo. É para isso que serve o parlamento.