A proposta de Directiva de Serviços Digitais (Digital Services Act ou DSA) quer empurrar as plataformas online para removerem rapidamente conteúdo ilegal. Mas usa um enorme martelo num desafio mais intrincado: moderação do discurso online. O resultado esmagaria a liberdade de expressão em vez de a facilitar. (…)
A Comissão Europeia teve a ideia esperta de que o DSA que propôs em Dezembro de 2020 devia introduzir regras inteligentes para o mundo online, mas essencialmente manter os pilares que governaram como as plataformas online tratam o conteúdo gerado pelo utilizador durante duas décadas. Os fornecedores de armazenamento de conteúdos geralmente são responsáveis apenas pelo conteúdo do utilizador, se eles tiverem “conhecimento real” de qualquer conteúdo ilegal e não o removerem “de forma expedita”.
Esta regra geral é o reconhecimento de um facto difícil: num mundo no qual as pessoas carregam milhões de horas de vídeo e milhões de fotos e textos todos os dias, tornou-se impossível determinar a legalidade de cada conteúdo com certeza.
Obviamente, alguns tipos de conteúdo ilegal online são relativamente fáceis de detectar e, portanto, devem ser removidos assim que os fornecedores de armazenamento os descobrirem, mas a maioria desses casos exige uma avaliação de legalidade informada por um profissional treinado para evitar um grande número de remoções erradas.
Confiamos nos avisos dos utilizadores?
Para ajudar as empresas de armazenamento a encontrar conteúdo potencialmente ilegal nos seus sistemas, a proposta do DSA obriga-as a criar sistemas de sinalização, basicamente formulários online através dos quais qualquer pessoa pode notificar um fornecedor de armazenamento se encontrar algo que considere ser um conteúdo ilegal.
Esses sistemas de notificação são bons porque permitem que os utilizadores ajam contra conteúdo potencialmente ilegal e garantem que as plataformas não os ignoram – isto é especialmente importante quando os utilizadores são vítimas de comportamento online abusivo ou violento. Esses avisos, no entanto, não comprovam a real ilegalidade de qualquer conteúdo. Nesse estágio, são apenas alegações de ilegalidade feitas por indivíduos ou entidades aleatórias. Eles podem servir para sinalizar partes de conteúdos para investigação posterior, mas não podem ser vistos como um julgamento final.
No entanto, de alguma forma, a proposta do DSA da Comissão trata-os como prova de (ou, pelo menos, de forte evidência de) ilegalidade, propondo, no Artigo 14, que cada notificação de um utilizador deve estabelecer “conhecimento real” sob o regime de responsabilidade da DSA e, portanto, tornar imediatamente os fornecedores de armazenamento responsável pelo conteúdo notificado.
É bom recordar: qualquer pessoa pode enviar um aviso. O seu vizinho que não gosta de si no Facebook. Um “troll” aleatório da Internet que discorda dos seus tweets. Ou – se estiver nas vendas online – um vendedor concorrente do Ebay que deseja obter uma vantagem no mercado bloqueando a sua oferta. Muitos desses avisos serão errados, às vezes obviamente e noutras vezes não. Mas, de acordo com a proposta da Comissão, cada aviso criará um risco de responsabilidade incalculável para os fornecedores de armazenamento, do qual tentarão livrar-se o mais rapidamente possível. Como? Removendo o conteúdo.
Como pode o DSA evitar a remoção excessiva?
Usar a responsabilidade legal para forçar as empresas a moderar melhor o conteúdo é como usar uma marreta para escavar um antigo pedaço de madeira. Isto vai partir coisas.
Com o risco da responsabilidade às suas costas, a única reacção comercialmente racional para uma empresa de armazenamento (especialmente PMEs) é remover o conteúdo notificado e esperar que o utilizador que o carregou reclame. A proposta do DSA contém uma série de boas formas para as pessoas reclamarem das remoções indevidas de conteúdos. Mas esse tipo de abordagem “apagar primeiro, pensar depois” não devia tornar-se um procedimento operacional normalizado numa democracia que preza a liberdade de expressão como um direito fundamental.
Em vez de ameaçar os fornecedores de armazenamento com um martelo cego, o DSA deve usar uma faca afiada: é claro que estas empresas devem ser obrigadas a agir rapidamente assim que receberem um aviso sobre um conteúdo supostamente ilegal. Se elas não fizerem isso – ou ignorarem qualquer uma das outras regras no processo propostas no DSA – infringirão as suas obrigações perante a lei e estarão sujeitas a multas conforme proposto no Artigo 42 (e essas multas devem ser severas).
Além disso, o DSA deve garantir que os Estados-Membros forneçam recursos suficientes aos seus Coordenadores de Serviços Digitais nacionais, que serão responsáveis por fazer cumprir a lei dos fornecedores de plataformas. Somente com uma forte acção de fiscalização, o DSA pode tornar-se uma ferramenta eficaz para conter o poder da Big Tech e fortalecer a soberania digital da Europa. A responsabilidade automática pelo conteúdo através de avisos do utilizador, no entanto, é a ferramenta errada para o trabalho e só abrirá uma enorme porta para abusos.
* Artigo publicado pela EDRi (licença CC). Foto: wiredforlego (CC).