O Digital Services Act deve promover um ambiente digital aberto e justo, não prejudicar o Estado de direito, salienta a EDRi. Também a regulamentação sobre conteúdos terroristas nas plataformas online precisa de ser esclarecida, defende a Tech Against Terrorism.

Segundo a primeira organização, o relator do Comité do Parlamento Europeu que lidera uma das iniciativas jurídicas mais importantes para regulamentar as plataformas, falou. O projecto de relatório do Comité do Mercado Interno e Protecção do Consumidor (Internal Market and Consumer Protection ou IMCO) refere que o Digital Services Act (DSA) transforma as plataformas online em juiz, júri e executor quando se trata de remover conteúdo online. Isto segue a mesma lógica das Copyright Guidelines apresentadas recentemente [e do projecto de relatório do Committee on Civil Liberties, Justice and Home Affairs ou do relatório do “think tank” Stiftung Neue Verantwortung.]

Também confere vastos poderes à Comissão Europeia e aos governos nacionais para suprimir as vozes da oposição.

O relatório preliminar propõe novas disposições para ordenar às plataformas online que façam avaliações de legalidade para milhares ou mesmo dezenas de milhar de conteúdos todos os dias, sem qualquer escrutínio público ou transparência. O relatório sugere que essas decisões devem ser tomadas em menos de 24 horas, caso o conteúdo possa prejudicar a “política pública”, entre outros. O termo política pública permanece indefinido, o que gera grande preocupação em termos de possíveis abusos, principalmente por parte das autoridades estatais. Isso é particularmente preocupante para a sociedade civil, defensores dos direitos humanos, jornalistas e opositores políticos.

Disposições semelhantes no passado demonstraram que, quando as plataformas online enfrentam a ameaça de responsabilidade legal, isso leva à remoção excessiva de conteúdo com pouca consideração pelos direitos fundamentais. É por isso que tais disposições foram declaradas inconstitucionais em França e noutros países.

“A remoção de conteúdo em 24 horas por ‘danos à política pública’ e conceitos vagos semelhantes permitiriam aos governos suprimir qualquer conteúdo antagónico que desejem – sem escrutínio público ou transparência”, refere Jan Penfrat, conselheiro de política sénior da European Digital Rights (EDRi).

O projecto de relatório propõe protecções especiais para políticos e outras “contas de interesse público”. Antes de as suspender, as plataformas seriam obrigadas a obter a aprovação de uma autoridade judicial. Não é claro o que será considerado uma “conta de interesse público”. O relatório reconhece assim que as plataformas da Big Tech não podem ser confiáveis ​​para tomar esse tipo de decisão de forma fiável sem supervisão judicial, mas sujeita o resto da população exactamente a isso.

“Os políticos que disseminam desinformação ou injúrias não devem ter protecção especial extraída de decisões arbitrárias da plataforma”, argumenta Penfrat.

Conforme defendido pela EDRi, em vez de propor medidas excessivamente restritivas que possam prejudicar o estado de direito e os direitos fundamentais, o DSA deve estabelecer regras e procedimentos claros para promover um ambiente digital saudável, aberto e justo. A lei deve contribuir para reduzir o poder que a Big Tech tem sobre as nossas vidas, não reforçá-lo, salienta.

Na sua resposta ao regulamento sobre a prevenção da disseminação de conteúdo terrorista online, também a Tech Against Terrorism requer várias clarificações sobre o documento.

A sua aprovação foi anunciada a 28 de Abril pelo Parlamento da UE. A 7 de Junho, a lei entrou em vigor e deverá ser aplicada a partir de 7 de Junho de 2022. Esta “obriga as empresas de tecnologia a remover conteúdo terrorista no tempo de uma hora após as ordens de remoção das chamadas autoridades competentes. Estes organismos, que cada Estado-Membro designará, têm também o direito de instruir as empresas a introduzir ‘medidas específicas’ para combater o conteúdo terrorista e a aplicar sanções financeiras se as empresas não cumprirem o regulamento. As empresas que não estão sediadas na UE terão de nomear um representante legal com sede na região. As empresas e autoridades competentes deverão emitir relatórios de transparência sobre os seus esforços para cumprir a regulamentação. O não cumprimento das obrigações pode acarretar penalidades financeiras para as empresas responsáveis, e o não cumprimento do prazo de remoção numa hora pode levar a uma penalidade de quatro por cento da facturação global da empresa”, refere a Tech Against Terrorism.

Entre vários assuntos essenciais para entender o funcionamento desta regulamentação, que “permanecem vagos”, e a um ano até que se inicie a aplicação da lei, a organização pede à UE esclarecimentos “sobre três questões principais:
– Que apoio irá a UE fornecer às pequenas empresas de tecnologia que provavelmente terão dificuldade em cumprir o regulamento e a iniciativas que apoiem as pequenas empresas no desenvolvimento de capacidades contra a exploração terrorista das suas plataformas?

– Como irá a UE fornecer segurança jurídica às plataformas que trabalham para cumprir o regulamento?

– Que salvaguardas serão introduzidas para garantir que as autoridades competentes não abusam do seu estatuto ou sejam instrumentalizadas para fins políticos?”

* Texto e imagem da EDRi em CC.