Os relatórios. O Code of Practice on Disinformation da UE foi redigido em 2018 para abordar as falhas das grandes plataformas online à luz do escândalo Cambridge Analytica. Uma nova versão foi acordada em 2022, que veio com “relatórios de implementação” públicos. O primeiro lote de relatórios foi publicado em Fevereiro.
Os relatórios deveriam conter informações sobre como as grandes plataformas limitam a disseminação da desinformação nos textos e nos anúncios. Esperavam-se novos detalhes sobre os sistemas automatizados que detectam e removem o conteúdo. Foi uma decepção.
Transparência. De certa forma, os relatórios proporcionam transparência. Ou pelo menos, mostram que empresas levam o exercício a sério e quais não o fazem. A maior parte das vezes, os relatórios tendem a reformular programas ou políticas de publicidade existentes. Uma menção especial vai para a Adobe, a DoubleVerify (um fornecedor de “segurança de marca”) e o Interactive Advertising Bureau: nem sequer retiraram as instruções do modelo de relatório que a Comissão lhes deu.
Os relatórios da Meta, TikTok e Google contêm muitos números, mas permanecem não auditados e não auditáveis. Revelações anteriores de Sophie Zhang mostraram que as declarações de transparência do Facebook deveriam ser tomadas com um grão de sal do tamanho de um mamute.
Duplicidade. Os relatórios não tratam de exemplos concretos de danos. A Google, por exemplo, escreveu três páginas sobre como “querem que os consumidores tenham uma boa experiência quando clicam num anúncio”. Apenas uma semana antes, foi revelado que novas fraudes estavam presentes nos anúncios da Google, e que simples passos automatizados (que a Google não implementou) os poderiam impedir.
A Meta explica várias vezes no seu relatório que utilizam inteligência artificial não especificada para detectar conteúdos enganosos. Mas, na semana passada, um consórcio de jornalistas revelou que um canal de desinformação tinha milhares de contas automatizadas na plataforma, levantando dúvidas sobre a seriedade dos esforços da empresa. Para piorar a situação, Google e Meta despediram ambos pessoal dedicado ao combate à desinformação nos últimos meses.
Mais para vir. A adesão ao Code of Practice on Disinformation continua a ser voluntária. Pesos-pesados como a Amazon ou a Match.com (os sites de encontros são portais destacados para a desinformação) não se inscreveram.
No entanto, a tendência é clara. Os legisladores britânicos estão a pedir um código de prática para “manter os utilizadores do sexo feminino seguros online“. Mais importante, a Lei dos Serviços Digitais (DSA), numa secção que entrará em vigor no próximo ano, planeia para muitos esses relatórios. Os artigos 45º a 47º prevêem uma série de códigos de conduta, e os artigos 34º e 35º impõem relatórios anuais sobre “riscos sistémicos” para serviços online muito grandes.
Uma questão de credibilidade. Este sistema repousa na boa fé das empresas. Desintegra-se quando elas deixam de desempenhar o seu papel. O relatório de desinformação do Twitter foi correctamente apontado pelas suas lacunas. A resposta da Comissão Europeia irá definir o futuro da auto-governação para as grandes plataformas.
O DSA afirma que “em caso de incumprimento sistemático dos códigos de conduta, a Comissão… pode convidar os signatários… a tomar as medidas necessárias”. Estamos prestes a ver o que isso significa.
Artigo de Nicolas Kayser-Bril, do AlgorithmWatch (CC).