A maioria de nós está actualmente muito tempo nos media sociais. Estes têm sido fundamentais na divulgação de informações erradas sobre o COVID-19, mas também fornecem acessos a pessoas em todo o mundo na captação de recursos e de ofertas de ajuda para grupos de risco que não podem fazer compras ou comprar os seus remédios. Também convenceu alguns a levar a sério a pandemia. Num exemplo particularmente comovente, num vídeo com mais de 5 milhões de visualizações no YouTube, os italianos gravaram “uma mensagem para eles mesmos há 10 dias”.

Mas se esteve no Facebook, é provável que tenha visto recentemente pessoas a reclamar como os seus textos estavam a ser removidos e classificados como spam. (1) Essas remoções seriam um problema na melhor das hipóteses mas, actualmente, podem ser mortais. O único comentário do Facebook sobre isso foi um tuíte do vice-presidente de integridade Guy Rosen a dizer que se tratava de um bug no software anti-spam e que entretanto foi corrigido. Curiosamente, parece que as queixas de remoções diminuíram mas nós estamos preocupados que isto seja apenas o começo.

Em Março, YouTube, Twitter e Facebook anunciaram que estavam a aumentar a dependência da moderação automatizada dos conteúdos. Isso significa que vão usar mais inteligência artificial (IA) e a remover humanos do processo. Uma razão para isso é porque os moderadores de conteúdo, que geralmente não são funcionários directos, não podem trabalhar remotamente, pelo menos no caso do YouTube e do Facebook [uma alteração recente a esta política foi abordada em “Weeks After PTSD Settlement, Facebook Moderators Ordered to Spend More Time Viewing Online Child Abuse“]. Esse é o assunto de todo um texto do blogue – foi errado forçar a entrada de moderadores de conteúdo quando a pandemia já estava em andamento, mas também é errado que esses trabalhadores sejam empregados de empresas como a Accenture, contratadas por gigantes da tecnologia, e que os processos de moderação de conteúdo sejam tão opacos que o seu trabalho é inerentemente envolto em segredo. Eles devem ser funcionários directos, com os salários e benefícios advindos do trabalho para gigantes da tecnologia, e devem poder trabalhar remotamente.

À medida que as plataformas aumentam a sua dependência da IA ​​neste momento crítico, estamos a prestar muita atenção a todas as principais plataformas para ver se as remoções de conteúdo de direitos humanos aumentam. Há muito que falamos desse problema em conjunto com os nossos parceiros do Syrian Archive. A moderação automatizada de conteúdo não está a funcionar. Não há razão para esperar que funcione agora, rapidamente. (Se vir grandes quantidades de conteúdos a serem removidos, contacte-nos. Esperamos que o fornecimento de exemplos de remoções inadequadas possa ajudar a melhorar a IA de cada empresa). A longo prazo, esperamos que fique claro que simplesmente mudar para uma moderação automatizada não é tão bom quanto as empresas querem fazer parecer.

Dito isto, os anúncios do YouTube e do Twitter eram relativamente claros sobre o que significa o aumento do uso da IA e, pelo menos, eles não estão a tratar essas remoções como se fossem fiáveis. Não são. O YouTube observou: “os sistemas automatizados vão começar a remover algum conteúdo sem revisão humana”. Um texto no blogue da empresa explicou:

Ao fazer isto, utilizadores e criadores podem ver um aumento nas remoções de vídeos, incluindo alguns vídeos que podem não violar as políticas. Não emitiremos avisos sobre esse conteúdo, excepto nos casos em que tenhamos muita confiança de que seja violador [dessas regras]. Se os criadores acharem que o seu conteúdo foi removido por engano, eles poderão recorrer da decisão e as nossas equipas irão analisar o problema. No entanto, note que as nossas precauções na força de trabalho também resultam em análises de recurso atrasadas.

O anúncio do Twitter foi semelhante, embora tenha notado apenas que não iria suspender permanentemente as contas:

Aumentar o uso da aprendizagem por máquina e automação para executar uma ampla gama de acções em conteúdo potencialmente abusivo e manipulador. Queremos ser claros: enquanto trabalhamos para garantir que os nossos sistemas sejam consistentes, às vezes eles podem não ter o contexto que as nossas equipas trazem, e isso pode resultar em erros. Em resultado disso, não suspenderemos permanentemente nenhuma conta com base apenas nos nossos sistemas de análise automatizada.

Infelizmente, o Facebook foi menos promissor. Isso é particularmente perturbador, porque agora, mais do que nunca, o Facebook é a lendária “praça pública”; é o lugar em que as pessoas se reúnem virtualmente para partilhar informações, mas também para se confortar umas às outras e até para agir e organizar. Eis o que disse o Facebook:

Dadas as crescentes preocupações com a saúde pública, estamos a tomar medidas adicionais para proteger as nossas equipas e trabalharemos com os nossos parceiros ao longo desta semana para enviar todos os contratados que realizam a revisão de conteúdo para casa, até novo aviso… Com menos pessoas disponíveis para a revisão humana, continuaremos a dar prioridade a danos iminentes e a aumentar a nossa dependência da detecção pró-activa noutras áreas para remover o conteúdo violador. Não esperamos que isso cause impacto de maneira perceptível nas pessoas que usam a nossa plataforma. Dito isto, pode haver algumas limitações a esta abordagem e podemos ver alguns tempos de resposta mais longos e cometer mais erros em resultado disto.

Bem, Facebook… existem limitações. Conte-nos mais. É óbvio que a desinformação é uma prioridade e, dada a ameaça à vida das pessoas, isso é compreensível. Mas encerrar a captação de recursos e excluir artigos factuais também pode custar vidas. Diga-nos que não encerrará contas. Conte-nos o que está a fazer para mitigar as ameaças à vida das pessoas causadas por esse vírus… além de libertar um filtro de spam muito zeloso para todos nós. Tranquilize os milhões de pessoas que confiam que você está, de facto, a dar o seu melhor.

Actualização: o Facebook contou mais! Pode conferir essa actualização. É importante realçar como admitiu que “esperamos cometer mais erros e as revisões vão demorar mais tempo do que o normal”, observou que alguns revisores por contrato trabalharão em casa e que certas categorias de conteúdo, incluindo “conteúdo terrorista”, serão feitas por funcionários em período integral. Por fim, dizem que “daremos às pessoas a opção de nos dizer que não concordam com a nossa decisão e iremos monitorizar esse ‘feedback’ para melhorar a nossa fiabilidade, mas provavelmente não iremos rever o conteúdo uma segunda vez”.

E Twitter e YouTube, embora o Facebook esteja a fazer parecer que vocês estão a agir bem, também estaremos atentos a vocês. Actualizem-nos conforme a situação se desenvolve. Façam deste o momento em que finalmente vão permitir que a sociedade civil e especialistas como o Syrian Archive e o Berkeley Human Rights Center usem os vossos algoritmos e outros processos de moderação de conteúdos. Reconsiderem as estruturas – quem é um funcionário valioso e quem é um contratado? Assim como todas as outras coisas que o Covid-19 nos está a fazer reconsiderar, talvez agora se esteja na hora de começar tudo de novo.

(1) Alguns exemplos, recolhidos em 30 minutos:
– um artigo da Vice intitulado “Domestic Abuse Could Spike as the Coronavirus Traps People Indoors“;
– um artigo da The Atlantic intitulado “Cancel Everything” sobre o distanciamento social;
– um conjunto de campanhas de angariação de fundos para trabalhadores de bares, espectáculos de burlesco, LGBTQI+ Negros/indígenas/pessoas de cor, e mais;
– um artigo da Axios sobre as salas de eleições fechadas no Ohio devido ao Covid-19, apesar de uma ordem judicial.

* Texto original publicado pela Witness (CC BY-ND 4.0). Fotos: Sean MacEntee, Automotive Social e Mark Kens (CC BY 2.0).