O relatório “Truth, Lies, and Automation: How Language Models Could Change Disinformation“, da autoria de Ben Buchanan, Andrew Lohn, Micah Musser e Katerina Sedova e publicado pelo Center for Security and Emerging Technology (CSET), mostra como “o crescente interesse popular e da indústria em modelos de geração de linguagem natural de alto desempenho levou a preocupações de que tais modelos pudessem ser usados para gerar desinformação automatizada em escala. Este relatório examina os recursos do GPT-3 – um sistema de inteligência artificial (IA) de ponta que escreve texto, da OpenAI [que está a querer financiar startups] – para analisar o seu potencial uso indevido para desinformação. Um modelo como o GPT-3 pode ajudar os actores da desinformação a reduzir substancialmente o trabalho necessário para escrever desinformação enquanto expande o seu alcance e, potencialmente, também a sua eficácia”.
Na introdução, o relatório nota como, “durante milénios, as campanhas de desinformação foram esforços fundamentalmente humanos. Os seus criadores misturam verdade e mentiras em combinações potentes que visam semear a discórdia, criar dúvida e provocar acções destrutivas. A campanha de desinformação mais famosa do século XXI – o esforço russo para interferir na eleição presidencial dos EUA – contou com centenas de pessoas a trabalharem juntas para ampliar as fissuras pré-existentes na sociedade americana.
Desde o seu início, escrever também foi um esforço fundamentalmente humano. Já não é assim. Em 2020, a empresa OpenAI revelou o GPT-3, um poderoso sistema de IA que gera texto baseado em solicitações de operadores humanos. O sistema, que usa uma vasta rede neural, um poderoso algoritmo de aprendizagem por máquina e mais de 175 mil milhões de palavras da escrita humana para orientação, é notável. Entre outros feitos, redigiu um artigo de opinião a pedido do The Guardian, escreveu novas histórias que a maioria dos leitores pensava ter sido escrita por humanos e criou novos memes para a Internet.
Perante este enorme avanço, consideramos uma questão simples mas importante: a automação pode gerar conteúdo para campanhas de desinformação? Se o GPT-3 pode escrever notícias aparentemente fiáveis, talvez possa escrever notícias falsas convincentes; se pode redigir artigos de opinião, talvez possa redigir tweets enganadores.
Para resolver esta questão, apresentamos primeiro a noção de uma equipa homem-máquina, mostrando como o poder do GPT-3 deriva em parte do pedido humano ao qual ele responde. Tivémos acesso gratuito ao GPT-3 – um sistema que não está disponível publicamente para utilização – para estudar a sua capacidade de produzir desinformação como parte de uma equipa homem-máquina. Mostramos que, embora o GPT-3 seja muitas vezes bastante capaz por conta própria, ele atinge novos patamares de capacidade quando combinado com um operador e editor experiente. Em resultado disso, concluímos que, embora o GPT-3 não substitua todos os humanos nas operações de desinformação, é uma ferramenta que pode ajudá-los a criar mensagens de qualidade moderada a elevada numa escala muito maior do que a anterior.
Para chegar a esta conclusão, avaliámos o desempenho do GPT-3 em seis tarefas que são comuns em muitas campanhas de desinformação modernas. A Tabela 1 descreve essas tarefas e o desempenho do GPT-3 em cada uma.
Entre essas e outras avaliações, o GPT-3 provou ser poderoso mas limitado. Quando devidamente solicitada, a máquina é um gravador versátil e eficaz que, no entanto, é restringida pelos dados com os quais foi treinada. A sua escrita é imperfeita mas as suas desvantagens – como falta de foco na narrativa e a tendência a adoptar pontos de vista extremos – são menos significativas na criação de conteúdo para campanhas de desinformação.
Caso os adversários optem por prosseguir na automação nas suas campanhas de desinformação, acreditamos que a implantação de um algoritmo como o do GPT-3 está dentro da capacidade de governos estrangeiros, especialmente os que entendem de tecnologia, como a China e a Rússia. Será mais difícil, mas quase certamente possível, para esses governos controlarem a capacidade computacional necessária para treinar e operar tal sistema, caso o desejem.
Mitigar os perigos da automação na desinformação é um desafio. Uma vez que a escrita do GPT-3 combina tão bem com a escrita humana, a melhor maneira de impedir o uso de sistemas como o GPT-3 em campanhas de desinformação é concentrar-se na infra-estrutura usada para propagar as mensagens das campanhas, como contas falsas nas redes sociais, em vez de determinar a autoria do próprio texto.
Vale a pena considerar essas atenuações porque o nosso estudo mostra que há uma perspectiva real de ter ferramentas automatizadas a gerar conteúdo para campanhas de desinformação. Em particular, os nossos resultados são melhor vistos como uma estimativa de baixo custo do que os sistemas como o GPT-3 podem oferecer. Os adversários que não são limitados por preocupações éticas e estimulados por maiores recursos e capacidades técnicas provavelmente serão capazes de usar sistemas como o GPT-3 de maneira mais completa do que nós, embora seja difícil saber se eles decidirão fazer isso. Em particular, com a infra-estrutura certa, provavelmente serão capazes de aproveitar a escalabilidade que tais sistemas automatizados oferecem, gerando muitas mensagens e inundando o cenário de informações com as criações mais perigosas da máquina.
O estudo mostra a plausibilidade – mas não a inevitabilidade – desse futuro, em que mensagens automatizadas de divisão e engano se propagam pela Internet. Embora mais desenvolvimentos ainda estejam por vir, um facto já é aparente: os humanos têm agora ajuda a misturar a verdade e a mentira ao serviço da desinformação”.
(Download do relatório)
* Publicação do CSET (licença CC). Foto: Open AI.