A mentira das “deepfakes”, sem resolução à vista

As “deepfakes” são “media gerada em computador, foto-realista, criada usando tecnologias de inteligência artificial”.

Elas são muito conotados a “fake news” de vídeo, criados para enganar os olhos e a mente, por forma a que já não se possa acreditar no que se vê. Mais do que uma ilusão de óptica, são uma “decadência da verdade, uma ameaça à formulação de políticas e à democracia”, como afirmava o relatório de 2018 “Truth Decay”, da Rand Corporation.

No entanto, o resultado desta manipulação é “igualmente notável em aplicações que podem realizar um trabalho rápido em tarefas antes penosas: preencher lacunas e riscos em imagens ou vídeos danificados; transformar fotos de satélite em mapas; criar vídeos realistas de paisagens urbanas para treinar veículos autónomos; dar uma voz natural àqueles que perderam a sua; transformar actores de Hollywood nos seus eus mais velhos ou mais jovens; e muito mais“, refere a Knowable Magazine (KM), que explica em detalhe toda a evolução desta tecnologia.

Da tentativa para lançar descrédito sobre os adversário políticos a ferramenta da “pós-verdade”, as “deepfakes” são um verdadeiro desafio à literacia mediática, dada a dificuldade em explicar e ensinar que o que se vê ou ouve não é real, foi “fabricado” para instrumentalizar, para obter um fim específico. E se isso é natural nos filmes de cinema, é-o menos em noticiários televisivos, por exemplo.

As “deepfakes” enraízam-se nas redes neuronais, “uma forma de inteligência artificial que re-emergiu para activar a revolução actual nos carros sem condutor, reconhecimento vocal e de imagem, e noutras aplicações”.

Este tipo de redes passam por um processo de auto-aprendizagem em que se vão melhorando, sem grande intervenção humana. Elas “não precisam de ser programadas, apenas treinadas”, explica a KM. Mostram-se à rede muitos exemplos de um conjunto de objectos ou pessoas ou flores, por exemplo, e outros que nada têm a ver com essas escolhas. A rede terá de descobrir as imagem correctas e as erradas são “devolvidas”, para ajustar “cada uma para amplificar ou amortecer os sinais de uma forma que produza um resultado melhor na próxima vez”.

Já este século, estas redes evoluíram para ganharem no domínio do reconhecimento vocal, sendo melhores do que qualquer outra tecnologia, e três anos depois, em 2012, no reconhecimento de imagens, evoluindo mais tarde para a própria criação de imagens falsas – um domínio conhecido por “generative adversarial network” ou GAN. Rapidamente as descobertas científicas foram incorporadas pelas grandes empresas tecnológicas.

Graphic compares a simplified diagram of a 1980s-era neural network, with only one processing layer of nodes between input and output, with today’s more robust ones, which may have three or many more layers.

Não faltou muito para que o utilizador Deepfakes lançasse no Reddit, em 2017, tecnologia para a geração por GAN de imagens pornográficas. De forma simples, ele usava um software de IA “open source” para colocar a cara de uma pessoa no corpo de outra. Em Fevereiro do ano seguinte, o fórum no Reddit foi proibido.

Começou então a “corrida às armas de detecção“, procurando-se tecnologias que facilitem a identificação dos vídeos com “deepfakes”.

Também nesse sentido, foram lançados alguns vídeos para dar a perceber como as imagens são criadas e manipuladas. A sua eliminação total é mais difícil porque, nos EUA, estão ao abrigo da liberdade de expressão. Mas nada impede a obrigatoriedade de colocar um selo, uma nota de alerta para que as imagens foram criadas como “deepfakes”, são re-encenadas de forma digital, e não são nem foram o resultado de registo da realidade em vídeo.

Deixe uma Resposta

Preencha os seus detalhes abaixo ou clique num ícone para iniciar sessão:

Logótipo da WordPress.com

Está a comentar usando a sua conta WordPress.com Terminar Sessão /  Alterar )

Google photo

Está a comentar usando a sua conta Google Terminar Sessão /  Alterar )

Imagem do Twitter

Está a comentar usando a sua conta Twitter Terminar Sessão /  Alterar )

Facebook photo

Está a comentar usando a sua conta Facebook Terminar Sessão /  Alterar )

Connecting to %s

This site uses Akismet to reduce spam. Learn how your comment data is processed.