Com a aproximação das eleições norte-americanas em Novembro próximo, há quem considere que a intromissão das “deepfakes” no processo eleitoral será maior do que as “fake news” em 2016.

O potencial para a mentira visual foi demonstrado por um grupo de investigadores das universidades de Stanford e de Princeton, do Max Planck Institute for Informatics e da Adobe Research.

O processo envolve a edição do vídeo de pessoas a dizerem algo e a modificar as frases ditas – incluindo removê-las e substituí-las por novas – mantendo a sua fisionomia facial.

“Para editar um vídeo, o utilizador tem apenas de editar a transcrição e uma estratégia de optimização escolhe depois segmentos do corpus introduzido como material de base” e assim poder gerar um novo vídeo, explicam os investigadores no artigo “Text-based Editing of Talking-head Video“.

Este inclui várias considerações éticas sobre o uso da técnica, como a defesa de uma “robusta conversa pública” para criar um conjunto de regulações e leis que possam balancear – mas não eliminar – o uso destas ferramentas.