Drones autónomos militares podem ter atacado humanos pela primeira vez, refere um documento das Nações Unidas. O ataque terá ocorrido no ano passado na Líbia, usando um Kargu-2 da empresa turca Defense Technologies Engineering and Trade ou STM.

O ataque com esta “arma autónoma letal”, como lhe chama o relatório, “significa algo talvez ainda mais significativo globalmente: um novo capítulo nas armas autónomas, em que são usadas para lutar e matar seres humanos com base na inteligência artificial” (IA), notou o Bulletin of the Atomic Scientists.

Este explica que o Kargu é um drone com capacidades de aprendizagem de máquina para seleccionar alvos e integrar-se em “enxames” para permitir que até 20 drones possam cooperar.

Se o ataque resultou em mortes, estas seriam “provavelmente um primeiro caso histórico conhecido de armas autónomas baseadas em IA sendo usadas para matar. O relatório da ONU sugere fortemente que sim (…) mas não é explícito sobre o assunto”.

No ano passado, os militares turcos anunciaram a intenção de adquirir mais 500 destes “drones suicidas” Kargus.

Há o receio de que estas armas não sejam capazes de distinguir entre civis e militares, enquanto outros asseveram que estas máquinas vão cometer menos erros.

Segundo o Bulletin, “existem pelo menos nove questões que são importantes para entender onde estão os riscos quando se trata de armas autónomas”, nomeadamente como decide uma arma autónoma quem matar? Qual é o papel dos humanos? Qual é a sua carga útil (para diferenciar entre balas e uma ogiva nuclear, por exemplo)? Qual é o alvo da arma? Quantas e onde estão a ser usadas?

Como são testadas, como se adaptaram os adversários (com tácticas para “confundir as operações”) e quão amplamente disponíveis estão estas armas autónomas, são outras das questões.

A solução não é fácil e “um tratado internacional de proibição é a única forma eficaz de lidar com os sérios desafios levantados por armas totalmente autónomas”, referia Mary Wareham, coordenadora na Human Rights Watch da “Campaign To Stop Killer Robots”.

“A tecnologia militar é uma área extremamente importante de inovação, mas geralmente resulta em coisas que explodem”, nota Noah Smith. “Temos corrido para inventar novas tecnologias militares, mas ainda não tivemos a oportunidade de as usar na sua capacidade total. No entanto, a mera criação destas tecnologias, como a invenção do porta-aviões, parece alterar o equilíbrio internacional de poder de uma forma que nos torna mais propensos a experimentar as novas armas e a ver como estão as coisas. Mas o que também é preocupante é quantas das novas tecnologias militares são especializadas para uso fora do campo de batalha”.

[act.: The Scientist and the A.I.-Assisted, Remote-Control Killing Machine

NYT Confirms Israel Killed an Iranian Nuclear Scientist With a Robot Sniper

AI Algorithms Deployed in Kill Chain Target Recognition]