Investigadores de inteligência artificial estão preocupados com o potencial das armas destrutivas, como pequenos drones letais, e pedem a assinatura de um tratado internacional para banir (ou, pelo menos, limitar) este tipo de armamento.

Dois vídeos ajudam a explicar a questão:

A par com as várias notícias sobre este assunto, a organização Autonomous Weapons lançou a “Campaign to Stop Killer Robots“.

A questão da ética na inteligência artificial não está fechada a este desafio e não é recente mas é das mais prementes.

Como explica Joël Colloc em “L’éthique des systèmes d’information autonomes vers une pensée artificielle“, “estes sistemas serão rapidamente mais potentes que os humanos com consequências inquietantes para o futuro da humanidade”.

[act.: as Nações Unidas lançaram o documento “Perspectives on Lethal Autonomous Weapon Systems“, a tempo da primeira cimeira do Group of Governmental Experts of the High Contracting Parties to the Convention on Certain Conventional Weapons, que hoje termina, enquanto há quem avise ser “improvável” banir as armas baseadas em inteligência artificial.]