À medida que a inteligência artificial (IA) prolifera na Europa e noutras regiões, as injustas e prejudiciais realidades associadas ao seu uso estão a surgir – desde a identificação e selecção de manifestantes pacíficos até à discriminação com base na percepção de género. Ao mesmo tempo, um movimento global em torno da protecção dos direitos humanos e da eliminação de algumas aplicações de IA está a ganhar impulso, forçando os governos a baralhar e a criar novas respostas regulatórias e a pensar para lá da promoção da inovação.
O último relatório da Access Now, “Europe’s approach to artificial intelligence: how AI strategy is evolving” (A abordagem da Europa à inteligência artificial: como a estratégia de IA está a evoluir), explora as acções que os governos da UE estão a realizar para promover o que a UE chama de IA confiável (“Trustworthy AI“), o que essa abordagem significa para os direitos humanos e como a estratégia europeia da IA está a mudar, tanto para as instituições da UE como para os governos nacionais. (Pode ler aqui um resumo do documento.)
“Embora a IA tenha o potencial de beneficiar a sociedade, ela também causa danos irreparáveis e impacta os direitos humanos de milhões em todo o mundo. As opções de política e de estratégia da UE devem mostrar que o governo colocará as pessoas e os seus direitos à frente da inovação a todo e qualquer custo”, disse Fanny Hidvégi, Europe Policy Manager da Access Now. Nesta organização, diz, “esperamos ver a UE a continuar os seus esforços como líder global na protecção e promoção dos direitos humanos, e a Comissão Europeia a viver de acordo com esse legado enquanto desenvolve a próxima proposta sobre IA em 2021”.
As principais conclusões do relatório incluem:
– Governos de todo o mundo estão a adoptar a “Trustworthy AI”, muitas vezes influenciados pela abordagem da UE. Mas, em muitos casos, a teoria ainda não se transformou em prática.
– As discussões estão a mudar da ética para os direitos humanos, com pedidos crescentes para se proibir o reconhecimento facial. Adoptar uma abordagem baseada na “ética” para o reconhecimento facial e outras aplicações perigosas da IA deixaria milhões expostos a potenciais violações dos direitos humanos, e com pouco ou nenhum recurso.
– Os “stakeholders” da UE não chegaram a um consenso sobre como regulamentar a IA, mas há divergências significativas em relação ao que desejam ver na próxima legislação da UE e nas respectivas políticas nacionais. Embora exista o receio de regulamentação excessiva por parte de alguns, a maioria das partes interessadas acolhe e defende alguma intervenção da UE na IA.
– Os “stakeholders” concordam que a transparência é um requisito mínimo, tanto no sector privado quanto no público, para obter uma IA confiável ou para permitir uma supervisão e monitorização. Embora a transparência não seja suficiente para os direitos fundamentais, um registo público obrigatório para o uso do sector público das decisões automatizadas é uma necessidade.
O relatório, publicado em parceria com o Vodafone Institute, prossegue a versão de 2018 que mapeou as estratégias de IA em toda a UE e cobre desenvolvimentos de políticas nos últimos dois anos.
* Texto e foto publicados pela Access Now. Reproduzidos sob licença CC BY 4.0.