Portugal quer garantir que, durante a presidência nacional da União Europeia (UE), conseguirá ter a “primeira lei comunitária sobre inteligência artificial (IA), baseada na transparência e no respeito pelos direitos dos utilizadores, esperando também cooperação com a administração norte-americana”.

Em paralelo, uma área de preocupação é o reconhecimento facial, cujos contornos em defesa dos valores europeus devem constar da declaração de Lisboa sobre democracia digital, a ser assinada na Digital Assembly, em Junho.

O Ministro de Estado, da Economia e da Transição Digital considera que a UE dá “muita importância ao quadro legal para a IA”, porque é “a base para a produtividade reforçada e tem um grande potencial para crescimento”.

Pedro Siza Vieira defendeu o “respeito” entre as normas sociais e os algoritmos de IA, considerando que “as normas da sociedade e dos indivíduos devem ser respeitadas na área da inteligência artificial e nos algoritmos envolvidos”.

Nesse sentido, este quadro legal deve ter um “enquadramento transparente, que tenha em conta os riscos envolvidos e que proteja os valores da UE, em questões como os direitos humanos e a privacidade, entre outros”.

Esse enquadramento visa também dar aos cidadãos “confiança na economia digital”, quando a IA “tem sido usada em aplicações para indivíduos e consumidores e, nos próximos passos, deverá centrar-se no processamento de grande volume de dados relativamente ao sector de indústria e cidades”.

O reconhecimento facial é uma das áreas em que “é preciso acautelar que se respeitam os valores da UE”, nomeadamente em termos de direitos humanos e de privacidade, defendeu o ministro, e deve incorporar a declaração de Lisboa sobre democracia digital, a ser assinada na Digital Assembly, entre 1 e 2 de Junho.

Nestas questões digitais, o ministro quer ainda que o ambiente legal possa ser “partilhado com sociedades que têm os mesmos valores” europeus, esperando que os EUA “criem valores partilhados nesta área”.

No entanto, isso não será fácil quando as empresas estão a aproveitar o vazio legal em que podem agir e a avaliação independente de empresas demonstra precisamente para onde estão a ir os algoritmos de reconhecimento facial, por exemplo.

Os próprios quadros legislativos sobre IA em que a UE está envolvida com diferentes organizações internacionais têm, por vezes, impactos não antecipados.

Esta semana, o estudo alemão “AI Regulation in the European Union and Trade Law” revelou como “nas negociações em curso sobre comércio electrónico na Organização Mundial do Comércio (OMC), a UE apoia a introdução – no texto legal – de uma cláusula que proíbe os países participantes de integrar – nas suas legislações nacionais – medidas que requeiram o acesso a, ou a transferência de, código-fonte do software, com algumas excepções”.

A medida é preocupante porque, “se não for cuidadosamente condicionada, pode impedir a futura regulamentação da IA pela UE, o que pode ser prejudicial para os consumidores”.

A conclusão é tanto mais “surpreendente, dado que os documentos de política comercial da UE não fazem referência à IA, apenas ao comércio electrónico, e nenhuma ligação directa foi feita entre a cláusula sobre o código-fonte do software e os algoritmos. Este estudo levanta uma importante questão de política da UE que merece ser submetida a escrutínio democrático e discussão antes que a UE concorde com uma nova cláusula sobre código-fonte de software num acordo multilateral da OMC sobre comércio electrónico”.

O estudo propõe que a Comissão clarifique “o impacto da cláusula do código-fonte nas políticas digitais da UE, em particular nos direitos do consumidor, e, entretanto, desistir desta cláusula da lei do comércio, visto que o código-fonte do software já beneficia de direitos de autor e protecção de segredos comerciais” ou, numa segunda opção “prudente e [que] forneceria tempo para desenvolver uma política doméstica robusta, bem como padrões internacionais sobre IA responsável”.

A Comissão devia limitar “a cláusula de direito comercial à situação de transferência forçada de tecnologia para práticas comerciais desonestas, ou criar medidas de responsabilização algorítmica a partir desse âmbito”.

Em paralelo, surgem várias iniciativas para enquadrar esse quadro responsável e transparente, como ocorre com a The Global AI Action Alliance que o World Economic Forum anunciou esta semana estar já a agrupar mais de uma centena de organizações e a assumir-se como incubadora de projectos para “acelerar a adopção de IA inclusive, fiável e transparente”.

A aliança junta empresas, governos, organizações internacionais, organizações sem fins lucrativos e académicos empenhados num “compromisso de maximizar os benefícios sociais da IA”.

O problema é que muitos destes benefícios não são, à partida, incorporados nos algoritmos. “Os modelos de IA optimizam apenas em relação às métricas para as quais foram programados para optimizar”, esclarece o artigo “The Ethical AI Application Pyramid“.

“Se o modelo de IA produz consequências indesejadas, isso não é culpa dos modelos. É culpa da equipa de ciência de dados e das partes interessadas operacionais que são responsáveis por definir a AI Utility Function [função de utilidade da IA] contra a qual o modelo de IA julgará o progresso e sucesso”.