A tecnologia de reconhecimento facial está a tornar-se mais poderosa e ubíqua [incluindo em Portugal]. Em Janeiro de 2021, um estudo descobriu que um algoritmo de reconhecimento facial poderia ser melhor para deduzir a orientação política de uma pessoa do que um julgamento humano ou um teste de personalidade [o trabalho recebeu algumas críticas]. Da mesma forma, no início de Março, o aeroporto do Dubai lançou uma tecnologia através da qual um scanner de íris verifica a identidade de uma pessoa e elimina a necessidade de qualquer interacção humana ao entrar ou sair do país.
O uso de reconhecimento facial pelas autoridades tornou-se prática comum, apesar do aumento dos relatos de falsas detenções e penas de prisão. Embora existam várias desvantagens no uso da tecnologia de reconhecimento facial, incluindo medos de vigilância em massa e invasão de privacidade, existem falhas nas próprias tecnologias de reconhecimento facial que levam a resultados imprecisos. Um grande desafio para essa tecnologia ainda em expansão são as imprecisões baseadas no género.
A investigação indicou que as mulheres têm 18% mais probabilidade de serem identificadas incorrectamente por meio do reconhecimento facial do que os homens. Uma linha da investigação descobriu que, enquanto a capacidade do software Rekognition da Amazon em reconhecer os rostos das mulheres brancas caiu para 92,9%, o reconhecimento de uma mulher de pele mais escura seria apenas 68,9% fiável. Da mesma forma, um estudo conduzido na Universidade de Washington revelou que uma ferramenta de reconhecimento facial tinha 68% mais probabilidade de prever que a imagem de uma pessoa a preparar uma refeição na cozinha é de uma mulher. Esses são padrões claros que exibem sexismo na IA e o uso de tais tecnologias para a aplicação da lei afectará provavelmente e desproporcionalmente grupos marginalizados de pessoas, incluindo outros géneros além de masculino e feminino.
É verdade que, uma vez dado um salto na tecnologia, esperar poder eliminá-la da face da terra pode ser um pouco como tentar colocar o génio de volta à garrafa. Um passo mais provável na direcção certa seria, primeiro, alimentar conjuntos de dados melhores e representativos para as IAs e, em segundo lugar, implantar a tecnologia apenas com supervisão democrática substancial.
Cientistas de dados do MIT Media Lab notaram que, nos casos em que treinaram a IA com dados mais diversos, a precisão dos resultados foi menos discriminatória e mais precisa. Portanto, apresentar a IA com uma representação diversificada de conjuntos de dados para aprender seria um óptimo começo para reverter os preconceitos prevalentes. Além disso, essas tecnologias também se beneficiariam se os fornecedores do software de reconhecimento facial fossem transparentes sobre o seu funcionamento subjacente.
Essa transparência, se acompanhada de um controlo democrático em relação à aplicação, pode potencialmente ter como objectivo encontrar um melhor equilíbrio quanto a quando, onde, como e para que fim o reconhecimento facial pode ser usado. Por exemplo, tal supervisão pode ser na forma de regulações que definem um padrão da indústria que uma IA deve atender antes da sua aplicação comercial. No entanto, independentemente de quantos saltos o reconhecimento facial dê nos próximos anos, uma discussão séria e deliberada é necessária para determinar se o reconhecimento facial deve ser usado pelas autoridades policiais. Isso ocorre porque as consequências dos erros são muito graves. A Comissão Europeia divulgará a sua primeira proposta legislativa ainda este ano e será interessante ver como tentará regulamentar a aplicação da IA.
O aviso de David Kaye, ex-Relator Especial da ONU, de que a IA reforçará o preconceito é mais pertinente do que nunca. No entanto, até ao dia em que a IA tenha eliminado completamente os preconceitos humanos, os seus resultados podem ser considerados mais fiáveis do que os de um humano?
* Artigo de publicado pelo Lumen Project (CC). Foto: EFF (CC).