O caso da implementação de reconhecimento facial na cidade de Buenos Aires (Argentina) é paradigmático: servirá de ensinamento para toda a América Latina e demais regiões do globo terrestre. As acções judiciais feitas pela sociedade civil organizada trazem uma questão de fundamental importância: saber se as tecnologias de vigilância em massa respeitam ou não os direitos humanos.

Breve contexto
Não há dúvidas de que estamos perante um crescimento exponencial do uso de tecnologias automatizadas de reconhecimento facial na América Latina. O embaratecimento da tecnologia junto com uma expansão das finalidades para as quais é utilizada fez com que aumentassem os casos da sua utilização por Estados e empresas.

Mas a tecnologia tem sido amplamente contestada, por órgãos internacionais e pela sociedade civil organizada, seja por manifestos, por protestos e até mesmo por processos judiciais. Os pedidos têm-se dado na esteira de algumas regulamentações, por exemplo nalgumas cidades dos Estados Unidos, que decidiram banir o uso desse tipo de tecnologia, já que ainda não se tem garantias mínimas de que os direitos humanos e civis serão respeitados. Alguns académicos chegam a dizer que a tecnologia de reconhecimento facial é o mecanismo de vigilância mais perigoso jamais inventado, pois é a máquina perfeita para a opressão.

No caso governamental, cidades como Salvador, São Paulo, Rio de Janeiro, Lima, Nova Iorque, Londres e Buenos Aires têm adoptado esse tipo de sistema para vigilância da população em diversos lugares, para fins de segurança pública.

Recentemente, surgiram novidades num caso que promete um avanço regulatório na Cidade de Buenos Aires.

Críticas e acções contra o sistema de reconhecimento facial em Buenos Aires
O Sistema de Reconhecimento Facial de Fugitivos (SRFP, também de Sistema de Reconocimiento Facial de Prófugos) consiste num sistema com 300 câmaras de vigilância nas ruas e estações do metro. As promessas foram as mais variadas, mas sempre seguindo a linha de que mais tecnologia iria aumentar a segurança e cuidar das pessoas. Apesar das fortes críticas, o sistema foi implementado em menos de 22 dias.

O relator especial das Nações Unidas sobre o Direito à Privacidade, Joseph Canatacci, criticou a falta de avaliação de impacto anterior à implementação do sistema, falta de necessidade e proporcionalidade das medidas. Além disso, fez críticas à base de dados que alimenta o SRFP, o sistema de Consulta de Rebeldías y Capturas (CONARC), no sentido da desproporcionalidade da inserção na base de dados, divulgação indevida de dados, falta de informação sobre quais crimes são imputados, divulgação de dados de menores de idade de forma contrária aos melhores interesses da criança e do adolescente, erros e falhas e falta de actualização.

No caso específico, a ONG Human Rights Watch foi enfática quanto à existência de falhas graves aos direitos das crianças e dos adolescentes, pois ao analisar a base de dados encontrou pelo menos 166 menores, incluindo crianças suspeitas de cometer crimes de menor potencial ofensivo.

Acções judiciais promovidas pela sociedade civil
Não bastassem as críticas, o sistema foi contestado pelo menos em duas acções judiciais. Uma, proposta pela organização Asociación por los Derechos Civiles (ADC), pede que o Tribunal Superior de Justiça declare a inconstitucionalidade das mudanças legais. A outra, proposta pelo Observatorio de Derecho Informático Argentino (ODIA) pede uma acção de protecção legal, em primeiro grau de jurisdição, requerendo a análise do sistema por meio de constitucionalidade e convencionalidade, além de medidas cautelares para suspender a sua utilização.

Recentemente, a 13 de Outubro, a Derechos Digitales foi admitida como amicus curiae na acção proposta pelo ODIA. A participação social no caso foi ampliada recebendo também contribuições de outras organizações, como a Access Now e a Asociación Trabajadores del Estado (ATE), além da adesão e participação de cidadãos como autores da acção.

https://reconocimientofacial.info/wp-content/uploads/2020/03/ADC-1.png

Reflexões sobre o caso da Cidade de Buenos Aires
O caso argentino demonstra claramente três questões importantes, que de alguma forma se reproduzem em casos de outros países.

A primeira é uma questão técnica, com relevantes implicações sociais referentes à utilização da inteligência artificial (IA) e o que isso significa para os cidadãos. Já a segunda questão, está ligada à própria democracia e à transparência do sistema. E a terceira está relacionada ao respeito pelos direitos humanos.

1. Implicações sociais: falsos positivos e discriminação
De início, é impressionante a questão da celeridade com que o projecto foi desenvolvido e entregue. Passaram apenas 22 dias desde o lançamento do projecto até à sua implementação, uma velocidade que seria “invejável e até suspeita”, segundo o ODIA. Contudo, a questão técnica que tem maiores implicações sociais diz respeito à precisão e qualidade da base de dados utilizada. Os mais variados estudos demonstram uma taxa menor de precisão em pessoas negras e mulheres.

O estudo “Gender Shades”, realizado pelas investigadoras Joy Buolamwini e Timnit Gebru, por exemplo, demonstra que as taxas de erro são diversas de acordo com o grupo que se analisa, chegando a mais de 90% de identificação incorrecta para pessoas de pele escura e a menos de 1% de erro para pessoas de pele mais clara. Apesar de poder ser uma falha na calibração dos dados, seja devido à utilização de base de dados enviesados ou por outros motivos, o certo é que devemos analisar se esse tipo de tecnologia afecta de forma desproporcional a garantia de igualdade também a pessoas que são tradicionalmente discriminadas e vulneráveis, como povos nativos, mulheres, crianças, idosos e pessoas trans.

2. Democracia e transparência
Em relação à questão democrática e de transparência, verifica-se que há pouco ou nenhum debate legislativo sobre a implementação desse tipo de sistema. Além disso, não se tem análises de impacto ou escuta daqueles que serão afectados pela medida. Do mesmo modo, em muitos dos casos há uma grande opacidade em relação à utilização da tecnologia, sob o argumento de que o tema não deve ser debatido, que é técnico demais para ampla participação social e ainda que a transparência não é necessária.

No caso de Buenos Aires, tanto a ADC quanto o ODIA colocaram questões importantes e extensas sobre a criação, contratação, utilização, salvaguardas do sistema de reconhecimento facial, mas com poucas ou nenhumas respostas. Apesar de investigações apontarem que a tecnologia geralmente “é criada no exterior e usada em casa“, falta transparência sobre quais as empresas responsáveis pela implementação e uso da tecnologia, ainda mais nos processos de definição de contratação da tecnologia.

3. Vigilância e direitos humanos
Por fim, a questão dos direitos humanos envolvidos na aplicação de uma tecnologia de vigilância em massa. Desde 2013, após o caso Snowden, Brasil e Alemanha propuseram uma resolução para a Assembleia Geral da ONU, sobre “O direito à privacidade na era digital”.

Com a actualização da referida resolução, já em Outubro de 2021, foi dada maior robustez às questões sobre a utilização de dados biométricos, com o reconhecimento expresso de que os usos da IA podem colocar sérios riscos ao direito à privacidade, citando como exemplo o emprego da IA para identificação, reconhecimento facial, rastreamento, perfilização, previsão comportamental e pontuação de indivíduos.

A conclusão da assembleia da ONU é que os Estados devem assegurar que as tecnologias de identificação e reconhecimento biométrico, incluindo as tecnologias de reconhecimento facial por actores públicos e privados, não permitam a vigilância arbitrária ou ilegal, incluindo de quem exerce o seu direito à liberdade de reunião pacífica.

Artigo de Michel Roberto de Souza, publicado pela Derechos Digitales (CC). Foto: Hernán Piñera (CC)