A mesma tecnologia para migrantes e pandémicos

As ferramentas de controlo dos contaminados pelo Covid-19 são semelhantes – e, nalguns casos, as mesmas – às usadas para controlar os refugiados em países ocidentais ou até para repressão noutros países menos democráticos.

O aproveitamento mais óbvio é o dos dados pessoais, com as iniciativas governamentais a usá-los no controlo dos movimentos populacionais. As tecnologias de uso pessoal ajudam nessa tarefa de forma expedita, como revelou o The Bureau of Investigative Journalism: em Itália, a análise às fotografias pessoais no Instagram permitia reconhecer quem não cumpria o confinamento. Em Israel, a agência de espionagem Shin Bet devia recolher dados geolocalizados e informar quem tivesse estado em contacto com pessoas infectadas. No Reino Unido, foi o próprio governo a pedir às operadoras de comunicações móveis acesso aos dados agregados de localização para antecipar surtos pandémicos.

A relação com o desenvolvimento tecnológico emergente da crise de refugiados de 2015 também refere como evoluíram as empresas tecnológicas e alguns projectos de investigação nesta demanda.

Sucedeu com a Frontex, em Setembro passado. A agência europeia para a segurança nas fronteiras lançou um concurso para análise aos serviços dos media sociais Twitter, Facebook, Instagram e YouTube relacionados com tendências migratórias, no valor de 400 mil euros.

O concurso foi cancelado pela intervenção da autoridade europeia de protecção de dados (EDPS) para uma tentativa semelhante de busca em media sociais efectuada pela European Asylum Support Office (EASO).

Segundo a EDPS, existia um “risco significativo de que os dados partilhados” por quem procurava asilo pudesse ser usado contra eles. A monitorização colocava um “enorme risco” aos direitos e liberdades pessoais – semelhante ao caso recente de Itália, com o Covid-19.

Algo similar já tinha sido tentado pelas Nações Unidas, que tentaram em 2017 a análise ao Twitter. O objectivo era perceber as rotas ou as conversas com traficantes mas o projecto foi suspenso por falta suficiente de dados.

Outros casos escapam mais facilmente ao escrutínio público, como o uso de drones no Mediterrâneo. A Frontex usa alguns deles – incluindo com tecnologia portuguesa – no controlo desse mar mas os resultados podem ser dramáticos, quando os barcos de refugiados são descobertos e fogem para rotas desconhecidas e mais perigosas.

Tecnologias vulneráveis em uso
A crise migratória para a Europa não acabou com o Covid-19 e a tensão entre a Grécia e a Turquia mantém-se, como explicou em Março a EDRi.

O objectivo é impedir a entrada de migrantes no país europeu, estando a ser usada tecnologia com esse fim e a potenciar “as violações dos direitos dos migrantes”. Isso não impediu o estabelecimento de contratos no valor de 115 milhões de dólares para a vigilância de barcos de migrantes a caminho da Europa, entre a empresa israelita Elbit Systems, a Frontex e a European Maritime Safety Agency.

Em diversos casos, são usados programas tecnológicos em que se sabe como os algoritmos com que funcionam para a selecção de migrantes “são vulneráveis às mesmas preocupações na tomada de decisão que afectam a tomada de decisão humana”, como a discriminação ou o simples erro. Isso pode ocorrer em casos de uso de detectores de mentiras por inteligência artificial (IA) em aeroportos.

Exemplo é o sistema iBorderCtrl, instalado nos aeroportos da Hungria, Letónia e Grécia, e que levanta questões sobre as interacções dos humanos com as máquinas sem autorização dos primeiros ou sobre qual o enviesamento que podem ter.

“A complexidade da migração – e a experiência humana – não é facilmente reduzida a um algoritmo”, escreve a EDRi. O mesmo sucede com os sistemas automatizados para reconhecimento de orientação sexual, que já demonstraram terem falhas. Num ambiente de erros produzidos por máquinas ou por humanos, a ética na IA não se impõe.

Tecnologias de vigilância
A vigilância tecnológica é uma evolução social em que se passou da invisibilidade dos humanos das margens para os integrar na punição.

Nos anos 60, a “privatização da pobreza” significava “viver numa cultura separada, noutra nação, com o seu próprio modo de vida”. Este espaço fora do comum tornava os “pobres invisíveis… eles não são vistos”. Agora, livros como “Not a Crime to Be Poor”, de Peter Edelman, ou “The Poverty of Privacy Rights”, de Khiara M. Bridges, argumentam em sentido contrário.

Os pobres, especialmente as mulheres, “são de facto muito vistos – eles são vigiados e presos, monitorizados e multados”. Presos num “panóptico social”, são vistos como pouco cumpridores da lei e sem quaisquer direitos civis básicos.

Esta desumanização leva a uma tentativa para “várias estratégias de vigilância e punição” numa “sociedade rigidamente estruturada em torno de fantasias de desigualdade e dominação, em que algumas pessoas possuem toda a liberdade e outras nenhuma” – incluindo mesmo a possibilidade de suprimir o direito a votar.

A dominação emerge das necessidades de negócio de empresas tecnológicas, cuja ínfima regulação é notada no relatório do World Refugee Council sobre as tecnologias para refugiados. Por exemplo, a Privacy International registou a evolução da empresa israelita Cellebrite da extracção de dados de telemóveis para os interrogatórios a pessoas que requerem asilo.

Entre outras recomendações para contrariar esse preocupante cenário está o estabelecimento de um juramento de Hipócrates, semelhante ao usado pelos médicos, para os tecnólogos a trabalhar no campo humanitário.

Esta necessidade não surge como antecipação a cenários futuros. O Centre for International Governance Innovation constatava no início do ano como “a privatização do controlo migratório” ocorre naturalmente com empresas tecnológicas habituadas à vigilância e que estão a definir o controlo fronteiriço, policiamento e imigração – pela omissão dos estados, que assim transferem a responsabilidade para o sector privado.

Migrantes climáticos
Os refugiados não fogem apenas de cenários de guerra ou de antagonistas políticos. Em Maio de 2019, de um total de 1,1 mil milhões de pessoas sem documentação legal, a MIT Technology Review falava em 140 milhões de deslocados devido às mudanças climáticas, dos quais a média anual era de 24 milhões por condições climáticas extremas, citando dados do Internal Displacement Monitoring Center.

Uma solução para estes “sem papéis” é a identificação digital, com empresas tecnológicas interessadas em a estabelecer. Accenture, Apple, Facebook, Gavi (programa de acesso a vacinas), Mastercard, Microsoft ou Palantir são empresas que estabeleceram “controversas parcerias com algumas das maiores agências humanitárias do mundo”.

Algumas delas já têm sistemas de registo identitário mas que não comunicam entre si. A UNHCR regista-os no Population Registration and Identity Management EcoSystem (PRIMES), o World Bank na Identification for Development e o World Economic Forum tem a Platform for Good Digital Identity.

Se “todos têm direito a ter uma identificação formal que possam usar para exercer os seus direitos”, como refere Brandie Nonnecke, do CITRIS Policy Lab da UC Berkeley, o que se poderá fazer com os trabalhadores agrícolas, também migrantes sem documentos, “essenciais agora, deportáveis depois“.

O seu estado é tão bizarro que, nos EUA e devido ao Covid-19, eles receberam cartas dos seus empregadores a informar que o seu trabalho era “crítico” por indicação do Department of Homeland Security, o mesmo que trata das deportações e das fronteiras, pelo que podiam circular livremente entre casa e trabalho.

Em contraste, Portugal é dado como exemplo por “decidir dar temporariamente cidadania plena a todos com um pedido pendente de imigração”. Mas coloca-se a mesma questão: o que lhes acontecerá depois?

Exercícios eficientes e apolíticos
No ano passado, o advogado Petra Molnar do International Human Rights Program, na University of Toronto Faculty of Law, alertava para as detenções de migrantes na fronteira dos EUA com o México ou a deportação “errada” de 7.000 estudantes estrangeiros no Reino Unido, para explicar como os algoritmos erravam na tomada de decisões.

Num enorme conjunto de pessoas em fuga por “conflitos, instabilidade, factores ambientais e razões económicas”, muitas são tacitamente obrigadas a serem analisadas por ferramentas tecnológicas de Big Data.

Muitas delas não são regulamentadas, abrindo caminho a ilegalidades. A “recolha de dados não é um exercício apolítico” quando se acede a informação de populações vulneráveis, diz. Para mais, quando os migrantes não se podem recusar a aceitar as violações dos seus direitos, “disfarçadas como entrega de um melhor e mais eficiente serviço”.

A situação é dramática e, relativamente às crianças, levou à divulgação do relatório “Measuring What Matters in the Era of Global Warming and the Age of Algorithmic Promises” para proteger a sua privacidade e segurança online perante a IA. Também o europeu Knowledge Centre on Migration and Demography propôs uma “Big Data for Migration Alliance” para gerir “o acesso a dados, segurança e preocupações éticas”.

No geral, nota a Coda, “espera-se que o mercado global de sistemas de segurança nas fronteiras atinja um valor de cerca de 53 mil milhões de dólares em 2022. No seu orçamento de 2014-2020, a UE destinou 14,2 mil milhões em segurança transfronteiriça mas quase triplica esse valor para 38 mil milhões no próximo período de 2021 -2027. Essa enorme injecção de dinheiro, realizada após a crise migratória da Europa de 2015, permitiu a várias pequenas empresas acederem a dinheiro público da UE e de estados individuais para desenvolverem os seus produtos”.

Resolução sem responsabilidade
A verdadeira questão é o que se está a tentar resolver com tudo isto, questiona Justin Ginnetti, do Internal Displacement Monitoring Centre. Por exemplo, quando uma operadora de telemóveis cede dados de utilizadores de centros de asilo para identificar padrões por nacionalidade, onde dormem ou para tentar perceber como se movem.

Como refere Molnar, é preocupante ver esta situação quando entidades como o World Food Program estabelecem um acordo de 45 milhões de dólares com a Palantir Technologies, empresa conhecida pela gestão de detenções e deportações nos EUA.

O que se está a tentar resolver foi o que o ex-consultor do governo inglês tentou saber a 11 de Março numa reunião governamental quando pediu às empresas tecnológicas para lhe explicar o que podiam apresentar para ajudar na luta contra o Covid-19.

Mas, como explicou Sean McDonald, do Centre for International Governance Innovation, “o mais vasto determinante da mortalidade por Covid-19 é a capacidade do sistema de saúde pública”. Ao generalizar as tecno-soluções como salvadoras numa situação em que não podem directamente eliminar o coronavírus, coloca-se o ónus nestas entidades privadas.

E, com a violação de leis sob a desculpa da pandemia, está-se a sustentar financeiramente as empresas tecnológicas com verbas que podiam destinar-se ao sistema de saúde e a antecipar que, no âmbito dos problemas legais e da privacidade (com o RGPD), as entidades públicas e privadas que partilham dados pessoais sem autorização dos seus detentores possam vir a ser processadas sem grandes resultados práticos devido à diluição das responsabilidades.

* Fotos: Coast Guard News (CC BY-NC-ND 2.0) e Christophe Becker (CC BY-ND 2.0).

Deixe uma Resposta

Preencha os seus detalhes abaixo ou clique num ícone para iniciar sessão:

Logótipo da WordPress.com

Está a comentar usando a sua conta WordPress.com Terminar Sessão /  Alterar )

Google photo

Está a comentar usando a sua conta Google Terminar Sessão /  Alterar )

Imagem do Twitter

Está a comentar usando a sua conta Twitter Terminar Sessão /  Alterar )

Facebook photo

Está a comentar usando a sua conta Facebook Terminar Sessão /  Alterar )

Connecting to %s

This site uses Akismet to reduce spam. Learn how your comment data is processed.