Para alguém que escreve e pensa extensivamente sobre recusa tecnológica – ou contestar sistemas sociotécnicos – em comunidades marginalizadas nos EUA, não deveria ter-me surpreendido com um problema no meu próprio país. Mas fiquei.
Acontece que a Ocado, uma empresa que o Reino Unido considera ser das suas melhores e mais inovadoras empresas (uma “Microsoft do retalho“), planeia operar um depósito atrás de uma escola primária. A Ocado quer responder a milhares de pedidos de supermercado online neste depósito, o que significa que centenas de camiões de entrega atravessariam a área diariamente.
Os moradores locais preocupam-se com os impactos da poluição sonora, atmosférica e luminosa não apenas nas crianças que frequentam esta escola mas também com todos os moradores em redor. No final de 2020, graças aos apelos dos moradores, o conselho local revogou a licença de planeamento da empresa de tecnologia. A Ocado está determinada a avançar, no entanto. Após um tribunal confirmar a legalidade da revogação da licença, a empresa está a mexer-se para recorrer da decisão. O que quer que faça, a Ocado enfrenta uma forte oposição dos moradores indignados.
Uma postura de adversalidade e contestação parece ainda mais urgente nos dias de hoje. Como inúmeros exemplos que o Our Data Bodies – o projecto que co-fundei e co-liderei – revelou, este caso exemplifica as tácticas de intimidação e as lógicas coercivas das empresas tecnológicas. Deixem-nos fazer o que queremos ou que se danem.
O Our Data Bodies falou de pessoas marginalizadas em Charlotte, Detroit e Los Angeles sobre as suas experiências com a recolha de dados, sistemas orientados para os dados e as pessoas e as instituições que os gerem. E no caso do depósito de Ocado, vejo uma resposta familiar de luta: Não… nós merecemos mais do que você.
Se eu entendo a comunidade de dados responsável correctamente, ela pede que a recolha de dados, a análise de dados e as decisões baseadas em dados sejam feitas de maneira que reconheçam o contexto e a história, incluindo histórias de opressão ou de injustiça. Os defensores responsáveis de dados ligam-se aos esforços dos dados para o bem, acentuam a ética, a sustentabilidade e a responsabilidade, e enfatizam a justiça e a equidade em cada estágio do ciclo de vida dos sistemas orientados por dados.
O Our Data Bodies reconhece e empenha-se nesse tipo de trabalho: no Outono passado, Tawana Petty e Tamika Lewis, ambas membros co-fundadoras, contribuíram para “A Toolkit Centering Racial Equity throughout Data Integration“. Trabalhos dessa natureza continuarão a ser importantes e necessários para desafiar a opressão sistémica e institucionalizada.
Além disso, o actual clima político e económico exige atenção para combater o poder das tecnologias soberanas. As empresas que criam tecnologias de optimização – sistemas tecnológicos que constantemente sugam dados pessoais e ajustam ou optimizam serviços com base nisso – têm-nos na palma da mão. Elas prendem-nos a um serviço e depois agem com impunidade, tornando-os o poder soberano sobre os nossos hábitos diários.
Graças ao aumento da procura por serviços virtuais, durante a pandemia de Covid-19, o poder dessas empresas disparou. Os CEOs da tecnologia e de empresas de tecnologia aproveitaram uma crise de saúde para impulsionar a procura, implantar infra-estruturas tecnológicas e bloquear os utilizadores.
Muitos desses utilizadores são pessoas que se escondem em casa esperando pela suas entregas de supermercado online ou diagnósticos remotos de saúde – consumidores e cidadãos. Mas talvez ainda mais significativo, os utilizadores também incluíram instituições estatais pressionadas a oferecer serviços online, incluindo serviços governamentais automatizados, a curto prazo. Como disse Julia Glidden, vice-presidente do Worldwide Public Sector na Microsoft: “Podemos fazer praticamente qualquer interação com o governo de pijama… e o que podemos fazer agora é fazê-lo em escala”. De facto, na Europa e nos Estados Unidos, educação, saúde, policiamento e outros serviços públicos básicos contam agora com uma combinação de auto-atendimento digital, entrega de serviços online, análise predictiva e diagnóstico remoto.
De cidadãos e consumidores a governos, os utilizadores dependem totalmente das empresas de tecnologia para os manter à tona (aqueles que estão fora do alcance da infra-estrutura de tecnologia também são dependentes – embora, em vez de usar a tecnologia para se manter à tona, sejam totalmente deixados para trás).
À medida que a dependência da infra-estrutura tecnológica se aprofunda, actores estatais e privados estão a normalizar a vigilância – fazendo com que pareça inevitável, inelutável, senso comum. Cidadãos e consumidores são incentivados a adoptar ou a aceitar serviços automatizados em tempo real, como campainhas “inteligentes” em casa e câmaras de reconhecimento facial na rua. O aumento da procura por esses serviços gera mais vigilância, com fornecedores de tecnologia capazes de ajustar quais os dados do utilizador que monitorizam e processam.
Da mesma forma, no local de trabalho, os empregadores monitorizam rotineiramente a produtividade dos trabalhadores, estejam eles em casa ou no local de trabalho. A monitorização do estado de saúde é o mais comum entre essas práticas, embora a gestão do desempenho também esteja difundido.
Trabalhadores de baixos salários na Amazon, por exemplo, podem enfrentar um estado constante de ansiedade, com alguns sendo submetidos a uma meta de 60 a 90 caixas por hora. Trabalhadores com salários mais elevados vivenciam a vigilância no local de trabalho de maneiras diferentes, mas possivelmente com tanta ansiedade, dado que os empregadores instituem software de monitorização concebido para medir a produtividade ou, nalguns casos, detectar acções dos funcionários pelas quais a empresa pode ser legalmente responsabilizada.
O que está em jogo é nada menos do que os nossos corpos – onde nos podemos mover, como o podemos fazer, com quem podemos nos mover. Veja-se a tecnologia de leitura da íris, por exemplo. Os evangelistas da tecnologia no campo humanitário justificam-na como um meio para impedir fraudes e desperdícios na assistência humanitária. Na última década, o esforço para registar a íris dos refugiados cresceu ao lado da ideia de que a assistência humanitária precisa de ser optimizada. Em 2020, a UNHCR reportou a implementação em larga escala do reconhecimento da íris em programas de refugiados no Bangladesh, Etiópia, Zâmbia e Malawi, e programas de menor escala ou pilotos na Costa Rica, Grécia, Burundi, Irão e Ruanda. Hoje, o reconhecimento da íris de refugiados está a expandir-se para a assistência alimentar.
O foco desses sistemas na optimização é uma história familiar num estado neoliberal – e certamente uma em exibição na investigação anterior que fizemos na Our Data Bodies. Troca-se empatia por eficiência e privacidade e dignidade por acesso a necessidades básicas. Ao limitar as interacções diárias a um conjunto de fornecedores participantes, estreita-se um caminho de escolhas e oportunidades para o auto-desenvolvimento, sem falar na auto-determinação.
Embora a tecnologia de reconhecimento da íris possa demorar muito para chegar às configurações convencionais de consumidores, cidadãos ou funcionários, a lógica de infra-estrutura que se adopta viaja facilmente para outros contextos. Dado como a tecnologia se tornou central para o estado pós-Covid, pode ser apenas uma questão de tempo até que os pagamentos de “estímulo” ou o rendimento básico universal sejam mediados por uma arquitectura fechada do sistema.
Mas a supremacia desses sistemas não é definitiva, e há defeitos na armadura da tecnologia soberana. Há esperança no trabalho contínuo da Our Data Bodies, grupos afins e movimentos inspiradores, e no meu próprio país, na decisão judicial contra a Ocado.
Artigo de Seeta Peña Gangadharan, publicado em Responsible Data (CC). Imagem: Jones | Ginzel (CC).