Onde está o mal em ligar as carteiras digitais ao ID biométrico exclusivo Aadhaar na Índia?
Nenhum, argumentariam muitas pessoas.
Mas Poornima [os nomes foram alterados], um activista transgénero que vive numa grande cidade no nordeste da Índia, pensa de maneira diferente.
Entre as pessoas trans com quem trabalha, muitas envolvem-se em sexo e dependem da popular carteira digital indiana Paytm para pagamentos. Carteiras que, até 2017, não davam qualquer ideia da sua vida profissional.
Conheça o Aadhaar.
Após uma forte pressão política do governo, essa identificação digital de 12 dígitos gerada aleatoriamente passou a ser obrigatória em poucos anos, para os residentes acederem aos benefícios do Estado, aos subsídios de assistência social e entregarem os impostos. Em 2017, vincular as carteiras digitais como a Paytm à Aadhaar também se tornou obrigatório durante algum tempo. E as comunidades de trabalho sexual como a de Poornima ficaram preocupadas.
O género está entre os dados recolhidos ao registar-se no Aadhaar, com sendo sempre fornecidas três opções de género. De certa forma, o reconhecimento de mais de dois géneros nos formulários oficiais do governo é uma coisa maravilhosa. Mas o facto de esses dados serem recolhidos também pode representar um risco. Para muitas pessoas trans, as oportunidades de emprego estão severamente restritas e o trabalho sexual é frequentemente uma das suas poucas opções disponíveis. As autoridades também sabem disso.
Como os dados sobre pagamentos estão vinculados aos dados sobre género, Poornima e os seus colegas temem que isso possa acabar inadvertidamente por tornar visível as suas identidades como profissionais do sexo.
Isto é um problema. Segundo a lei indiana, solicitar ou viver da renda do trabalho sexual são crimes. E enquanto muitos na comunidade trans tentam ganhar a vida através do trabalho sexual, o governo acredita que o que eles precisam é de “reabilitação”, a fim de viverem vidas mais “respeitáveis”. Nesta luta pelo que é certo, os dados tornam-se uma moeda crucial.
Para as comunidades que já vivem à margem, as consequências de perder o controlo sobre esses dados são devastadoras. Nas palavras de Poornima: “É apenas outra maneira de o Estado controlar as pessoas – controlar as actividades que realizam e os tipos de expressão em que se envolvem”.
***
No cerne das vulnerabilidades para que Poornima chama a atenção está um aspecto do direito à privacidade que recebe pouca atenção, mas está a tornar-se cada vez mais importante na era digital: a privacidade como gestão de limites.
Todos participamos da gestão dessas fronteiras nas nossas vidas quotidianas: acontece sempre que tomamos uma decisão sobre o que revelar – ou o que não revelar – sobre nós mesmos. Se decidimos entregar o nosso número de telefone a lojas de um centro comercial. Se decidimos dizer a um estranho fixe num bar o nosso nome. Se decidimos partilhar as nossas orientações sexuais com as nossas famílias. Algumas dessas decisões podem parecer triviais mas, colectivamente, a nossa capacidade de as controlar afecta a nossa capacidade de autodeterminação.
No século XX, muito antes da criação da Internet, B.R. Ambedkar – um dos principais intelectuais da Índia e contemporâneo de Gandhi – já estava ciente da importância de poder controlar dinamicamente quais as informações sobre nós que partilhamos, com quem e quando.
Embora Gandhi convocasse os seus seguidores para se mudarem para as aldeias da Índia, Ambedkar recomendou que os dalits do país – aqueles que, no sistema difuso de castas da Índia, estão designados para o nível mais baixo – se mudassem para as cidades. Ambedkar argumentou que o anonimato da cidade lhes daria uma chance muito melhor de escapar dos rígidos requisitos da casta; construir uma vida melhor para si do que as redes sociais unidas da vila permitiam. Nas aldeias, a sua casta será sempre conhecida. Nas cidades, ainda se pode manter alguma medida de controlo sobre se deve ou não revelar essas informações.
Ambedkar reconheceu que a gestão das fronteiras não é apenas importante porque nos permite controlar o que partilhamos com os outros; ele também entendeu que esse controlo é crucial para viver uma vida digna.
Como seres humanos, somos profundamente moldados pelos nossos mundos sociais. Mas, se quisermos viver com dignidade, o social não pode dominar o nosso sentido de identidade – por mais que valorizemos os nossos laços sociais. Especialmente quando se trata de aspectos das nossas identidades que são marginalizados, é crucial ter espaço para dar um passo atrás nos ambientes sociais e desenvolver uma perspectiva crítica sobre o mundo em nosso redor. Desfrutar de espaço para validar as nossas próprias experiências, crenças, sentimentos e desejos – mesmo, ou talvez especialmente, quando eles não se alinham com o que a sociedade nos diz. A gestão de limites é o que nos permite criar esse espaço.
O entendimento tradicional de privacidade falha normalmente em acomodar essas preocupações. Quando definimos privacidade em termos de espaços físicos, como as nossas casas, vemos a privacidade como um estado estático e binário: algo que exigimos para agora e para sempre. Mas a gestão de limites é sempre dinâmica, porque é sempre contextual. Quando tomamos decisões sobre o que partilhar com quem, essas não são condições fixas com limites bem delineados. Em vez disso, elas adaptam-se constantemente a novas situações e mudanças de relacionamento.
Pode-se não dar a essa pessoa no bar o número de telefone nos primeiros minutos da interacção mas, talvez à medida que a conversa avança, o possa fazer. Pode não contar aos seus pais sobre a sua orientação sexual no momento em que percebe que pode ser lésbica, gay ou bi, mas talvez, à medida que se sente cada vez mais confortável com esse aspecto da sua identidade, anseie por partilhá-lo com eles. Nos dois casos, apenas porque partilhou essas informações com pessoas específicas, não significa que deseja partilhá-las (imediatamente) com o mundo.
E aqui está o grande desafio para a privacidade na era digital: na busca de tornar todos nós cada vez mais legíveis, transparentes e previsíveis, governos e actores privados estão a minar fundamentalmente a nossa capacidade de se envolver na gestão autónoma dos nossos corpos, de nós mesmos e de viver como acharmos melhor.
***
Porque não são os medos de Poornima e das pessoas com quem ela trabalha ouvidos mais alto no discurso público? Uma parte importante da resposta está em como nos disseram para examinar os dados.
Como a tecnologia garante que os dados sejam criados sobre mais aspectos das nossas vidas, os governos, as grandes empresas de tecnologia e as startups esforçam-se para recolher esses dados – simplesmente porque eles existem. Se ainda não tiverem valor hoje, argumentam, talvez tenham amanhã. Porque os dados, segundo este argumento, são a solução definitiva para, enfim, tudo. Tanto é assim que modelos de negócios, planos de governança e visões de desenvolvimento são cada vez mais formulados em torno deles.
Implícita ou explícita em muitos desses desenvolvimentos está a assumpção de que as informações produzidas pela identificação de dados das nossas vidas são de alguma forma mais objectivas e precisas do que qualquer coisa que tenha ocorrido antes. Isso torna-se possível porque os dados são efectivamente retratados como uma camada separada que de alguma forma penetra em tudo e que ainda existe independentemente do meio em que está contida.
Quando os dados são apresentados como um recurso a ser extraído, não há qualquer recurso: quando os dados são escavados, acredita-se que, de alguma forma, produzem a verdade última. Por outras palavras, os dados emergiram efectivamente como o oráculo do século XXI.
Isto ocorre com o nosso corpo também. Veja-se o Aadhaar. Ao inscrever-se no Aadhaar, as pessoas são obrigadas a partilhar as 10 impressões digitais e digitalizações das suas íris, além do nome, data de nascimento, sexo, endereço e uma fotografia facial.
Como o Aadhaar é supostamente um número, não um ID físico, é frequentemente elogiado pela sua falta de materialidade. Mas, ironicamente, na sua forte dependência das informações biométricas, na realidade,ele baseia-se em “actos intensamente materiais“. Afinal, é precisamente vinculando dados biométricos a dados demográficos, como sexo e data de nascimento, que supostamente se torna possível estabelecer quem você é realmente.
Como vários investigadores apontaram, os dados biométricos gerados pela análise dos corpos são o pino de linchamento do Aadhaar: são tratados como indiscutíveis e fundamentais, de alguma forma precedendo todas as formas sociais, políticas e económicas da identidade. Os dados do seu corpo, e somente esses dados, nos dirão quem realmente é esse corpo.
À medida que as notícias continuam a surgir de pessoas que não recebem rações na Índia porque a sua autenticação da impressão digital falha, nalguns casos com fome como consequência, é por causa disto: os nossos sistemas estão agora configurados de maneira que os dados dos nossos corpos sejam privilegiados sobre os nossos corpos vivos, dizendo aos outros quem somos. A nossa agência em nos representar tornou-se irrelevante.
Mas a verdade é que nem corpos nem dados existem fora do mundo social – assim como os corpos-como-dados.
***
Em 2011, Karnataka alterou a Lei da Polícia do estado para incluir uma secção que visava especificamente pessoas trans. Até essa referência à comunidade trans ser apagada da disposição em 2017, a Secção 36A permitiu à polícia manter um registo dos nomes e endereços de pessoas trans que podiam ser “razoavelmente suspeitas” de “actividades indesejáveis”. Com uma pincelada, a lei destacou as pessoas trans como criminosos em potência, simplesmente tendo por base a sua identidade de género.
As raízes de tais práticas remontam aos tempos coloniais, quando os governantes britânicos na Índia criaram bases de dados para vigiar os cidadãos. Esses registos foram baseados apenas nas suspeitas sobre as “personalidades” das pessoas. Assim, muitas pessoas nómadas cujas ocupações, costumes e ascendência não se encaixavam nas concepções britânicas de “pessoas civilizadas” acabaram nas bases de dados, rotuladas como “tribos criminais”. Outros foram considerados “dispensáveis, indesejáveis e que não merecem protecção” viram-se nas listas de “goondas” e “más personagens”.
Embora essa lei tenha sido revogada após a independência da Índia, a vigilância contínua de grupos específicos, baseada apenas em suspeitas vagas, prosseguiu até hoje.
Já antes da emenda de 2011, o Manual da Polícia de Karnataka permitia um registo de “goondas”, que inclui “um hooligan, áspero, vagabundo ou qualquer pessoa que seja perigosa para a paz ou tranquilidade pública”. É claro que essa última categoria é ampla o suficiente para incluir mais ou menos quem não segue as normas sociais dominantes.
Se as pessoas com quem Poornima trabalha se preocupam com a revelação do seu género, elas têm um bom motivo. Como os corpos não existem fora dos seus contextos sociais, geralmente não olhamos ou tratamos todos os corpos da mesma maneira. Mesmo que não deva ser assim, na prática, com muita frequência, importa se outras pessoas lêem o nosso corpo como feminino, masculino, trans ou de género não conforme; pobre ou rico; de pele escura ou clara. Os nossos corpos são telas nas quais os enviesamentos das sociedades são projectados.
Mas se a produção e a interpretação dos corpos é, em grande medida, uma questão social, isso também vale para os dados – com importantes consequências.
Tome-se, por exemplo, a acção relatada pela polícia indiana em direcção ao policiamento predictivo. A suposição é de que isso tornará o policiamento mais eficaz e levará a uma melhor alocação de recursos – e tornará o policiamento mais “racional”, se quiser. Mas como é “racional” definido neste contexto? Muito depende do design dos algoritmos que são usados para orientar esses esforços e dos dados com que eles são alimentados.
Como, por exemplo, as pessoas trans em Karnataka se sairão sob esse novo regime se elas já forem apontadas como criminosos em potência sob vigilância constante? Dada a existência de disposições como a Secção 36A, é provável que elas estejam sobre-representadas nos dados supostamente “relacionados com o crime” – o “crime”, no entanto, é simplesmente o género.
Por outro lado, pode-se imaginar como seriam os diferentes conjuntos de dados da polícia se a lei de Karnataka identificasse possíveis autores de crimes de colarinho branco da mesma maneira que as pessoas trans?
Se um desses conjuntos de dados existe e o outro não, isso é um reflexo das normas e crenças sociais incorporadas na lei. Em vez de qualquer “racionalidade”, é o viés da lei que impulsiona a geração de dados. E se esses enviesamentos não forem corrigidos antes que os dados sejam inseridos no algoritmo, o policiamento predictivo na Índia aprofundará ainda mais as desigualdades enfrentadas pelas pessoas trans e outras comunidades-alvo – direccionando mais a atenção da polícia para elas.
Os dados são sociais porque as decisões sobre o que incluir e o que ignorar no nível do design, ao que prestar atenção e ao que desconsiderar durante a recolha e a análise sempre envolvem processos de interpretação – e esses são frequentemente infundidos com enviesamentos.
E assim, quando os nossos corpos e as suas acções se tornam dados, isso não nos expõe todos igualmente, porque nem todos somos igualmente vulneráveis. Para aqueles que de alguma forma não se enquadram na norma, a subsequente perda de controlo sobre o que eles partilham com outras pessoas é potencialmente muito mais prejudicial do que para aqueles que se adaptam mais ou menos.
***
Em Dezembro de 2016, Priya, 30 anos, uma profissional do sexo com HIV que trabalha em Secunderabad, foi convidada a registar o seu número de Aadhaar no centro onde ela recebe os medicamentos todos os meses. Preocupada que a relação com o Aadhaar levasse ao conhecimento de informações sensíveis sobre a saúde, Priya parou de tomar o seu medicamento naquele mês. O marido e os filhos de Priya não sabem que ela é seropositiva ou trabalhadora sexual.
Como o Aadhaar é um ponto de dados necessário numa ampla variedade de bases de dados governamentais e comerciais, a vinculação dessas bases de dados ao Aadhaar como ponto central tornou-se muito mais fácil. E essa consolidação de dados anteriormente dispersos é motivo de preocupação.
Em 2017, um ano após a Organização Nacional de Controlo da SIDA da Índia instar as sociedades estaduais de controlo da SIDA a vincular o fornecimento de terapia anti-retroviral (ART) ao Aadhaar, menos da metade de todas as pessoas HIV positivas que acediam aos serviços desses ART em Karnataka cumpriram o pedido. Muitos temiam que isso aumentasse a sua exposição a possíveis revelações e, portanto, ao estigma.
Da mesma forma, em Abril de 2019, surgiram relatos de que o Departamento de Saúde e Bem-Estar da Família de Karnataka começará em breve a rastrear todas as gravidezes no estado usando um número de identificação único vinculado ao Aadhaar.
Há um ano, duas propostas diferentes já sugeriam que as gestações das mulheres fossem rastreadas usando o Aadhaar, a fim de monitorizar e restringir a prática da selecção de sexo por género, proibida na Índia.
Mas, como aponta Ramya Chandrashekhar, onde um “caminho digital de escolhas exercida sobre o corpo de alguém é criado sob a visão do Estado, [isso] dificulta a autonomia das mulheres em tomar decisões relacionadas com o seu corpo e vida”.
Na ausência de políticas fortes de protecção de dados, como esse rastreamento e a possibilidade de partilha de dados de forma não consensual vão impactar as mulheres? Especialmente aquelas que não querem que as suas famílias saibam que estão a abortar – por medo de serem estigmatizadas ou pelo descrédito, ou simplesmente porque as suas famílias podem discordar da sua decisão? É bem provável que muitas dessas mulheres procurem opções fora do sistema formal de saúde, a fim de evitar que as suas acções sejam registadas , colocando em risco o seu corpo.
Os seus medos não são infundados. Apenas nos últimos dois anos, foram relatados casos de divulgação de dados relacionados com a saúde reprodutiva pertencentes a milhões de mulheres indianas do norte ao sul da Índia. No último caso, os dados estavam ligados ao Aadhaar.
Ao normalizar o aumento da vigilância dos corpos, decisões e dados de pessoas marginalizadas, essas medidas também reduzem o nosso controlo sobre quem pode recolher os nossos dados sobre aspectos sensíveis das nossas vidas e de quem tem acesso a eles.
***
Nas fábricas de roupas de Bangalore, mais de três quartos da força de trabalho são mulheres – e o assédio sexual é generalizado. Perante disso, a segurança das mulheres tornou-se uma justificação importante para o uso de videocâmaras (CCTV) nessas fábricas. Mas quando a investigadora Nayantara R. analisou o impacto real dessas câmaras, ela não conseguiu encontrar uma única instância em que as imagens de CCTV tivessem sido usadas com sucesso para serem usadas em processos contra o assédio.
Em vez disso, Usha, uma trabalhadora de uma das fábricas, destacou como as câmaras tiveram o efeito oposto: porque não gravam som, uma repetida queixa de assédio sexual por um supervisor que dizia coisas obscenas para uma trabalhadora da fábrica não foi levada a sério – e ela acabou sendo despedida.
E como as CCTV penetram até nas acções mais íntimas, elas na realidade criam novas formas de assédio e para o voyeurismo, com efeitos de género. Os trabalhadores com quem Nayantara falou também observaram que as suas visitas à casa de banho eram monitorizadas e que mesmo acções quotidianas, como rir ou coçarem-se dentro de uma blusa de sari, se tinham tornado motivo de desconforto ou de medo. Como disse uma trabalhadora: “Hoje em dia eu tento ignorar qualquer vontade de me coçar”.
Mesmo que a segurança das mulheres seja a motivação declarada, as câmaras de CCTV transformam os corpos e os seus movimentos em dados em todo o mundo. E essa proliferação tornou a gestão de limites ainda mais difícil para as mulheres e as minorias de género. Ela possibilitou novas formas de vigilância, geralmente por pessoas cujos privilégios levam a preconceitos que apenas reproduzem, em vez de desafiar, as desigualdades existentes. Ao mesmo tempo, a difusão dessas câmaras dificultou ainda mais para as mulheres e as minorias de género controlar que informações sobre os seus corpos e movimentos partilham e com quem.
Em 2013, mais de 250 videoclipes, que se acredita serem imagens de CCTV, de casais que partilhavam intimidades nas plataformas das estações de metro de Delhi ou em comboios quase vazios, foram enviados para sites pornográficos internacionais. Conforme antecipado por Ambedkar, o anonimato das grandes cidades oferece entre os poucos espaços de privacidade física acessíveis àqueles de origem conservadora ou que vivem em bairros lotados. As consequências de tais “divulgações” de dados tendem assim a ser particularmente graves para as mulheres marginalizadas ou economicamente vulneráveis e aquelas pertencentes à comunidade queer – que podem ser reconhecidas por alguém que as conhece.
Portanto, seja uma trabalhadora ou uma passageira de transporte público, as actuais implementações dominantes das câmaras de CCTV fazem muito pouco para deslocar os desequilíbrios de poder no centro da violência que muitos enfrentamos.
***
O que faz uma pessoa parecer gay, heterossexual ou lésbica? Aparentemente, existe um algoritmo que o pode dizer. Após os investigadores Michal Kosinski e Yulin Wang treinarem um algoritmo para identificar as orientações sexuais das pessoas a partir das suas características faciais, eles descobriram que fazia um trabalho muito melhor do que os seres humanos.
Não surpreendentemente, o estudo foi altamente controverso – e com razão. O que raio pensavam eles quando decidiram desenvolver um mecanismo que poderia potencialmente afastar pessoas em grande escala, especialmente quando em tantos países as sexualidades queer continuam a ser criminalizadas?
Como os seres humanos, o algoritmo nem sempre era preciso nas suas categorizações. Mas, devido à aura de objectividade e veracidade que envolve os dados, estudos como esses têm o potencial de colocar um grande número de pessoas num risco tremendo.
Pelo menos nos espaços urbanos, a nossa expectativa é a de que, quando mostramos os nossos rostos em público, isso revele pouco sobre nós – excepto para aqueles com quem escolhemos partilhar mais. Esse anonimato, ou a expectativa de privacidade pública, é central para o empoderamento que as cidades fornecem a muitas pessoas marginalizadas. Mas isso será cada vez mais difícil agora, à medida que o uso da tecnologia de reconhecimento facial aumentar. Não só será possível gravar e divulgar as imagens de mulheres a beijarem-se e a acariciar os seus parceiros no metro de Delhi, como também será possível identificar as mulheres em questão mais facilmente do que nunca. A protecção que o anonimato dá para explorar a vida de maneiras não sancionadas não mais existirá. E os conselhos de Ambedkar aos dalits da Índia para se mudarem para as cidades perderão parte da sua força.
Não é apenas uma questão de anonimato e de privacidade. Como Joshua Scannell aponta, essa pesquisa em torno do reconhecimento facial expõe a crescente confiança depositada na biometria como uma maneira de saber quem realmente somos – e ilustra os perigos que a acompanham. É assustadoramente uma reminiscência de tendências semelhantes nos séculos XVIII e XIX, quando as pseudo-ciências da fisionomia e da frenologia alegaram que era possível determinar a personalidade de alguém e até mesmo o seu carácter moral, examinando os seus rostos ou crânios.
Os elementos mais horríveis dessas pseudo-disciplinas podem ter sido desmascarados pela ciência (com muita ajuda dos movimentos de direitos civis), mas os efeitos de tais reivindicações muitas vezes foram duradouros e devastadores. Por exemplo, investigações mostraram que o genocídio no Ruanda em 1994 encontrou raízes, entre outras coisas, na aplicação exactamente dessas ideias duvidosas pelos colonizadores belgas e alemães, que as usaram para dividir a população ruandesa em hutus e tutsis.
A premissa básica das suas afirmações – de que o carácter pode ser deduzido a partir de atributos físicos – renasceu em obras como a de Kosinski e Wang. A única diferença é que a sua aplicação agora foi aprofundada nos nossos corpos e rostos.
E isso influencia o quão livremente podemos viver as nossas vidas.
***
Em 2017, surgiram notícias de que a polícia de Chennai começou a equipar uma popular área comercial com CCTV com software de reconhecimento facial. O sistema fora alimentado com fotografias de cerca de 500 ex-presidiários e “criminosos procurados”. Se uma dessas pessoas estivesse na área – ou seja, se houvesse uma sobreposição de apenas 80% entre a filmagem e uma das imagens na base de dados – um alerta seria enviado à polícia, que levaria a pessoa para interrogatório. Uma verificação detalhada só seria feita posteriormente.
Quem acaba em tais bases de dados? A reportagem do jornal não esclareceu como ou de onde vieram essas imagens de “criminosos procurados”, mas a lei indiana permite que as fotografias sejam tiradas pela polícia de pessoas que foram apenas presas, mas não condenadas, desde que um magistrado aprove.
Com o software de reconhecimento facial a ser cada vez mais integrado nos esforços de policiamento preventivo em todo o país, a existência de leis como a Secção 36A da Lei de Polícia de Karnataka e outras disposições que destacam grupos específicos de pessoas para vigilância tornam-se num motivo de preocupação. Se as pessoas trans são regularmente visadas na acção policial simplesmente com base no seu género, o uso de software de reconhecimento facial significa que actos quotidianos como circular numa área comercial os levará a serem detidos?
Esta preocupação não é exagerada. A advogada Darshana Mitra explica como, em Bangalore, as mulheres que foram identificadas como profissionais do sexo pela polícia são detidas simplesmente porque ocupam espaço público durante o dia: por estarem em pé numa movimentada paragem de autocarro, a comerem amendoins, a conversarem com pessoas. “Vê o que estão a fazer!?”, exclamou um polícia numa conversa com Mitra sobre as imagens de vídeo que ele tinha gravado. Pela sua pergunta, ele implicava que as acções das mulheres representavam solicitações públicas. Quando se trabalha como prostituta, parece que o simples acto de andar num espaço público já é crime.
O software de reconhecimento facial ameaça normalizar ainda mais a criminalização de profissionais do sexo, pessoas trans e outros grupos que estão sempre sob vigilância.
Além disso, as notícias indicam que a polícia do estado vizinho de Kerala começou a usar a tecnologia de reconhecimento facial que utiliza dados dos media social para identificar manifestantes que consideram “criminosos, extremistas e criadores de problemas”. À medida que essas iniciativas se espalham, a participação em protestos políticos para se opor a este tratamento pode trazer riscos crescentes para aqueles que já são vulneráveis. Por exemplo, em protestos recentes contra a Lei de Emenda à Cidadania da Índia e ao Registo Nacional de Cidadãos, os activistas recearam que a polícia de Delhi estivesse a usar a tecnologia de reconhecimento facial “para identificar dissidentes e membros de uma comunidade específica”.
Como tentativas de ler a orientação sexual no rosto das pessoas, as raízes de tais práticas também remontam aos tempos coloniais. Os britânicos na Índia destacaram pessoas específicas para vigilância simplesmente tendo por base as suas características físicas e outras, sem nenhuma prova de irregularidade da sua parte. Na Índia democrática do século XXI, merece fazer-se a questão: mudou realmente alguma coisa?
***
Colocar os nossos corpos firmemente em debate sobre dados na era digital põe em relevo o que está em jogo aqui – para todos.
Os nossos corpos, agora dados, são a personificação de muitos dos nossos privilégios e marginalizações; recipientes para os nossos segredos mais íntimos. Eles são pontos de referência para algumas das normas mais rigorosas que permitem, e às vezes arruínam, as nossas vidas. Seria bom lembrar que, se o nosso corpo não existe fora do social, os dados que eles incorporam também não.
A compreensão de Poornima sobre o objectivo dos esforços do governo para ligar uma ampla gama de conjuntos de dados é clara. “Algo como vincular o Aadhaar a, digamos, serviços bancários online, está a dizer às trabalhadoras do sexo trans para não ganharem a vida”, diz ela. “Está a violar [os nossos] direitos humanos. Está a violar [a nossa] privacidade”.
É uma afirmação exagerada demais? Pode parecer que sim, a princípio; afinal, pode muito bem ser que esse resultado não seja aquele que o estado jamais pretendeu explicitamente. No entanto, o comentário de Poornima é perspicaz.
Por um lado, lembra-nos que a transparência forçada costuma ter um efeito disciplinar que aumenta a vulnerabilidade das pessoas marginalizadas. Muitas vezes, é em espaços muito pequenos onde as normas e regulamentações sociais ainda não conseguem alcançar que esse espaço para a gestão de limites – e o questionamento das normas sociais que geralmente a acompanha – se pode desenvolver. Como os nossos governos e corporações estão ocupados a tornar-nos o mais transparentes e legíveis possível, esses espaços estão a desaparecer lentamente, um a um.
E assim, com isto em mente, merece ser perguntado: as gestações e abortos devem ser obrigatoriamente rastreados e os dados sobre eles recolhidos à força? As possíveis ligações entre as características faciais e a orientação sexual devem ser dadas a alimentar um algoritmo? A polícia indiana deve poder integrar o seu policiamento predictivo baseado em reconhecimento facial na base de dados do Aadhaar? Pelo menos um alto funcionário da lei na Índia sugeriu essa medida, que efectivamente possibilitaria rastrear todos os indianos, incluindo aqueles que nunca foram acusados de um crime. De facto, o uso de software de reconhecimento facial, excepto nas situações de policiamento mais estritamente definidas, deve ser permitido?
Actualmente, o argumento de que mais dados são sempre bons é frequentemente aceite pelo seu valor nominal. Mas, se quisermos continuar a ter espaços onde possamos validar as nossas próprias experiências do que significa ser um organismo no mundo, a nossa capacidade de se envolver na gestão dos limites é crucial, online e offline.
Sem uma capacidade de autodeterminação e subjectividade em constante desenvolvimento, não mais será possível formular uma perspectiva crítica da sociedade – e muito menos da mudança social.
* Texto original de Anja Kovacs, publicado na Medium (CC BY 4.0). Fotos: Deloitte, Point of view, Sheila Scarborough