Os dados referentes a pessoas são sempre importantes para alguém e daí emerge o interesse em os registar, manipular e lucrar com eles. Antes, o temor da manipulação indevida destes dados pessoais recaía no Estado. Actualmente, esse receio foi transferido para muitas empresas. Ou em projectos conjuntos, como demonstraram 64,4% dos eleitores suíços no passado domingo, 7 de Março.
Eles rejeitaram uma proposta de lei para ter um sistema de verificação de identidade electrónica “licenciado e controlado pelo Estado, mas fornecido principalmente por empresas privadas“, revelou a SWI. O resultado nesta PPP “é um golpe para os planos do parlamento e do governo com o temor sobre a protecção de dados”.
No lado empresarial, estes constrangimentos são mais facilmente contornados. Veja-se a análise de dados no futebol e a potencial antecipação do que se poderá fazer noutros sectores.
Neste desporto, o trabalho sobre os dados “concentra-se geralmente na análise de eventos passados. ‘No entanto, acredito que o futuro da análise de dados se expandirá para prever eventos futuros'”, antecipa Ruben Saavedra, cofundador da empresa de analítica desportiva Metrica Sports.
Sabe-se, por exemplo, que o clube inglês Arsenal tem um grupo de 15 pessoas dedicadas às áreas de performance, análise e ciência de dados mas os líderes na analítica do futebol são os pioneiros Liverpool, Barcelona e Manchester City. “No entanto, cada vez mais clubes com orçamentos menores estão a dar os primeiros passos nessa direcção”, nota Saavedra.
É esta democratização na acessibilidade às ferramentas de analítica que coloca os dados pessoais ainda mais em perigo. Sabe-se quem são as grandes plataformas de publicidade online que fazem um uso demasiado exagerado dos interesses dos utilizadores – incluindo mentir sobre o seu real valor para a publicidade – mas há um conjunto enorme de empresas que trabalham em segmentos demográficos que são desconhecidos da maioria das pessoas. No entanto, uma análise recente demonstrou como as apps gratuitas recolhem muito mais dados pessoais do que as pagas, com a óbvia excepção de empresas como o Facebook.
O caso Cambridge Analytica, apesar de poder ser antecipado em teoria, revelou-se um escândalo quando se entenderam as suas práticas intrusivas que são aparentemente normais no meio da publicidade online – um “sistema baseado na colecção e partilha de dados do utilizador, num mercado competitivo opaco que se mantém principalmente nas mãos de uns poucos poderosos“.
Estas plataformas, apesar do lado positivo da sua existência, estão agora na mira dos Estados porque “os custos sociais impostos pelas empresas do digital se tornou muito elevado“.
Aliás, temendo a vigilância e o “poder dos dados numa pandemia“, a propósito da potencial circulação de dados (incluindo clínicos) dos cidadãos, algumas organizações começaram a alertar sobre o que se podia fazer com esses dados pessoais e várias vozes se insurgiram sobre os riscos e os oportunistas da vigilância serem mais perigosos do que os seus benefícios para “a saúde pública e a saúde da nossa democracia“.
Até a proposta aparentemente justa de dar um maior controlo dos dados pessoais aos utilizadores pode ser vista como um negócio justo ou apenas um nova forma de obter dados pessoais mais refinados e cedidos espontaneamente, fugindo assim ao controlo das autoridades de protecção de dados.
Uma dúzia de propostas contra os vícios
A Oracle propôs “um programa de 12 etapas que pode restaurar o equilíbrio em favor dos consumidores e da concorrência e ajudar a resolver o vício em dados da Google” mas que também serve para outras empresas que dominam o mercado da publicidade online.
Em primeiro, a enganadora expressão “política de privacidade” – porque estas “políticas de privacidade não dizem nada sobre privacidade” – deve ser substituída por “política de recolha de dados”.
Em segundo, a Google não é a primeira parte – nos dados pessoais, esse lugar cabe ao consumidor, pelo que “a Google é uma terceira parte e deve ser tratada como tal”.
Depois, as novas políticas de recolha de dados devem ter algum significado, e “os consumidores merecem descrições claras e fáceis de entender, como na rotulagem de alimentos, e não um tratado legal. Mais sódio, menos sódio. Nós entendemos isto”.
Em quarto, uma “escolha não pode ser um jogo de tudo ou de nada”, quando “os consumidores merecem granularidade na escolha e facilidade de uso. Estamos em 2021. A Perseverance acaba de pousar em Marte. Isto não pode ser tão difícil”.
Quinto, o “opt-out” é o jogo do monopolista. “Cara eles ganham, e coroa os consumidores perdem. O ‘opt-in’ é a única maneira de garantir que os consumidores têm controlo real e todos sabem disso”.
Em seguida, “os consumidores precisam da portabilidade de dados” para escolherem a quem os entregam “em troca de valor real” e de uma maior concorrência, tal como “a portabilidade numérica fez com o telemóvel”.
Sétimo, “com a micro-medição (e facturação) e micro-pagamentos e blockchain e criptomoedas, não há nenhuma razão técnica para que os consumidores não possam ter um pequeno pedaço do bolo” publicitário.
Em oitavo, é necessário “re-estabelecer alguns parâmetros básicos para os direitos de propriedade”: quando as autoridades necessitam de um mandado para rastrear a localização pessoal, porque podem as empresas fazer isso gratuitamente e saber se o utilizador está “numa instituição religiosa, num centro de saúde ou numa zona de prostituição”.
Em nono, os consumidores precisam de “transparência real”, têm o direito a saber “o que é exactamente accionado” quando, por exemplo, procuram saber “como está o tempo” no seu smartphone. E quais os dados que são exactamente enviados quando se treina usando o Fitbit ou se desliga o smartphone? Ou, apesar dos dados num smartphone poderem ser úteis para monitorizar a saúde mental do seu utilizador pelo médico especialista, deve a plataforma tecnológica aceder-lhes para fins comerciais?
Os “superperfis” de pessoas são um “domínio de regimes repressivos, não de empresas de publicidade para o consumidor”, considera-se depois. A recolha de dados “é preocupante, mas a combinação desses dados num único perfil é o problema”.
Em 11º, “a parte menos importante do perfil de um consumidor é um nome. Mesmo os dados chamados de ‘anónimos’ que são rastreados e categorizados num ID de dispositivo são tão ‘pessoalmente identificáveis’ quanto os dados rastreados” para qualquer pessoa “porque cada ID de dispositivo é único”.
Por fim, é preciso “criar espaço para que outros possam inovar, diferenciar, criar valor (e ser pagos)”, sem ter de pagar também às grades empresas da Big Tech uma “taxa de dados”.
Já está mais do que na hora de “os consumidores se sentarem à mesa e beneficiarem directamente do que é deles por direito”, afirma a empresa. Apesar de se ser pago pelos dados pessoais poder ser uma má ideia, como explica a Electronica Frontier Foundation, porque num modelo de “política de dividendos de dados“, quem determina quanto se recebe pelos dados privados, o que torna os dados valiosos para as empresas e o que ganhará uma pessoa em média e o que vai perder?
Um novo capitalismo baseado no extractivismo informacional
Talvez haja razões para argumentar que toda uma economia política, funcionando com as assimetrias de informação como forma de controlo, está a nascer diante dos nossos olhos, escreve Szymon Wróbel, professor de filosofia na Faculty of Artes Liberales da University of Warsaw e no Institute of Philosophy and Sociology da Polish Academy of Sciences.
Acompanhando uma “classe de proprietários que possui a terra e uma classe capitalista que possui as fábricas, agora há também outro tipo de classe dominante – uma que não possui nenhuma dessas coisas mas, em vez disso, possui os algoritmos com os quais as informações são recolhidas e usadas. Talvez, ‘depois do capitalismo’ virado para a extracção da energia e da matéria da natureza, e após a ‘extracção do trabalho’ de uma sociedade organizada por classe, género e raça, esteja a chegar o capitalismo baseado no extractivismo informacional”, um capitalismo que “se alimenta de informações extraídas directamente dos nossos cérebros”.
Wróbel nota como, “aos poucos, estamos a receber novas mensagens de que os dados são a mesma matéria-prima que os recursos energéticos (carvão, linhito, crude, gás natural) ou metais (ferro, cobre, zinco, chumbo, cobalto)”. Ele recorda como Karl Marx escreveu que “as ideias da classe dominante são em todas as épocas as ideias dominantes, ou seja, a classe que é a força material dominante da sociedade é ao mesmo tempo a sua força intelectual dominante”.
Como “as ideias dominantes nada mais são do que a expressão ideal das relações materiais dominantes”, elas são “de pessoas que têm acesso aos meios de produção dessas ideias e recursos para controlá-las e avaliá-las. Nesse sentido: não há nada de novo sobre a ideia de capitalismo cognitivo ou de vigilância”.
Pode não existir nada de novo mas “o digital mudou a natureza do capitalismo“, alega Hubert Guillaud na Internetactu.net, na crítica a “The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power”, de Shoshana Zuboff.
“Estamos mergulhados numa nova forma de capitalismo, o ‘capitalismo de vigilância’, que visa explorar não apenas o trabalho e os recursos naturais, mas a própria experiência humana para traduzi-la em dados comportamentais, um ‘excedente comportamental proprietário’, usado em avançadas cadeias de produção, impulsionadas por IA, para serem transformadas em ‘produtos de previsão’ através de ‘meios de modificação de comportamento’ cada vez mais sofisticados. Esses produtos de previsões e meios de modificação são comercializados num novo mercado, em grande parte invisível aos olhos dos indivíduos que são a sua matéria-prima, em benefício de um novo poder: o ‘instrumentalismo'”.
Invisível são também os interesses de quem ganha com a obtenção desses dados. Por exemplo, um estudo detectou “um desalinhamento entre o que as redes de anúncios e os anunciantes desejam: enquanto os anunciantes exigem ferramentas de direccionamento mais invasivas da privacidade, as redes de anúncios têm incentivos económicos naturais para limitar o direccionamento comportamental e aumentar a concorrência entre anunciantes”.
Os investigadores chegam mesmo a afirmar que os “resultados sugerem que as redes de anúncios podem ter incentivos económicos para preservar a privacidade dos utilizadores sem regulamentação externa“.
Ideias para uma solução
Detectados os problemas da vigilância pelos dados pessoais e novas propostas de auto-regulação fazendo recordar que outras raramente funcionaram, cabe aos utilizadores resistir ou diminuir a entrega involuntária da sua informação online?
Investigadores da Northwestern University (EUA) sugerem três abordagens complementares para “corrigir esse desequilíbrio de poder, tratando os nossos dados colectivos como moeda de troca”, explica a Technology Review. “Os gigantes da tecnologia podem ter algoritmos sofisticados à sua disposição, mas eles não fazem sentido sem dados suficientes para os treinar”.
Em “Data Leverage: A Framework for Empowering the Public in its Relationship with Technology Companies“, os investigadores apontam as seguintes três acções “pelas quais o público pode explorar isso a seu favor:
– greves de dados, “inspiradas pela ideia das greves ao trabalho, que envolvem reter ou excluir os dados para que uma empresa de tecnologia não os possa usar – deixando uma plataforma ou instalando ferramentas para a privacidade, por exemplo”;
– envenenamento dos dados, um termo radical mas que visa simplesmente “uma contribuição de dados sem sentido ou prejudiciais”. Um exemplo disso é a AdNauseam, uma extensão para vários browsers que confunde os algoritmos de segmentação de anúncios da Google. Os investigadores consideram esta segunda acção como potencialmente mais danosa e até ilegal, além da sua configuração colocar problemas na navegação na Web;
– por fim, “a contribuição de dados consciente, que envolve fornecer dados significativos ao concorrente de uma plataforma com a qual se deseja protestar, como enviar fotos do Facebook para o Tumblr”.
Apesar de estas iniciativas parecerem inocentes e sem grande efeito prático, a revista recorda que milhões de pessoas coordenadas a “envenenar” os dados de uma gigante da tecnologia podem ter um efeito prático nessas empresas.
“Em Janeiro, milhões de utilizadores apagaram as suas contas do WhatsApp e mudaram para concorrentes como o Signal e o Telegram após o Facebook anunciar que ia começar a partilhar dados do WhatsApp com o resto da empresa. O êxodo fez com que o Facebook atrasasse as alterações a esta política”.
No geral, os investigadores acreditam que esta estratégia pode “transformar-se numa ferramenta persuasiva para moldar como os gigantes da tecnologia tratam os nossos dados e a nossa privacidade. ‘Os sistemas de IA dependem de dados. É apenas um facto sobre como eles funcionam'”, refere um dos responsáveis, Nicholas Vincent. Um facto e “uma forma de o público ganhar poder”.
Imagens: Thomas Hawk (CC BY-NC 2.0), Metrica Sports, future.agenda (CC BY-NC-SA 2.0)