“Devemos salvar a privacidade da própria privacidade”

Nunca vi uma ameaça maior à privacidade do que a actual pandemia do coronavírus. Actualmente, sou um pessimista em relação à privacidade: acho que a privacidade corre o risco de desaparecer da esfera de valores com os quais as pessoas decentes estão comprometidas. Devemos agir com sabedoria e inteligência, e devemos mobilizar-nos agora.

A ameaça actual à privacidade tem uma face de Janus: as suas duas faces são a imagem espelhada uma da outra. Uma das duas faces é amplamente conhecida: o medo fornece aos governos uma justificação para usar meios intrusivos de vigilância digital que as populações nunca teriam aceite antes. Podemos chamá-lo de risco das nossas sociedades se tornarem mais parecidas com a China. E, no entanto, essa não é a única maneira de a privacidade desaparecer.

Demasiado respeito pela privacidade
O segundo risco para a privacidade é paradoxal: decorre de se ter “muito respeito” pela própria privacidade. Se a nossa preocupação com a privacidade impedir acções políticas urgentes em prol da vigilância da saúde pública, as pessoas culparão as mortes adicionais pela própria privacidade. As pessoas deixarão de valorizar a privacidade como um bem e qualquer compromisso com a sua preservação ficará fora de moda. Imagine que a Europa sobrevive à pandemia com 10 vezes mais o número de mortes do que a China. Será fácil para os inimigos da privacidade reivindicar “esse é o custo da privacidade na vida humana”. Os defensores da privacidade serão poucos e impopulares.

Em resumo: precisamos de resgatar a privacidade de governos não fiáveis. A vigilância na saúde pública fornece a desculpa perfeita para os governos recolherem dados para abuso, e esse é um risco claro. Mas, menos evidente, também precisamos de resgatar a privacidade de si mesma. Se as nossas sociedades não recolherem os dados relevantes com rapidez suficiente e não os utilizarem de maneira inteligente, e se a privacidade for usada como desculpa para não os recolher, será a privacidade como um valor humano que corre o risco de desaparecer da face da Terra.

https://www.ibme.uzh.ch/contacts/ibme/Biomedical-Ethics/mloi/photo/Michele%20Loi.jpg.jpg
Michele Loi

Há um século, o fascismo emergiu em oposição ao liberalismo por uma razão, nomeadamente a incapacidade do liberalismo de lidar com os desafios económicos da época. Neste século, algo semelhante pode acontecer. Um novo tipo de fascismo, centrado na vigilância digital, pode surgir em oposição à privacidade se as pessoas começarem a acreditar que a privacidade foi o que impediu os políticos de tomarem medidas de saúde pública adequadas para impedir a propagação da doença.

Algoritmos na luta contra o COVID-19
Mesmo se alcançarmos o melhor equilíbrio possível entre as necessidades de privacidade dos cidadãos e a necessidade de dados para combater o COVID-19, ainda estamos a enfrentar a ameaça de um uso de dados que não é confiável, legítimo e respeita a dignidade humana.

Vamos supor que a legitimidade pode ser alcançada se todos os participantes com acesso aos dados os usarem apenas para fins de saúde pública. Esta é a primeira condição que deve ser exigida aos algoritmos usados ​​para processar esses dados: devem ser usados ​​apenas para fins de promoção da saúde e não, digamos, para evitar fraudes fiscais, roubos ou outros crimes, não importa quão alta é a tentação para o fazer.

Uma razão para isso é moral: proteger a saúde da população é a única coisa que justifica moralmente uma recolha de dados pessoais tão invasiva quanto a que devemos – como cidadãos – estar prontos para aceitar e apoiar. É apenas por esse motivo que os cidadãos estão (esperançosamente) dispostos a permitir que as autoridades públicas tenham acesso a informações sobre os detalhes mais íntimos das suas vidas, como dados detalhados de geolocalização que ajudariam bastante no “rastreamento de contactos”.

A segunda razão é pragmática: se os indivíduos temem que os dados recolhidos sobre as suas vidas serão usados ​​contra eles – de maneiras que não podem ser justificadas pela protecção imediata da saúde de outras pessoas – eles podem preferir deixar os seus smartphones e outros dispositivos em casa.

Confiabilidade e respeito pelas pessoas
A segunda condição, confiabilidade e respeito pela pessoa humana, é mais difícil de traduzir em directrizes operacionais. Até agora, as tentativas dos epidemiologistas de modelarem a disseminação da doença com base no nosso conhecimento imperfeito da doença têm sido amplamente insatisfatórias. Os erros das abordagens tradicionais sugerem que uma estratégia usando Big Data (incluindo dados de projectos de auto-rastreamento, envolvendo sensores de temperatura e de movimento em smartphones, por exemplo) e técnicas de “machine learning” [aprendizagem por máquina] podem funcionar melhor. No entanto, são opacos – alguns chamam-lhes de “caixas pretas” – a menos que sejam explicitamente concebidos para serem de outra forma. Não estamos a falar aqui de ter hipóteses sobre como uma doença se espalha, primeiro, e depois usar a aprendizagem por máquina para ver se os dados se encaixam nessas hipóteses e ajustar os seus parâmetros. Estamos a falar de um computador seguindo cegamente alguma estratégia matemática de uso geral até encontrar uma operação matemática que, quando aplicada aos dados produzidos pelos cidadãos participantes, produz um “output” decente (por exemplo, uma boa proporção de correcta previsão).

A operação matemática em questão pode ser tão complexa que nem um único matemático na Terra pode entender o que significa. E isso não será – a menos que seja explicitamente planeado de outra forma – qualquer ajuda na compreensão do mecanismo social ou natural por trás da propagação da doença. Isso é conhecido na literatura como o problema da opacidade da IA (ou caixas pretas da IA) e levou ao nascimento de um novo campo da ciência da computação, o da “IA explicável” (X-AI, de “explainable AI”).

Evitar a caixa preta da IA através de modelos interpretáveis
Prevemos que a caixa preta da IA levantará questões éticas significativas sobre a sua implantação, especialmente se for usada como base para escolhas de saúde pública, incluindo bloqueios selectivos (quando a vida económica normal é reiniciada, os bloqueios tornam-se mais direccionados) e decisões sobre quem manter em isolamento.

Será difícil aos cidadãos confiar nas decisões com base em previsões que ninguém pode explicar a razão pela qual certas pessoas devem sofrer mais do que outras. Essa implantação de algoritmos também pode ser considerada um desrespeito à dignidade das pessoas afectadas.

É por isso que a confiabilidade e o princípio do respeito pelas pessoas podem exigir a implantação do X-AI. Existem duas abordagens aqui: a primeira é restringir o método de aprendizagem por máquina para forçá-lo a produzir um modelo matemático ao qual os epidemiologistas possam atribuir um significado claro. Nesse caso, o resultado de um modelo não apenas ajudaria a escolher decisões práticas sobre medidas de saúde pública (com base em considerações probabilísticas), mas também a sugerir novas hipóteses que podem levar a uma melhor compreensão da doença e dos modelos da doença, e das suas deficiências. Os modelos resultantes poderiam ser debatidos numa perspectiva interdisciplinar e seria mais fácil encontrar possíveis erros e preconceitos. Esse tipo de X-AI ajudaria a tornar explícita a justificação de saúde pública dessas medidas. A IA explicável pode ajudar a modelar o risco de contágio de tipos sociais específicos, com base em dados recolhidos sobre a maneira como diferentes tipos de pessoas interagem.

Confiar em modelos de caixa preta
A outra abordagem é usar a IA da caixa preta combinada com os métodos X-AI que, grosso modo, transformam um algoritmo de caixa preta num compreensível. No entanto, esses métodos estão longe de serem perfeitos: os algoritmos de caixa preta não são totalmente transparentes. Em vez disso, desenvolvemos uma aproximação mais simples do modelo de caixa preta que podemos explicar. Outra abordagem, chamada “explicação contrafactual”, pressupõe que uma previsão ou decisão já tenha sido tomada sobre uma pessoa ou grupo. Se uma decisão de bloquear uma parte de uma cidade fosse tomada, a explicação contrafactual seria uma resposta a uma pergunta como “o que deve ser diferente nessa parte da cidade para não ser afectada por um bloqueio?”

O problema com estes métodos de explicação é que, como mostra a literatura recente, eles podem ser manipulados à vontade pelas pessoas que os escrevem e até pelas pessoas que desenvolvem o algoritmo para ser explicado. Por exemplo, é possível escolher um modelo de explicação contrafactual para ocultar o papel de alguns factores e colocar outros sob os holofotes.

Também precisamos de mais mecanismos de controlo, se quisermos garantir que esse tipo de X-AI não é usado para enganar o público e que a explicação fornecida com esses métodos seja fiável. Isso é melhor conseguido dando aos investigadores de aprendizagem por máquina o mínimo de incentivos para enganar o público tanto quanto possível. E exigirá mais estudos metodológicos no campo da X-AI, para divulgar tentativas engenhosas de manipular explicações.

Finalmente, os algoritmos desenvolvidos com base nos dados não respeitarão a dignidade humana se levarem à estigmatização de indivíduos e grupos inteiros. Desejamos enfatizar as questões relativas a grupos humanos e não a indivíduos. A razão dessa ênfase é que os defensores da privacidade e os decisores políticos podem enganar-se ao pensar que aplicações baseadas nesses dados não causam problemas à privacidade, desde que os dados sejam anonimizados. Este é um equívoco muito perigoso.

Evitar a estigmatização
Considere-se um algoritmo que calcula os factores de risco associados aos tipos sociais com base em dados agregados (anónimos) recolhidos sobre como as pessoas interagem, registados dos seus smartphones. O modelo pode acabar por associar pontuações de risco mais altas a determinadas categorias de pessoas – por exemplo, funcionários da entrega de comida ou motoristas da Uber. Sabemos por epidemias passadas que, quando um tipo social se associa a um alto risco de contágio, é estigmatizado e sofre o dano adicional do isolamento. No passado, isso afectava até os enfermeiros que eram discriminados como potenciais disseminadores. Embora seja importante aprender sobre as causas sociais da propagação do vírus, devemos evitar as consequências prejudiciais da estigmatização em grupos específicos de pessoas, especialmente naquelas que já sofrem mais do que outras por causa do coronavírus.

Não podemos abandonar a nossa humanidade e sacrificar a dignidade de grupos inteiros de pessoas, a fim de gerar um aumento marginal na melhoria das mecânicas do combate à doença. Isso significa que os cientistas de dados que desenvolvem os modelos devem perguntar-se constantemente sobre as variáveis que definem (por exemplo, devo descrever um tipo social desta ou daquela maneira) e como eles comunicam os seus resultados.

Isso também significa que, tal como usamos a ciência de dados para entender os factores de risco de contágio, devemos usar métodos igualmente poderosos para identificar os factores de estigmatização e as condições (por exemplo, hipoteticamente, ser um imigrante) que podem aumentar o risco de exclusão social. Também devemos tentar prever esses riscos e planear para prevenir ou mitigar os seus efeitos nocivos. Caso contrário, o uso da aprendizagem por máquina e da IA para ajudar na luta contra doenças será anti-ético.

Onde é que isto nos leva? Sim, a privacidade está em risco, mas não apenas porque os governos estão famintos pelos dados. Também está em risco por causa da inacção, pela qual a privacidade (e os seus advogados) se tornará o bode expiatório, se chegarmos tarde demais à implementação de uma recolha e análise eficazes de dados. Quem se preocupa com a privacidade não quer que a privacidade seja percebida como inimiga do conhecimento. A aprendizagem por máquina pode ser opaca e levar a decisões aparentemente arbitrárias, mas também pode ajudar-nos a melhorar muito as medidas de saúde pública, algo que pode facilitar que se recuperem mais rapidamente algumas liberdades que foram agora restringidas. Os principais desafios éticos de tais sistemas foram mapeados, para que possamos desenvolver requisitos éticos específicos (por exemplo, em relação ao X-AI) e responsabilizar os programadores tecnológicos por eles. Os cidadãos devem ter o poder de desfrutar do seu direito humano de participar da ciência, cada um de acordo com a sua capacidade, e de uma maneira eticamente apropriada. A forma como agimos agora decidirá se os cidadãos europeus se acostumarão a ser receptores passivos da vigilância e de decisões dirigidas pelo Estado, ou contribuidores activos para um novo ecossistema, centrado na ética e nos cidadãos, de dados e de algoritmos centrados no cidadão, na ética e compatível com a ética, promotor do seu próprio bem-estar.

* Texto original de Michele Loi, investigador do Institute of Biomedical Ethics and History of Medicine e da Digital Society Initiative na Universidade de Zurique, publicado na Algorithm Watch (CC BY 4.0). Fotos: Scott Beale (Flickr/CC BY-NC 2.0) e Ignotus the MageTom Keene (Flickr/CC BY-NC-SA 2.0).

Deixe uma Resposta

Preencha os seus detalhes abaixo ou clique num ícone para iniciar sessão:

Logótipo da WordPress.com

Está a comentar usando a sua conta WordPress.com Terminar Sessão /  Alterar )

Google photo

Está a comentar usando a sua conta Google Terminar Sessão /  Alterar )

Imagem do Twitter

Está a comentar usando a sua conta Twitter Terminar Sessão /  Alterar )

Facebook photo

Está a comentar usando a sua conta Facebook Terminar Sessão /  Alterar )

Connecting to %s

This site uses Akismet to reduce spam. Learn how your comment data is processed.