“A privacidade é um direito humano e a minimização de dados é uma questão de direitos humanos. O impacto mais importante da forte minimização de dados é a redução de danos: os dados que não são recolhidos não podem causar danos às pessoas. À medida que as organizações recolhem mais dados, o potencial e os danos reais para as pessoas aumentam”.
Por isso, “reduzir a quantidade de dados recolhidos é importante pelo menos por dois motivos: as pessoas não querem que as organizações colham todas as informações sobre elas e as informações pessoais podem ser, e muitas vezes são, mal utilizadas de maneiras que perpetuam danos significativos”.
O alerta consta do novo relatório da organização Access Now, “Data minimization: Key to protecting privacy and reducing harm“, que apresenta propostas para proteger a privacidade e reduzir os referidos danos e abusos, “limitando a quantidade de informações que as entidades recolhem online”.
A Access Now recomenda que “no contexto de um forte quadro de protecção de dados, se permita às organizações recolherm dados em classes protegidas para fins de auditoria dos direitos civis ou para beneficiar populações sub-representadas”, no sentido de poderem “práticas discriminatórias e mitigar ou eliminar os danos ou para beneficiar certas populações sub-representadas”.
Em segundo, “os reguladores que não proíbem a publicidade comportamental devem, no mínimo, exigir limites para os dados recolhidos para esta finalidade”, com as organizações interessadas nesta publicidade a serem obrigadas “a excluir, não apenas a des-identificar, essas informações, assim como qualquer outra informação que possam inferir a partir desses dados, após 30 dias”.
Por fim, os programadores na área da aprendizagem por máquina (ML, de “machine learning”) devem adoptar métodos para minimizarem os dados para modelos de ML, que também protejam a privacidade e sejam recolhidos “de maneira ética e em conformidade com os direitos humanos”.