Autoridades em Portugal foram clientes da Clearview AI

A empresa de reconhecimento facial Clearview AI, acusada de ter usado sem autorização 3.000 milhões de imagens de plataformas online, foi alvo de acesso também não autorizado à sua lista de clientes. As autoridades em Portugal foram identificadas como fazendo parte do lote de clientes agora descobertos.

Apesar da empresa declarar que os seus mercados preferenciais eram os EUA e o Canadá, a BuzzFeed News obteve material de marketing datado de Novembro passado em que a empresa revela ter a intenção de uma “rápida expansão internacional“.

Aparentemente, isso já estava a acontecer, com a empresa a ter clientes em 26 países, incluindo Portugal, numa lista que vai da Austrália à Suíça. Nas organizações listadas encontra-se também a Interpol, que confirmou ter usado o software de reconhecimento facial da Clearview mas que não existia qualquer “relação formal” com a Clearview.

A empresa confirmou igualmente ao The New York Times que a sua base de dados estava a ser usada por mais de 600 agências. No seu site, a empresa declara que certas funcionalidades apenas estão disponíveis para as autoridades e profissionais de segurança seleccionados.

A Clearview, considerada uma “ameaça para todos nós” pela Engadget, foi fundada em 2017 por Richard Schwartz e pela actual CEO Hoan Ton-That, contando com financiamentos de Naval Ravikant, fundador da AngelList, e de Peter Thiel.

Este foi co-fundador do PayPal e da Palantir Technologies, uma empresa de software de analítica de Big Data, e é apoiante do presidente Trump.

“Esta crise para a nossa democracia”, como a declarou Evan Greer, da Fight for the Future, necessita de “legislação a banir o uso de reconhecimento facial na vigilância, não apenas pelas agências governamentais mas também pelas empresas”, quando “a Clearview é apenas a ponta do icebergue”.

[act.: We Found Clearview AI’s Shady Face Recognition App: A face recognition app used by thousands of law enforcement agencies, which has drawn considerable scrutiny in past weeks over its creator’s dubious data collection methods, contains code hinting at an unreported range of potential features, based on a version of the app discovered by Gizmodo.

Here’s the File Clearview AI Has Been Keeping on Me, and Probably on You Too: “Clearview helps to identify child molesters, murderers, suspected terrorists, and other dangerous people quickly, accurately, and reliably to keep our families and communities safe.” What goes unsaid here is that Clearview claims to do these things by building an extremely large database of photos of ordinary U.S. citizens, who are not accused of any wrongdoing, and making that database searchable for the thousands of clients to whom it has already sold the technology. I am in that database, and you probably are too.]

Deixe uma Resposta

Preencha os seus detalhes abaixo ou clique num ícone para iniciar sessão:

Logótipo da WordPress.com

Está a comentar usando a sua conta WordPress.com Terminar Sessão /  Alterar )

Google photo

Está a comentar usando a sua conta Google Terminar Sessão /  Alterar )

Imagem do Twitter

Está a comentar usando a sua conta Twitter Terminar Sessão /  Alterar )

Facebook photo

Está a comentar usando a sua conta Facebook Terminar Sessão /  Alterar )

Connecting to %s

This site uses Akismet to reduce spam. Learn how your comment data is processed.