Ética cresce na IA mas também o seu uso social desordenado

Apesar do seu quadro de referência ético estar em crescimento, o mesmo sucede com a inteligência artificial (IA) em “domínios de considerável significância social – na saúde, educação, emprego, justiça criminal e muitos outros – sem apropriadas salvaguardas ou estruturas de prestação de contas a funcionar”, referem as conclusões do “AI Now 2019 Report” do AI Now Institute da New York University.

Os danos provocados pela IA vão dos impactos ambientais à saúde, enquanto estes sistemas continuam vulneráveis à segurança.

“Se este ano nos mostrou algo, é que o nosso futuro não será determinado pelo progresso inevitável da IA, nem estamos condenados a um futuro distópico”, refere o relatório, que apresenta ainda as seguintes recomendações:
1. Regulators should ban the use of affect recognition in important decisions that impact people’s lives and access to opportunities.Until then, AI companies should stop deploying it.
2. Government and business should halt all use of facial recognition in sensitive social and political contexts until the risks are fully studied and adequate regulations are in place.
3. The AI industry needs to make significant structural changes to address systemic racism, misogyny, and lack of diversity.
4. AI bias research should move beyond technical fixes to address the broader politics and consequences of AI’s use.
5. Governments should mandate public disclosure of the AI industry’s climate impact.
6. Workers should have the right to contest exploitative and invasive AI—and unions can help.
7. Tech workers should have the right to know what they are building and to contest unethical or harmful uses of their work.
8. States should craft expanded biometric privacy laws that regulate both public and private actors.
9. Lawmakers need to regulate the integration of public and private surveillance infrastructures.
10. Algorithmic Impact Assessments must account for AI’s impact on climate, health, and geographical displacement.
11. Machine learning researchers should account for potential risks and harms and better document the origins of their models and data.
12. Lawmakers should require informed consent for use of any personal data in health-related AI.

Deixe uma Resposta

Preencha os seus detalhes abaixo ou clique num ícone para iniciar sessão:

Logótipo da WordPress.com

Está a comentar usando a sua conta WordPress.com Terminar Sessão /  Alterar )

Google photo

Está a comentar usando a sua conta Google Terminar Sessão /  Alterar )

Imagem do Twitter

Está a comentar usando a sua conta Twitter Terminar Sessão /  Alterar )

Facebook photo

Está a comentar usando a sua conta Facebook Terminar Sessão /  Alterar )

Connecting to %s

This site uses Akismet to reduce spam. Learn how your comment data is processed.