Mecanismos para garantir uma IA mais responsável e segura

O crescente desenvolvimento de aplicações de inteligência artificial (IA) foi acompanhado por receios dos riscos colocados por estes sistemas, ao mesmo tempo que se reconhece como as regulações e normas académicas e industriais são insuficientes, alega o documento “Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable Claims“.

Neste, um conjunto de investigadores define um conjunto de recomendações, agregados em três mecanismos de validação da IA, para garantir a confiança dos utilizadores, sociedade civil, governos e outros envolvidos no sector. A lista de recomendações é a seguinte:
Mecanismos institucionais
1. Uma coligação de partes interessadas deve criar uma task force para procurar opções para gerir e financiar auditorias de terceiros nos sistemas de IA.
2. As organizações que desenvolvem IA devem executar exercícios de equipa para explorar os riscos associados aos sistemas que desenvolvem e devem partilhar as melhores práticas e ferramentas para o fazer.
3. Os programadores de IA devem testar preconceitos e recompensas de segurança para os sistemas de IA, a fim de fortalecer os incentivos e processos para uma análise mais ampla dos sistemas de IA.
4. Os programadores de IA devem partilhar mais informações sobre incidentes de IA, inclusive através de canais colaborativos.

Mecanismos de software
5. Os órgãos de definição de normas devem trabalhar com a academia e a indústria para desenvolver requisitos de auditoria para as aplicações críticas de segurança dos sistemas de IA.
6. As organizações que desenvolvem IA e as entidades financiadoras devem apoiar a investigação sobre a interpretabilidade dos sistemas de IA, com foco no apoio à avaliação e auditoria de riscos.
7. Os programadores de IA devem desenvolver, partilhar e usar conjuntos de ferramentas para a aprendizagem por máquina (“machine learning”) de preservação da privacidade, que incluam medidas de desempenho em relação a normas comuns.

Mecanismos de hardware
8. A indústria e a academia devem trabalhar juntos para desenvolverem recursos de segurança de hardware para aceleradores de IA ou estabelecer outras práticas recomendadas para o uso de hardware seguro em contextos de “machine learning”.
9. Um ou mais laboratórios de IA devem estimar o poder de computação envolvido num único projecto em grande detalhe (medição computacional de alta precisão) e reportar sobre o potencial da adopção mais ampla de tais métodos.
10. As entidades governamentais financiadoras devem aumentar substancialmente o financiamento de recursos de energia computacional para investigadores na academia, a fim de melhorar a sua capacidade de verificar as alegações feitas pela indústria.

Nas conclusões, os investigadores declaram a necessidade destes mecanismos para assegurar a responsabilidade dos criadores em IA. As três razões apontadas são a “tensão entre a verificabilidade do que é afirmado e a generalidade de tais afirmações. Segundo, essa verificabilidade das afirmações não garante que elas sejam verificadas na prática. Terceiro, mesmo que uma alegação sobre o desenvolvimento da IA se demonstre falsa, assimetrias de poder podem impedir que as medidas correctivas sejam tomadas”.

Com a generalização dos mecanismos defendidos pelos autores do relatório e com “um esforço conjunto para permitir reivindicações verificáveis sobre o desenvolvimento da IA, há uma oportunidade maior de moldar positivamente o impacto da IA e aumentar a probabilidade de benefícios sociais generalizados”.

* Foto: deepak pal/Flickr (CC BY-SA 2.0)

Deixe uma Resposta

Preencha os seus detalhes abaixo ou clique num ícone para iniciar sessão:

Logótipo da WordPress.com

Está a comentar usando a sua conta WordPress.com Terminar Sessão /  Alterar )

Google photo

Está a comentar usando a sua conta Google Terminar Sessão /  Alterar )

Imagem do Twitter

Está a comentar usando a sua conta Twitter Terminar Sessão /  Alterar )

Facebook photo

Está a comentar usando a sua conta Facebook Terminar Sessão /  Alterar )

Connecting to %s

This site uses Akismet to reduce spam. Learn how your comment data is processed.