Na última década, a inteligência artificial (IA) emergiu como o motor de software que impulsiona a Quarta Revolução Industrial, uma força tecnológica que afecta todas as disciplinas, economias e sectores.
Os serviços com IA já estão a ser aplicados para criar experiências de compra mais personalizadas, aumentar a produtividade e aumentar a eficiência da agricultura. Esse progresso é notável em aspectos importantes, mas também cria desafios únicos.
Vários estudos estabeleceram que, sem supervisão adequada, a IA pode replicar ou até mesmo exacerbar o preconceito e a discriminação humana ou levar a outras consequências indesejadas. Isso é particularmente problemático quando a IA é aplicada em domínios de elevado risco, como a justiça criminal, a saúde, os bancos ou nos empregos.
Os decisores e os actores da indústria estão cada vez mais cientes das oportunidades e dos riscos associados à IA. No entanto, há uma falta de consenso sobre os processos de supervisão que devem ser introduzidos para garantir a implantação fiável de sistemas de IA – ou seja, certificando-se de que o comportamento de um determinado sistema de IA é consistente com um conjunto de especificações que podem variar de legislação (como a de Não Discriminação da UE) a um conjunto de directrizes organizacionais.
Estas dificuldades estão amplamente relacionadas ao modo como os sistemas de aprendizagem profunda (“deep learning”) operam, em que a classificação de padrões usando redes neurais, que podem conter centenas de milhões de parâmetros, pode produzir processos de tomada de decisão opacos e não intuitivos. Isso torna a detecção de “bugs” ou inconsistências extremamente difícil.
Esforços contínuos para identificar e mitigar riscos em sistemas de IA
Para enfrentar estes desafios e desbloquear os benefícios da IA para todos, pedimos a introdução de estruturas de avaliação de risco/benefício para identificar e mitigar os riscos nos sistemas de IA.
Esses quadros de referência (“frameworks”) podem garantir a identificação, monitorização e mitigação dos riscos associados a sistemas específicos de IA, fundamentando-os com critérios de avaliação e cenários de uso. Essa é uma abordagem diferente da situação actual, em que a prática prevalecente no sector é treinar um sistema usando um conjunto de dados de treino e, em seguida, testá-lo noutro conjunto para revelar o seu desempenho médio de casos.
Vários esforços para conceber tais estruturas estão em andamento, tanto nos governos quanto na indústria. No ano passado, Singapura lançou o seu Model AI Governance Framework, que fornece orientações prontamente implementáveis para organizações do sector privado que procuram implantar a IA de maneira responsável. Mais recentemente, a Google lançou uma estrutura ponta a ponta para auditoria interna de sistemas de IA.
Principais considerações para a concepção de estruturas de avaliação de risco/benefício
Com base na literatura existente, criámos um conjunto de directrizes para apoiar as organizações interessadas em conceber sistemas de IA auditáveis por meio de estruturas sólidas de avaliação de risco/benefício [descrição abreviada]:
1. Justifique a escolha de introduzir um serviço alimentado por IA
2. Adopte uma abordagem de múltiplas partes (“multistakeholder”) interessadas
3. Considere as regulações relevantes e desenvolva baseado nas melhores práticas existentes
4. Aplicar estruturas de avaliação de riscos/benefícios em todo o ciclo de vida dos serviços com IA
5. Adopte uma abordagem centrada no utilizador e baseada em casos de uso
6. Defina claramente um esquema de prioritização de risco
7. Defina as métricas de desempenho
8. Defina as funções operacionais
9. Especifique os requisitos de dados e fluxos
10. Especifique linhas de responsabilização
11. Apoie uma cultura de experimentação
12. Crie recursos educativos
* Texto de Lofred Madzou e Kate MacDonald publicado no World Economic Forum. Reproduzido sob licença CC. Foto: PDPC.