TextFooler a enganar assistentes de voz

Os sistemas de processamento de linguagem natural (NLPs) podem ser manipulados, como descobriu um grupo de investigadores do Computer Science and Artificial Intelligence Laboratory do MIT. Os NLPs são “o tipo de sistemas que nos permite interagir com os assistentes por voz” como o Siri ou o Alexa.

Eles conseguiram ser dos primeiros a alterar o modelo de classificação de texto BERT – daí o nome do artigo científico onde revelam a descoberta ser “Is BERT Really Robust? A Strong Baseline for Natural Language Attack on Text Classification and Entailment“.

A solução dá pelo nome de “TextFooler” e foi revelada após terem conseguido, com sucesso, atacar e alterar três modelos de NLPs. O futuro pode permitir usar esta solução para filtrar spam no email ou a detecção de mensagens políticas “sensíveis”.

Deixe uma Resposta

Preencha os seus detalhes abaixo ou clique num ícone para iniciar sessão:

Logótipo da WordPress.com

Está a comentar usando a sua conta WordPress.com Terminar Sessão /  Alterar )

Google photo

Está a comentar usando a sua conta Google Terminar Sessão /  Alterar )

Imagem do Twitter

Está a comentar usando a sua conta Twitter Terminar Sessão /  Alterar )

Facebook photo

Está a comentar usando a sua conta Facebook Terminar Sessão /  Alterar )

Connecting to %s

This site uses Akismet to reduce spam. Learn how your comment data is processed.