Com “a possibilidade de combater a inteligência artificial (IA) com a IA, ou seja, em vez de confiar na intuição humana, as pessoas podem ter mais chances de esconder a sua opinião se modificarem os seus perfis no Twitter seguindo o conselho de um assistente automatizado”, assegura o artigo “Hiding opinions from machine learning“.

Este “estudo sugere que uma proporção significativa de utilizadores do Twitter deseja manter a sua opinião privada sobre questões sociais, políticas e religiosas. Isso é problemático numa época em que os algoritmos de aprendizagem por máquina são capazes de inferir tais opiniões dos perfis dos utilizadores. Além disso, descobrimos que as pessoas não conseguem identificar de forma confiável as actividades que revelam a opinião de alguém a tais algoritmos. Estes resultados sugerem a necessidade de um assistente automatizado que ajude os utilizadores do Twitter a evitar exporem as suas opiniões online. Avaliamos possíveis maneiras de implementar esse assistente e descobrimos que a introdução de recursos que indicam a opinião oposta pode efectivamente enganar os algoritmos de aprendizagem por máquina de última geração. O estudo representa um passo para preservar o direito básico de manter as opiniões privadas“.