O Facebook explicou recentemente como funciona o algoritmo que elabora o News Feed para os os seus dois mil milhões de utilizadores.
É um “desafio significativo, complexo”, que usa ferramentas de “machine learning” (ML) “para prever qual conteúdo será mais importante para cada pessoa para oferecer suporte a uma experiência mais envolvente e positiva”.
Pela novidade, pelo tipo anterior de interesse ou pelo suporte (preferência de fotografia relativamente ao vídeo, por exemplo), o algoritmo tende a propor certos conteúdos. Junta-se a partilha de conteúdos e os “likes” ou os comentários deixados nos “posts” de outros utilizadores, agregam-se todos estes “sinais” (uma média de cerca de mil diários por utilizador) e o resultado praticamente em tempo real será o que o algoritmo entende como mais relevante para o utilizador.
Esta estratégia tem sido alterada, o que motiva queixas contra o enviesamento do algoritmo. No ano passado, a Business Insider notava como o algoritmo “é sociopata e a gestão do Facebook é demasiado gananciosa para o impedir“.
A razão do título devia-se ao Facebook saber há vários anos como “os seus algoritmos encorajam e amplificam o comportamento anti-social, como o discurso de ódio e o extremado preconceito político para manter os utilizadores” interessados na rede social.
Nesta, “a atenção é igual a dinheiro” e desta forma “os algoritmos do Facebook puderam continuar a ser sociopatas” sem sequer existir a preocupação pelas “consequências ou qualquer remorso por estas acções”.
Com a divulgação desses pormenores comprometedores no ano passado, a empresa revelou querer investigar os potenciais enviesamentos do seu próprio algoritmo…
Desde 2018 que ele “tem evoluído rapidamente, à medida que o Facebook se esforça para tornar o tempo que as pessoas passam nele mais valioso e significativo”.
No ano passado, o foco da rede social terá sido alegadamente “tornar a sua plataforma mais transparente para os utilizadores e dar às pessoas um controlo mais directo sobre o que se vê”.
Precisamente em 2018, o Facebook recorreu a uma análise independente que escreveu: “os auditores acreditam que é essencial que o Facebook desenvolva maneiras de avaliar se os modelos de inteligência artificial que usa são precisos em grupos diferentes e se eles atribuem resultados desproporcionalmente negativos a certos grupos”.
No entanto, a recente análise “False Accusation: The Unfounded Claim that Social Media Companies Censor Conservatives” desconsiderou que as redes sociais, em geral, tenham como objectivo as políticas conservadoras. Na realidade, servem ambos os públicos: “os conservadores são atraídos para as plataformas estabelecidas pelo mesmo motivo que os liberais: é onde se pode alcançar o maior público e desfrutar dos benefícios do efeito de rede. E, por mais que condenem o suposto favoritismo da media social, os conservadores parecem gostar de usar o taco do preconceito, mesmo que seja baseado em distorções e falsidades“.