O (des)funcionamento do algoritmo do News Feed no Facebook

O Facebook explicou recentemente como funciona o algoritmo que elabora o News Feed para os os seus dois mil milhões de utilizadores.

É um “desafio significativo, complexo”, que usa ferramentas de “machine learning” (ML) “para prever qual conteúdo será mais importante para cada pessoa para oferecer suporte a uma experiência mais envolvente e positiva”.

Pela novidade, pelo tipo anterior de interesse ou pelo suporte (preferência de fotografia relativamente ao vídeo, por exemplo), o algoritmo tende a propor certos conteúdos. Junta-se a partilha de conteúdos e os “likes” ou os comentários deixados nos “posts” de outros utilizadores, agregam-se todos estes “sinais” (uma média de cerca de mil diários por utilizador) e o resultado praticamente em tempo real será o que o algoritmo entende como mais relevante para o utilizador.

Esta estratégia tem sido alterada, o que motiva queixas contra o enviesamento do algoritmo. No ano passado, a Business Insider notava como o algoritmo “é sociopata e a gestão do Facebook é demasiado gananciosa para o impedir“.

A razão do título devia-se ao Facebook saber há vários anos como “os seus algoritmos encorajam e amplificam o comportamento anti-social, como o discurso de ódio e o extremado preconceito político para manter os utilizadores” interessados na rede social.

Nesta, “a atenção é igual a dinheiro” e desta forma “os algoritmos do Facebook puderam continuar a ser sociopatas” sem sequer existir a preocupação pelas “consequências ou qualquer remorso por estas acções”.

Com a divulgação desses pormenores comprometedores no ano passado, a empresa revelou querer investigar os potenciais enviesamentos do seu próprio algoritmo…

Desde 2018 que ele “tem evoluído rapidamente, à medida que o Facebook se esforça para tornar o tempo que as pessoas passam nele mais valioso e significativo”.

No ano passado, o foco da rede social terá sido alegadamente “tornar a sua plataforma mais transparente para os utilizadores e dar às pessoas um controlo mais directo sobre o que se vê”.

Precisamente em 2018, o Facebook recorreu a uma análise independente que escreveu: “os auditores acreditam que é essencial que o Facebook desenvolva maneiras de avaliar se os modelos de inteligência artificial que usa são precisos em grupos diferentes e se eles atribuem resultados desproporcionalmente negativos a certos grupos”.

No entanto, a recente análise “False Accusation: The Unfounded Claim that Social Media Companies Censor Conservatives” desconsiderou que as redes sociais, em geral, tenham como objectivo as políticas conservadoras. Na realidade, servem ambos os públicos: “os conservadores são atraídos para as plataformas estabelecidas pelo mesmo motivo que os liberais: é onde se pode alcançar o maior público e desfrutar dos benefícios do efeito de rede. E, por mais que condenem o suposto favoritismo da media social, os conservadores parecem gostar de usar o taco do preconceito, mesmo que seja baseado em distorções e falsidades“.

https://mk0hootsuiteblof6bud.kinstacdn.com/wp-content/uploads/2020/01/facebook-algorithm.png

Deixe uma Resposta

Preencha os seus detalhes abaixo ou clique num ícone para iniciar sessão:

Logótipo da WordPress.com

Está a comentar usando a sua conta WordPress.com Terminar Sessão /  Alterar )

Google photo

Está a comentar usando a sua conta Google Terminar Sessão /  Alterar )

Imagem do Twitter

Está a comentar usando a sua conta Twitter Terminar Sessão /  Alterar )

Facebook photo

Está a comentar usando a sua conta Facebook Terminar Sessão /  Alterar )

Connecting to %s

This site uses Akismet to reduce spam. Learn how your comment data is processed.