O mau comportamento do Instagram com as crianças e as mulheres

O Data Protection Commissioner (DPC) da Irlanda está a investigar o Instagram por mostrar dados pessoais de crianças na sua plataforma, incluindo endereços de email e números de telefone de menores de 18 anos. O Facebook, dono desta rede social, nega as acusações e declara estar a cooperar com o DPC, revelou a BBC.

Não é a primeira vez o Instagram é acusado de ilegalidades no âmbito da legislação europeia.

Em Julho, uma investigação mostrou como o seu algoritmo dava “prioridade às fotografias de homens e mulheres com pouca roupa, moldando o comportamento dos criadores de conteúdo e a visão de mundo de 140 milhões de europeus no que permanece um ponto cego nos regulamentos da UE”.

As imagens de mulheres “em roupas íntimas ou biquini tinham 54% mais chances de aparecer no ‘feed’ de notícias”, enquanto as fotos de homens em peito nu tinham 28% de mais hipóteses em serem exibidos. Já os “posts” com “fotos de comida ou de paisagem eram 60% menos prováveis ​​de serem exibidas no ‘feed’”.

Perante esta análise, o Facebook considerou que ela tinha várias falhas “e mostra um mal-entendido de como o Instagram funciona”.

No entanto, responsáveis máximos admitem falhas na plataforma e o próprio CEO do Instagram, Adam Mosseri, reconheceu recentemente a necessidade de se analisar o seu “enviesamento algorítmico (…), o assédio, verificação e distribuição de conteúdo”.

Um outro caso recente veio acentuar os problemas, quando foi acusado de “censurar” uma de duas fotografias muito semelhantes, confirmando desta forma que “o algoritmo do Instagram favorece pessoas magras, brancas e de cisgénero e censura efectivamente” as restantes.

A questão foi suscitada pela actriz australiana de comédia Celeste Barber que se colocou numa posição semelhante a uma modelo da Victoria’s Secret. Ambas surgiam com pouca roupa mas apenas Barber foi censurada pelo Instagram, não permitindo que a sua imagem fosse partilhada, alegando que a mesma “vai contra as directrizes da nossa comunidade sobre nudez ou actividade sexual “.

“O algoritmo do Instagram é uma besta que talvez nunca entendamos completamente, mas o que sabemos é que as imagens que violam as directrizes da comunidade do Instagram são sinalizadas com uma mistura de relatórios manuais e tecnologia de inteligência artificial. O Instagram também tem mais de 15 mil funcionários a trabalhar em todo o mundo para rever os ‘posts’ e a procurar material banido. Com toda essa tecnologia e tantos funcionários, é difícil entender como preconceitos ainda assombram o algoritmo – mas é este o estado em que estamos”.

Deixe uma Resposta

Preencha os seus detalhes abaixo ou clique num ícone para iniciar sessão:

Logótipo da WordPress.com

Está a comentar usando a sua conta WordPress.com Terminar Sessão /  Alterar )

Google photo

Está a comentar usando a sua conta Google Terminar Sessão /  Alterar )

Imagem do Twitter

Está a comentar usando a sua conta Twitter Terminar Sessão /  Alterar )

Facebook photo

Está a comentar usando a sua conta Facebook Terminar Sessão /  Alterar )

Connecting to %s

This site uses Akismet to reduce spam. Learn how your comment data is processed.