Quem deve ser o “grande árbitro” da liberdade de expressão nas redes sociais (e na TV)

O acesso indevido aos dados de utilizadores da rede social Parler mostraram um conjunto de autoridades dos EUA que podem estar a ser infiltradas pela extrema-direita. Mas o rescaldo dos tumultos no Capitólio a 6 de Janeiro ainda não está feito: como podem as redes sociais contribuir para aumentar a liberdade de expressão? Ou o seu objectivo é mesmo minar a democracia?

Os ficheiros obtidos na plataforma social Parler, nomeadamente os vídeos e os metadados dos GPS, estão a revelar como muitos dos seus utilizadores podem estar ligados às forças policiais ou militares.

Os dados de geolocalização dos utilizadores mostram como os seus dispositivos móveis partilhavam dados a partir de esquadras nos EUA mas também em bases militares domésticas e no estrangeiro.

Esta descoberta é motivo de preocupação porque, explica a Gizmodo, significa a “potencial exposição” das autoridades e “teorias da conspiração de extrema-direita e a ideologias extremistas”.

“Oficiais militares há muito consideram a infiltração e o recrutamento por grupos de supremacia branca como uma ameaça. Grupos que apoiam uma ampla gama de crenças racistas parecem estar a operar às claras no Parler, disseram os especialistas” citados pela revista. “O FBI também se mostrou preocupado com os agentes da lei que adoptam pontos de vista radicais e são recrutados – vendo o seu acesso a edifícios protegidos, a autoridades eleitas e a outros VIPs como uma ameaça singular”.

A Motherboard salienta que “os dados não são provas conclusivas de membros militares activos a usarem a plataforma”, porque “algumas das pessoas que estão numa base militar num determinado momento podem incluir civis que lá trabalham, bem como famílias de membros do serviço no activo”.

A revista “não confirmou a identidade de nenhum” dos envolvidos, nem “analisou o conteúdo específico postado de dentro das bases. Mas a notícia chega no momento em que os promotores [públicos] apresentam acusações contra actuais e ex-militares por participarem no evento do Capitólio, e após um enorme arquivo de dados do Parler mostrar que utilizadores do Parler estiveram nos tumultos”.

Parler contra “Fascist-book”
Os ficheiros envolvem mais de 500 vídeos recuperados do Parler. No entanto, “há muitos mais vídeos para examinar”, incluindo um dos sobre os eventos no interior captados no smartphone pelo jornalista Luke Mogelson.

https://assets-c3.propublica.org/images/articles/_threeTwo1600w/20210117-parler-video-essay-3x2.jpg

“Não só um grande número de participantes usou os seus smartphones para se registarem a si próprios e aos seus compatriotas quando lançaram o ataque, como muitos deles, por sua vez, partilharam as imagens no Parler” – um “serviço de media social que recentemente se tornou a alternativa escolhida pela direita contra o ‘Fascist-book’, como um manifestante no Capitólio se referiu ao Facebook”.

O CEO e fundador do Parler, John Matze, questionou as notícias “alegando que as evidências de metadados provam que alguns utilizadores do Parler estavam dentro do prédio do Capitólio dos Estados Unidos durante os distúrbios de 6 de Janeiro”. Mas, referiu sobre o facto dos utilizadores poderem estar no Capitólio durante os tumultos, “as evidências apresentadas pelos media não o mostram. Em vez disso, mostram o local onde os vídeos foram feitos e posteriormente carregados para o Parler. Mas isso não mostra que os vídeos foram feitos por um utilizador do Parler”.

Ele explica que “se uma pessoa gravou um vídeo no Capitólio e depois o partilhou com alguém”, esta pessoa podia nem sequer estar perto daquele local mas, ao partilhá-lo, “os dados de ‘geocaching’ subjacentes do vídeo ainda mostrariam o local original onde foi gravado. Assim, o facto de uma conta do Parler ter carregado um vídeo feito no Capitólio de forma alguma mostra que o utilizador do Parler estava lá”.

No entanto, parece certo que o Parler agregava elementos da extrema-direita de vários países, incluindo britânicos. Por outro lado, “o número de conteúdos usando termos como guerra civil, insurreição e rebelião disparou enquanto as menções aos Proud Boys – um grupo extremista de extrema-direita, neofascista e exclusivamente masculino, também aumentou dramaticamente. Os dados do Parler analisados pela Wired revelam que as menções a tais termos aumentaram de apenas 858 ocorrências a 1 de Janeiro para 3.261 no seu pico a 9 de Janeiro – um aumento de 280%”.

Mas seria isto razão para retirar da Internet ou limitar a liberdade de expressão de Donald Trump?

Quem deve ser o “grande árbitro”?
“Um dos desafios da liberdade de expressão é que quase todos pensam que sabem o que ela significa; têm a certeza de que se aplica ao seu próprio discurso; e estão igualmente certos de que não se aplica a palavras que consideram ofensivas ou perigosas”. Assim, “alguém deve ser o grande árbitro”, explicava Ben Wizner, director da American Civil Liberties Union (ACLU) ao The Guardian.

Mas quem será o “grande árbitro” para estas decisões? Ira Glasser, director da ACLU entre 1978 e 2001, é claro: “quando as pessoas dizem que querem proibir o discurso de ódio, o que querem dizer é que querem proibir o discurso que odeiam (…) Mas se se permitir que algo chamado de ‘discurso de ódio’ seja banido, então a única questão importante será ‘quem decide?’”

Se essa tarefa de “grande árbitro”, apontado por Ben Wizner, cair no governo, “não será o mesmo discurso que você odeia, será o discurso que eles odeiam”, alertou Glasser. “Tudo acaba por cair em quem decide e, na maioria das vezes, não é você”.

“A censura – e qualquer tipo de opressão, na verdade – começa sempre visando pessoas particularmente antipáticas, aquelas que não é controverso censurar. Mas, uma vez que se estabelece esse precedente, inevitavelmente, os limites do que é considerado aceitável ou errado acabam sempre por se expandir”, reflecte Branko Marcetic, da revista Jacobin.

“Houve vários casos em que verificadores de factos de meios de comunicação “verificaram” notícias em que havia um forte desacordo [sobre as suas conclusões]. E em 2017, quando a Alemanha expurgou alguns sites violentos de extrema direita, também retirou um site de esquerda porque era anti-capitalista. Isso é uma tentativa de parecer imparcial para não parecer que se está apenas a processar a direita”, contou ao The Guardian.

Tweets como prova, algoritmos não comprovados
No caso de Trump, os seus textos “viscerais e impulsivos acabaram sendo uma prova importante em acções judiciais que (a ACLU) e outros movemos contra ele. Fomos capazes de mostrar aos tribunais que as motivações por trás das suas políticas não eram o que os seus advogados fingiam ser”, pelo que mantê-lo no Twitter “era realmente do interesse público”.

Wizner salienta ainda que o como as redes sociais têm milhões de utilizadores, é necessário “usar a lei para impedir que as empresas consolidem tanto poder sobre o nosso discurso público”.

Também Suzanne Nossell, CEO da Pen America, considera que “o governo não deve legislar sobre o que pode ou não ser publicado numa plataforma como o Twitter, [mas] precisamos de protecções muito mais robustas para o público em termos de transparência” de decisões ou regras.

“Uma analogia é a regulamentação financeira, onde existem elaborados acordos de divulgação. São empresas privadas – bancos de investimento, bancos comerciais – mas existem obrigações meticulosas em termos de responsabilidade pública. As empresas de media social devem ser obrigadas a divulgar como os seus algoritmos estão configurados, quais os tipos de conteúdo que desaparecem e quando, o que é amplificado e propagado pela rede e porquê”.

https://i0.wp.com/blogs.harvard.edu/doc/files/2020/12/900px-Facebook_Data_Center.jpg

Em Dezembro passado, Doc Searls reconhecia este mesmo problema: o principal problema das manobras algorítmicas nas redes sociais, “é não saber o que está acontecendo, especialmente dentro de outras câmaras de eco”, para lá dos amigos ou familiares ou redes políticas preferidas.

Estas redes não estão sujeitas a inspecções externas e, mesmo que as tivessem, poucos entenderiam o que se passava para lá do piscar das luzes informáticas. O que um centro de dados do Facebook faz “é puro mistério, por design, para quem está fora da empresa” e provavelmente “para a maioria, talvez todas, as pessoas dentro da empresa”.

Uma outra visão é descrita na apresentação de “The State of the Platform Revolution 2021”, sobre os programadores com “acesso a uma ampla gama de fluxos de dados sobre o ecossistema e analisam esses fluxos de dados para informar o design dos algoritmos que gerem o ecossistema. Isso permite que os programadores de plataformas alterem o funcionamento dos algoritmos para optimizar os resultados do mercado”, pela análise aos comportamentos dos “trabalhadores do algoritmo”, como os motoristas ou os ciclistas de entrega de alimentos.

“No entanto, os trabalhadores que são geridos por esses algoritmos têm uma visibilidade quase nula do seu funcionamento”, apesar de “a empresa da plataforma poder alterar os seus algoritmos em resposta ao comportamento do trabalhador” mas estes terem mais dificuldade em “ajustar adequadamente o seu comportamento em resposta às mudanças nos algoritmos da plataforma. Essa assimetria de informações fortalece ainda mais a plataforma e enfraquece os trabalhadores”.

https://cdn.substack.com/image/fetch/f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fbucketeer-e05bbc84-baa3-437e-9518-adb32be77984.s3.amazonaws.com%2Fpublic%2Fimages%2F47bec7a4-43d0-43de-a0cd-306d513c742b_8000x4500.jpeg

Este conhecimento deveria estar acessível e não se esconder sob o manto do segredo comercial ou das patentes de software. São perigosos no mundo laboral mas também nas redes sociais.

“Esses sistemas precisam de ser mostrados, para que os investigadores os possam estudar”, refere Doc Searls. “Não sei como fazer isso acontecer; mas sei que não há nada mais amplo e consequente no mundo que também esteja ausente da investigação académica. E isso não está certo”.

Essa transparência elevaria o discurso no que se refere a decisões tomadas pelas redes sociais.

Manipulação de media social é ameaça à democracia
“A polémica remoção de Donald Trump das plataformas de media social reacendeu o debate em torno da censura de informações publicadas online. Mas a questão da desinformação e manipulação nas redes sociais vai muito além da conta de um homem no Twitter. E é muito mais difundido do que se pensava anteriormente”, notou Hannah Bailey, investigadora em Social Data Science no Oxford Internet Institute (OII).

“Nos últimos quatro anos, a manipulação da media social evoluiu de uma preocupação de nicho para uma ameaça global à democracia e aos direitos humanos“. Investigação do OII “descobriu que campanhas organizadas de manipulação de media social são agora comuns em todo o mundo – identificadas em 81 países em 2020, contra 70 em 2019“.

Países a azul escuro tiveram campanhas industriais de desinformação em 2020

No ano passado, foram identificados “62 países nos quais as próprias agências estatais estão a usar essas ferramentas para formar a opinião pública”, enquanto noutros países “essas ferramentas estão a ser utilizadas por organizações privadas ou actores estrangeiros”. E há ainda “actores estatais a trabalhar com empresas privadas de propaganda computacional em 48 países em 2020, dos 21 identificados entre 2017 e 2018, e apenas nove casos entre 2016 e 2017. Desde 2007, quase 60 milhões de dólares foram gastos globalmente em contratos com essas empresas”.

Segundo a investigadora, “uma democracia forte e funcional depende do acesso do público a informações de alta qualidade. Isso permite que os cidadãos participem de deliberações informadas e procurem o consenso. É claro que as plataformas de media social se tornaram cruciais para facilitar esta troca de informações“.

Perante “a escalada contínua em campanhas de propaganda computacional”, o temor é de um aumento da “polarização política, [que] diminuirá a confiança pública nas instituições e minará ainda mais a democracia em todo o mundo”.

O alerta é tão válido para as redes sociais como para os restantes media, nota Branko Marcetic, da Jacobin. “Trump não incitou realmente a violência através do Twitter – ele tuitou, mas as pessoas viram o discurso na TV. Há muito foco nas empresas de media social, quando indiscutivelmente o media mais importante para a ascensão de Trump foi a televisão e a enorme quantidade de media ganha e media gratuita que ele obteve em 2015 e 2016. Foi nos meios de comunicação conservadores que ele disse que a eleição estava a ser roubada. Mesmo sem conta no Twitter, o presidente vai poder aparecer na TV. Então, se acreditamos que ele deveria ser banido do Twitter, certamente também deve ser banido da TV?”

One thought on “Quem deve ser o “grande árbitro” da liberdade de expressão nas redes sociais (e na TV)

Deixe uma Resposta

Preencha os seus detalhes abaixo ou clique num ícone para iniciar sessão:

Logótipo da WordPress.com

Está a comentar usando a sua conta WordPress.com Terminar Sessão /  Alterar )

Google photo

Está a comentar usando a sua conta Google Terminar Sessão /  Alterar )

Imagem do Twitter

Está a comentar usando a sua conta Twitter Terminar Sessão /  Alterar )

Facebook photo

Está a comentar usando a sua conta Facebook Terminar Sessão /  Alterar )

Connecting to %s

This site uses Akismet to reduce spam. Learn how your comment data is processed.