Empregados do Facebook advertiram sobre potencial da rede social em radicalizar usuários – 23/10/2021 – Mundo


Um ano e quatro meses antes da última eleição presidencial nos Estados Unidos, em novembro passado, uma pesquisadora do Facebook descreveu um fato alarmante. Ela estava recebendo conteúdo sobre a teoria da conspiração QAnon uma semana depois de abrir uma conta de teste, segundo escreveu em um relatório interno.

Em 5 de novembro, dois dias depois da eleição, outro funcionário do Facebook postou uma mensagem alertando os colegas de que havia comentários com “desinformação eleitoral incendiária” abaixo de muitas postagens.

Quatro dias depois disso, um cientista de dados da companhia escreveu em uma nota para seus colegas de trabalho que 10% –número assustadoramente alto– de todas as visitas a material político nos Estados Unidos foram a posts que afirmavam que a votação foi fraudada.

Em todos esses casos, os funcionários do Facebook deram o alarme sobre desinformação e conteúdo inflamável na plataforma e pediram que fossem tomadas medidas, mas a companhia falhou ou teve dificuldades para abordar os problemas.

Os despachos internos estavam entre um conjunto de documentos obtidos pelo The New York Times que deram nova compreensão sobre o que aconteceu dentro da rede social antes e depois da eleição nos Estados Unidos em novembro, quando a companhia foi pega desprevenida por usuários que dispararam mentiras sobre a votação.

O Facebook culpou publicamente o ex-presidente Donald Trump e outras plataformas sociais pela proliferação de falsidades sobre a eleição . Em meados de janeiro, Sheryl Sandberg, diretora de operações da rede social, disse que o tumulto em 6 de janeiro no Capitólio em Washington foi “amplamente organizado em plataformas que não têm nossas capacidades de deter o ódio”. Mark Zuckerberg, CEO do Facebook, disse a legisladores em março que a empresa “fez sua parte para garantir a integridade de nossa eleição”.

Mas os documentos da companhia mostram até que ponto o Facebook sabia que movimentos e grupos extremistas em seu site estavam tentando polarizar os eleitores americanos antes da votação. Os documentos também dão novos detalhes sobre como os pesquisadores da companhia estavam cientes depois da eleição sobre o fluxo de desinformação afirmando que os votos foram manipulados contra Trump.

O que os documentos não mostram é uma imagem completa da tomada de decisões dentro do Facebook. Alguns estudos internos sugerem que a companhia lutou para exercer o controle sobre toda a sua rede e a rapidez com que a informação se dissemina, enquanto outros relatórios sugerem que a empresa estava preocupada com perder o engajamento ou prejudicar sua reputação.

Incontestável, porém, foi que os próprios empregados do Facebook acreditavam que a rede social poderia ter feito mais, segundo os documentos.

“O reforço foi gradual”, dizia uma revisão interna em março da resposta do Facebook aos grupos “Stop the Steal” (Parem o Roubo), que afirmavam que a eleição foi fraudada contra Trump. Os autores do relatório disseram esperar que os resultados sirvam de guia para que o Facebook “faça isso melhor na próxima vez”.

Muitos das dezenas de documentos da rede social analisados pelo Times não foram relatados antes. Alguns dos relatórios internos foram inicialmente obtidos por Frances Haugen, uma ex-diretora de produtos do Facebook que se tornou informante.

Andy Stone, um porta-voz da rede social, disse que a empresa estava “orgulhosa” do trabalho que fez para proteger a eleição de 2020. Ele explicou que o Facebook trabalhou com órgãos policiais, empregou medidas de segurança e monitorou de perto o que estava em sua plataforma.

“As medidas de que realmente precisávamos continuaram implantadas até fevereiro, e algumas, como não recomendar novos grupos cívicos ou políticos, continuam em vigor até hoje”, disse. “A responsabilidade pela violência que ocorreu em 6 de janeiro é das pessoas que atacaram nosso Capitólio e das que as incentivaram.”

Viagem à QAnon

Durante anos, os empregados do Facebook advertiram sobre o potencial da rede social de radicalizar usuários, segundo os documentos.

Em julho de 2019, uma pesquisadora da empresa que estudava a polarização fez uma descoberta surpreendente: uma conta de teste que ela tinha aberto para uma “mãe conservadora” na Carolina do Norte recebeu recomendações com conteúdo conspiratório uma semana depois de entrar na rede social.

A pesquisa interna, intitulada “A viagem de Carol à QAnon”, detalhou como a conta no Facebook de uma mulher imaginária chamada Carol Smith tinha seguido páginas da Fox News e da Sinclair Broadcasting. Em poucos dias, o Facebook tinha recomendado páginas e grupos relacionados à QAnon, a teoria da conspiração que afirmava falsamente que Trump estava enfrentando um grupo sombrio de democratas pedófilos.

No final de três semanas, a conta de Carol Smith tinha evoluído, tornando-se um “fluxo constante de conteúdo enganoso, polarizador e de baixa qualidade”, escreveu a pesquisadora.

“Sabemos há mais de um ano que nossos sistemas de recomendação podem muito rapidamente levar os usuários pelo caminho das teorias e grupos conspiratórios”, escreveu ela. “Enquanto isso, o grupo/conjunto de opiniões radicais alcançou proeminência nacional com candidatos ao Congresso da QAnon, hashtags da QAnon e grupos ganhando visibilidade na corrente dominante.”

O dia da eleição

O Facebook tentou deixar pouco ao acaso na eleição de 2020. Durante meses, a companhia refinou medidas de emergência conhecidas como planos “quebre o vidro” –como reduzir o ritmo da formação de novos grupos– em caso de um resultado contestado. Ela também contratou dezenas de milhares de empregados para garantir a segurança do site para a eleição, consultou especialistas em direito e política e expandiu as parcerias com organizações que verificam notícias.

Em um post público em setembro de 2020, Zuckerberg escreveu que sua companhia tinha “a responsabilidade de proteger nossa democracia”. Ele destacou uma campanha de registro de eleitores que o Facebook financiou e mostrou medidas que a empresa tinha tomado –como remover desinformação de eleitores e bloquear anúncios políticos– para “reduzir as chances de violência e tumultos”.

Muitas medidas parecem ter ajudado. O dia da eleição passou sem grandes sustos no Facebook. Mas depois que a apuração dos votos mostrou uma disputa apertada entre Trump e Joe Biden, o então candidato democrata, Trump postou nas primeiras horas de 4 de novembro no Facebook e no Twitter: “Eles estão tentando ROUBAR a eleição”.

Os documentos internos mostram que os usuários tinham encontrado no Facebook meios de solapar a confiança na eleição.

Em 5 de novembro, um empregado da rede social postou uma mensagem para um grupo interno chamado “Feedback das Notícias”. Em sua nota, ele disse aos colegas que a desinformação sobre a eleição era geral nos comentários das postagens. Pior ainda, disse o funcionário, os comentários com desinformação mais incendiária sobre a eleição estavam sendo amplificados para aparecer no topo dos comentários, espalhando informação inexata.

Então, em 9 de novembro, um cientista de dados do Facebook disse a vários colegas em um post interno que a quantidade de conteúdo que projetava dúvida sobre os resultados da eleição tinha disparado na rede social. Até uma em cada 50 visitas ao Facebook nos EUA, ou 10% de todas as visitas a material político, tinha conteúdo declarando que a votação foi fraudulenta, escreveu o pesquisador.

“Também havia uma parte de incitação à violência”, escreveu ele.

Mesmo assim, o Facebook começou a relaxar suas medidas de emergência em novembro, disseram três ex-empregados. O período crítico após a eleição parecia ter passado, e a companhia temia que algumas medidas pré-eleitorais, como reduzir o alcance das páginas de direita radical, causassem reclamações dos usuários, disseram eles.

6 de janeiro

Na manhã de 6 de janeiro, com os manifestantes reunidos perto do edifício do Capitólio em Washington, alguns funcionários do Facebook montaram uma planilha, onde começaram a registrar as medidas que a companhia estava tomando contra a desinformação eleitoral e conteúdo inflamatório na plataforma.

As queixas de usuários sobre postagens que incitavam à violência tinham aumentado naquela manhã, segundo dados da tabela.

Ao longo do dia, enquanto uma multidão invadia o Capitólio, os empregados atualizaram a planilha com ações que estavam sendo tomadas, disse um trabalhador envolvido na iniciativa. Das dezenas de medidas que os empregados do Facebook tinham recomendado, algumas foram implementadas, como permitir que engenheiros da empresa deletassem grande número de posts que tinham sido denunciados por incitação à violência.

Mas outras medidas, como evitar que grupos mudassem seus nomes para termos como “Parem o Roubo”, não foram implementadas por causa de problemas tecnológicos de última hora. Zuckerberg e Mike Schroepfer, diretor de tecnologia do Facebook, postaram notas internas sobre sua tristeza pelo tumulto no Capitólio. Porém, alguns empregados da empresa responderam com irritação, segundo fios de mensagens vistos pelo Times.

“Eu gostaria de me sentir diferente, mas simplesmente não basta dizer que estamos nos adaptando, porque já devíamos ter nos adaptado há muito tempo”, escreveu um deles. “Havia dezenas de grupos Stop and Steal ativos até ontem, e duvido que eles tenham disfarçado suas intenções.”

Outro escreveu: “Eu sempre senti que na balança meu trabalho foi importante e útil para o mundo como um todo. Mas honestamente este é um dia muito sombrio para mim aqui”.

Em um relatório de 7 de janeiro, a extensão do que tinha ocorrido no Facebook ficou clara. Relatos de usuários sobre conteúdo que potencialmente violava as políticas da companhia eram sete vezes mais numerosos do que nas semanas anteriores, disse o relatório. Várias das postagens mais relatadas, segundo os pesquisadores, “sugeriam a derrubada do governo” ou “manifestavam apoio à violência”.

Autópsia

Em março, pesquisadores do Facebook publicaram dois relatórios internos avaliando o papel da empresa em movimentos sociais que promoviam mentiras sobre fraude eleitoral.

Em um deles, um grupo de empregados dizia que o Facebook tinha mostrado “o modelo”. Isso envolvia a companhia inicialmente tomar “medidas limitadas ou nenhuma” contra a QAnon e movimentos de deslegitimação da eleição, só para agir e remover esse conteúdo quando já tivessem alcançado tração. O documento foi relatado anteriormente pelo Wall Street Journal.

Parte do problema, escreveram os empregados, era que as regras do Facebook sobre desinformação eleitoral deixavam muitas áreas cinzentas. Em consequência, posts que “podiam ser interpretados como dúvidas razoáveis sobre processos eleitorais” não eram removidos porque não violavam literalmente essas regras.

Esses posts então criaram um ambiente que contribuiu para a instabilidade social, disse o relatório.

Outro relatório, intitulado “Parem o Roubo e Partido Patriótico: o crescimento e a mitigação de um movimento adversário prejudicial”, explicou como pessoas tinham explorado os grupos do Facebook para rapidamente formar comunidades de deslegitimação da eleição no site antes de 6 de janeiro.

“Isso tudo torna ainda mais importante olhar para trás, para aprendermos o que for possível sobre o crescimento dos movimentos de deslegitimação da eleição, que espalharam a conspiração e ajudaram a incitar a insurreição no Capitólio”, disse o relatório.

Fonte: Acesse Aqui o Link da Matéria Original



Deixe um comentário

Este site usa cookies para que você tenha a melhor experiência do usuário. Se continuar a navegar, dará o seu consentimento para a aceitação dos referidos cookies e da nossa política de cookies , clique no link para obter mais informações. CONFIRA AQUI

ACEITAR
Aviso de cookies
Translate »