21/11/2021 - 9:00
Durante as eleições brasileiras de 2018, um pequeno grupo de contas e páginas monopolizou a produção de conteúdo político no Facebook. Segundo documentos internos da empresa de Mark Zuckerberg obtidos pelo Estadão, o País sofreu com a ação dos chamados “superprodutores”, usuários que publicam um alto volume de conteúdo – nos arquivos, o Brasil é citado como “a mais recente grande democracia a enfrentar uma assustadora erupção de desinformação e ódio no Facebook”.
As informações aparecem nos “Facebook Papers”, um pacote de documentos da empresa vazados para um consórcio internacional de veículos, incluindo Estadão, New York Times, Guardian e Le Monde. Os arquivos também foram fornecidos ao Congresso americano por Frances Haugen, ex-funcionária do Facebook que coletou pesquisas internas da rede social ao pedir demissão.
Um dos documentos, de 28 páginas, traz uma publicação interna de 13 de outubro de 2018, na qual pesquisadores da empresa discutem problemas relacionados a eleições em diferentes países – no arquivo, há um tópico chamado “lições aprendidas no Brasil”.
A empresa diz que, em 7 de outubro daquele ano, dia do primeiro turno das eleições presidenciais do País, 18,4 milhões de publicações políticas foram criadas por 6,7 milhões de perfis ou páginas na plataforma. Porém, 35% desse material foi publicado por apenas 3% das contas – ou seja, 6,4 milhões de posts políticos foram gerados por apenas 201 mil contas.
Segundo o documento, 74 milhões de pessoas distintas foram expostas aos materiais, gerando 2,74 bilhões de visualizações. Os pesquisadores do Facebook calculam que as contas que monopolizaram a produção de conteúdo receberam 28% dessas visualizações, ou 767,2 milhões. Mas a concentração pode ter sido maior.
“Minha análise não leva em conta a propagação, uma prática em que vários usuários coordenados postam ou compartilham de novo o mesmo conteúdo (mas criando postagens diferentes)”, afirma um pesquisador. “Uma análise que olhasse os padrões de difusão de conteúdo provavelmente revelaria mais concentração”.
O relatório trata da atuação dos “superprodutores” de conteúdo político, contas que ultrapassam os limites do que seria o engajamento intenso “regular” na plataforma, ganhando influência desproporcional na conversa política.
Os pesquisadores demonstraram preocupação: “Se o Facebook deve ser uma praça pública verdadeira e democrática, todos os envolvidos devem poder fazer uma contribuição para a conversa política. Mas nem todos os sujeitos políticos são iguais em sua capacidade de investir na conversa”, diz outra parte da pesquisa.
A concentração de produção de conteúdo não é um fenômeno só do Facebook – a prática é apontada em várias redes sociais, como o Twitter. Porém, o problema é mais grave quando há monopólio de conteúdo político, diz um pesquisador. “Se você ganhar (na produção) de conteúdo não político, você ganha um pouco mais de dinheiro. Se você vencer (na produção) de conteúdo político, você controla a entidade que detém o monopólio da violência (Ex: Estado).”
CONEXÃO. Segundo o documento, os superprodutores têm motivações variadas: podem ser pessoas profundamente comprometidas com sua ideologia, “spammers” mercenários (pessoas pagas para replicar exaustivamente a mensagem), agentes de influência estrangeira ou “um pouco de tudo”. O Facebook especula que o trabalho poderia ter duas origens: alguns seriam pagos por agentes políticos, enquanto outros fariam as postagens por acreditarem firmemente em suas ideologias.
Em outro arquivo, no qual é discutido o papel de conservadores na desinformação na Macedônia, um funcionário sinaliza que o problema pode acontecer em rede. “Eu não ficaria surpreso em ver uma rede (de atores maliciosos) que conecta operações nas Filipinas, Mianmar, Brasil e Macedônia. É um campo globalizado,” diz um funcionário em julho de 2018.
Na comparação global, o Brasil está entre os países com maior grau de atuação dos “superprodutores”. No documento, a empresa destaca a força do mecanismo no Brasil e em países latino-americanos e africanos. “Democracias europeias estabelecidas, bem como Austrália, Canadá e África do Sul, aparecem relativamente saudáveis de acordo com esta métrica (do mapa)”, diz o arquivo.
AÇÕES. Os arquivos mostram também os funcionários discutindo formas de resolver o problema. Uma das correções seria um “freio de compartilhamento” aplicado na classificação do feed de notícias.
Parece ser um mecanismo divulgado posteriormente pela empresa. Em resposta à reportagem, o Facebook diz: “Ao longo dos anos, tomamos medidas para reduzir conteúdo potencialmente nocivo. É por isso que paramos de recomendar grupos cívicos e políticos”.
Sobre as eleições de 2018, o Facebook afirma que realizou um extenso trabalho para melhorar a plataforma. Entre as medidas, estariam prevenção de circulação de desinformação, mudanças na transparência dos anúncios, aumento da transparência de páginas e trabalho proativo com o Tribunal Superior Eleitoral (TSE) do Brasil e com os Tribunais Regionais Eleitorais.
As informações são do jornal O Estado de S. Paulo.