Discurso de ódio no X cresceu 50% após aquisição por Elon Musk, diz estudo

GUSTAVO SOARES
SÃO PAULO, SP (FOLHAPRESS)

O período de cerca de seis meses que sucedeu a compra do Twitter (hoje X) por Elon Musk, entre outubro de 2022 e maio de 2023, foi marcado por um aumento substancial do discurso de ódio e pela persistência da presença de contas inautênticas na plataforma.

Esse é o resultado de um estudo da Universidade da Califórnia em Berkeley e publicado nesta quarta-feira (12) na revista científica Plos One.

A análise aponta que a frequência de posts considerados racistas, homofóbicos e transfóbicos na rede social foi em média 50% maior do que nos meses que antecederam a aquisição. Já o número de robôs e outros tipos de contas falsas, um dos principais alvos do bilionário na época, não foi reduzido e pode até ter aumentado.

Embora outros estudos já apresentassem resultados semelhantes para essas áreas no período imediatamente depois da conclusão da compra, a pesquisa liderada por Daniel Hickey mostra que o pico persistiu nos meses seguintes.

A análise envolveu publicações realizadas em inglês na plataforma entre janeiro de 2022 e junho de 2023, quando Linda Yaccarino substituiu Musk no posto de CEO.

Para classificar publicações como discurso de ódio, os pesquisadores usaram um modelo de reconhecimento de linguagem que identifica se um comentário é “rude, desrespeitoso ou despropositado, provável de fazer alguém deixar uma discussão”, aliando o uso de ofensas direcionadas com o teor e a intenção do comentário.

Isso evitou, por exemplo, que a amostra abrangesse posts educativos ou pornográficos com palavras consideradas ofensivas por minorias. Não foi possível, contudo, mensurar os efeitos sobre o discurso de ódio “coberto”, de linguagem codificada.

A média semanal de posts identificados como discurso de ódio era de 2.179 antes da aquisição por Musk, e saltou 50% para 3.246. A maior variação ocorreu para comentários transfóbicos, com 260%, seguido pelos posts racistas (42%) e homofóbicos (30%).

A variação média superou o aumento de atividade na plataforma no período, de 8%. Também foi observado um crescimento de 70% no engajamento com esse tipo de publicação.

Isso sugere que usuários foram mais expostos a comentários de ódio no período a despeito da política “freedom of speech, not reach” [liberdade de expressão, não de alcance] do X. Procurada para comentar o estudo, a plataforma não respondeu até a publicação desta reportagem.

Pesquisas anteriores, citadas pelos autores, conectam o discurso de ódio na internet com crimes de ódio fora da rede, enquanto robôs e outros tipos de contas falsas promovem desinformação e spam que podem levar a golpes financeiros, interferir em eleições e desmobilizar campanhas de saúde pública.

Embora o artigo não estabeleça uma relação de causa e efeito entre mudanças de moderação no X e o aumento do discurso de ódio, principalmente devido à falta de transparência da empresa, os autores ressaltam a necessidade de um aumento da moderação.

“Reconhecemos que, como não temos acesso a mudanças internas específicas nos procedimentos, quadro de funcionários e prioridades do X sob a gestão de Musk, somos incapazes de fazer afirmações causais definitivas sobre os padrões documentados”, escrevem.

Desde a compra da rede social por US$ 44 bilhões, Musk demitiu grande parte da equipe, alterou a moderação de conteúdo para o modelo de “notas da comunidade” e implementou um sistema pago para o selo de verificação. O site chegou a ser bloqueado no Brasil por cerca de um mês em 2024 sob a justificativa de descumprimento de decisões judiciais.

Também no ano passado, o bilionário foi um dos principais apoiadores da campanha do agora presidente Donald Trump. No novo governo, Musk tornou-se uma figura de peso, assumindo o chamado Departamento de Eficiência Governamental (Doge) para enxugar gastos.

A mudança no modelo de moderação do X também inspirou a Meta –dona do Facebook, Instagram e WhatsApp– a abandonar sua política de verificação por terceiros. Em janeiro, Mark Zuckerberg anunciou que adotaria método similar às notas da comunidade.

“Embora as plataformas de mídia social tenham o potencial de promover orientações pró-sociais e aumentar o apoio a ações coletivas construtivas, elas também podem servir como veículos para a disseminação de ódio e desinformação”, dizem os autores no estudo. “Acreditamos que os pesquisadores têm uma obrigação ética de desenvolver ferramentas que possam iluminar esse cenário.”

Adicionar aos favoritos o Link permanente.