Meta sofre para conter discurso de ódio antes de eleição nos EUA, dizem pesquisadores

4 nov 2024 - 19h45

Por Avi Asher -Schapiro

LOS ANGELES (Fundação Thomson Reuters) - A Meta -- proprietária do Facebook e do Instagram -- enfrenta dificuldades para conter e lidar totalmente com o discurso de ódio antes das eleições nos Estados Unidos, de acordo com uma pesquisa compartilhada exclusivamente com a Thomson Reuters Foundation.

Publicidade

A organização sem fins lucrativos Global Witness testou como o Facebook está lidando com o discurso de ódio antes da votação presidencial, analisando 200.000 comentários nas páginas de 67 candidatos ao Senado dos EUA entre 6 de setembro e 6 de outubro.

Quando os pesquisadores da Global Witness usaram a ferramenta de denúncia do Facebook para sinalizar 14 comentários que consideraram violações especialmente graves das regras de discurso de ódio da Meta em seus "padrões de comunidade", a Meta levou dias para reagir.

Os comentários sinalizados pelos pesquisadores -- alerta: contém linguagem ofensiva -- referiam-se a muçulmanos como uma "praga", a judeus como "consanguíneos e parasitas" e chamavam uma candidata política de "porca lésbica".

A Meta removeu alguns, mas não todos, dos 14 comentários do Facebook após a Global Witness enviar um email diretamente à empresa, disseram os pesquisadores.

Publicidade

"Houve uma falha real na revisão imediata dessas publicações", disse Ellen Judson, pesquisadora da Global Witness que supervisionou o teste.

As conclusões chegam no momento em que a Meta enfrenta críticas de longa data de pesquisadores, grupos de supervisão e parlamentares por não promover um ecossistema de informações saudável durante eleições em todo o mundo.

Ainda em abril, a Comissão Europeia abriu uma investigação para avaliar se a Meta pode ter violado as regras de conteúdo online da União Europeia antes das eleições para o Parlamento Europeu.

Judson disse que a forma como o Facebook tratou os comentários sinalizados pela Global Witness aponta para uma falha em como a plataforma lidas com discurso de ódio.

Em um email, um porta-voz da Meta disse que o trabalho da Global Witness foi "baseado em uma pequena amostra de comentários e removemos aqueles que violavam nossas políticas".

Publicidade

"Isso não reflete o trabalho que nossas equipes -- incluindo as 40.000 pessoas que trabalham com segurança e proteção -- estão fazendo para manter nossa plataforma segura antes das eleições", disse o porta-voz.

Segundo os padrões de comunidade do Facebook, conteúdo que "ataca indivíduos com base em sua raça, etnia, nacionalidade, sexo, gênero, identidade de gênero, orientação sexual, afiliação religiosa, deficiências ou doenças é considerado uma violação".

Embora não esteja claro quantos usuários foram expostos ao discurso de ódio, Judson disse que o impacto pode ser grande.

"O abuso online pode ter um impacto psicológico negativo e fazer com que as pessoas reconsiderem sua participação na política. Para observadores externos, se deparar com esse tipo de discurso talvez dê a impressão de que esse não é um lugar para mim", disse.

"Uma pequena quantidade de abuso ainda pode causar muitos danos."

Publicidade
Reuters - Esta publicação inclusive informação e dados são de propriedade intelectual de Reuters. Fica expresamente proibido seu uso ou de seu nome sem a prévia autorização de Reuters. Todos os direitos reservados.
Curtiu? Fique por dentro das principais notícias através do nosso ZAP
Inscreva-se