Plataformas não comparecem a audiência sobre moderação de conteúdo
Sessão foi convocada após anúncio de fim do programa de checagem de fatos da Meta; "Estamos preocupados em proteger a sociedade brasileira", disse ministro da AGU.O tema da moderação nas redes sociais voltou ao centro do debate público após a Meta, dona do Facebook, Instagram e WhatsApp, anunciar que irá desativar, a partir dos Estados Unidos, seu programa de checagem de fatos. O governo manifestou preocupação em relação à mudança e convocou uma audiência pública para esta quarta-feira (22/01), que contou com a presença de nenhum representante das big techs.
O debate foi promovido pela AGU (Advocacia Geral da União), que convidou 45 participantes - entre representantes das plataformas digitais, agências de checagem de informações, organizações de direitos humanos e pesquisadores do tema. Foram chamadas para a audiência a Alphabet (Google/YouTube), Discord, Kwai, LinkedIn, Meta, TikTok e X.
O ministro da AGU, Jorge Messias, afirmou que não há pré-julgamento do governo a respeito de nenhuma das big techs, que terão até sexta-feira para enviar suas contribuições. "As plataformas foram convidadas e preferiram não participar desta audiência. É uma opção, nós respeitamos. Isso não interdita o diálogo, que está sempre aberto. Recebi inclusive o contato de algumas plataformas manifestando o interesse de continuar colaborando com o governo", disse.
Messias afirmou ainda que o Estado não vai se omitir diante de decisões das empresas sobre o assunto, sem citar nomes. "A omissão não é uma opção para este governo. Estamos preocupados em proteger a sociedade brasileira", afirmou. "Nós temos o compromisso de segurança em todas as vias, inclusive nas digitais", defendeu.
"Milhões de brasileiros usam as plataformas as mais diversas para a realização de negócios e são com esses brasileiros que governo está preocupado e comprometido", afirmou. "Estamos preocupados em proteger, crianças, adolescentes, empresários, os consumidores, a sociedade em geral de crimes de toda ordem."
A audiência deve reunir material sobre enfrentamento à desinformação e promoção de direitos fundamentais no mundo digital, o que deve amparar o Supremo Tribunal Federal (STF) em julgamentos sobre o tema, assim como o Congresso Nacional, onde tramitam projetos sobre a regulação do setor, explicou Messias.
A ministra dos Direitos Humanos e da Cidadania, Macaé Maria Evaristo dos Santos, também presente na audiência, frisou a importância do respeito aos direitos humanos e das crianças. "Nos preocupa sobremaneira a expansão do racismo, da misoginia, dos preconceitos de maneiras mais diversas que podemos encontrar na sociedade."
Plataformas de redes sociais têm enfrentado críticas sobre a falta de transparência nos relatórios de moderação de conteúdo e na proteção de direitos fundamentais.
Reportagem da agência de checagem Aos Fatos mostra, por exemplo, cita que o novo manual interno da empresa sobre moderação de conteúdo, já em vigor no Brasil, passou a permitir conteúdos como expressões de supremacia racial e de preconceito religioso, que são crimes, autorizando frases como "os brancos são os melhores" e "eu odeio negros".
O que está em jogo
Desde 2016, a Meta oferece no Facebook e no Instagram um serviço de checagem de fatos, realizado por jornalistas e especialistas parceiros em mais de 80 países - incluindo o Brasil -, que ajudam a desmentir e contextualizar publicações enganosas nas redes.
O CEO da Meta, Mark Zuckerberg, anunciou no início de janeiro, em um vídeo de mais de 5 minutos, que a empresa vai abandonar o programa de checagem de fatos e permitir mais conteúdos políticos, "inicialmente" só nos Estados Unidos, em sintonia com o novo governo de Donald Trump.
O programa será substituído por "Notas da Comunidade", sistema similar ao adotado pelo X, que depende de contribuições voluntárias de usuários.
Em uma publicação no X, Angie Drobnic Holan, responsável americana da Rede Internacional de Fact-Checking (IFCN, na sigla em inglês), afirmou: "Essa decisão afetará os usuários que buscam informações precisas e confiáveis".
"Os verificadores de fatos nunca mostraram parcialidade em seu trabalho, e essas críticas vêm de pessoas que acreditam que podem exagerar os fatos e mentir sem serem refutadas ou contraditas", acrescentou.
O trabalho de checagem de informação não faz parte da política de moderação de conteúdo, ao contrário do que sugere Zuckerberg, segundo explica Iná Jost, coordenadora de pesquisa do InternetLab, em entrevista ao Aos Fatos.
"Zuckerberg faz uma confusão deliberada entre o que é o programa de checadores e a estrutura de moderação de conteúdo", disse.
"Ele dá a entender que os checadores têm ingerência direta na circulação de conteúdo — no que vai circular, no que vai ser alcançado, no tamanho do alcance, no que vai ser retirado, no falso positivo, no falso negativo —, quando, na verdade, os checadores servem como um apoio a essa grande engrenagem que é a moderação de conteúdo."
sf (Agência Brasil, ots)