Meta encerra programa de checagem de fatos nos EUA e adota modelo semelhante ao X
A companhia ainda anunciou que reduziu restrições a discussões sobre tópicos controversos, como imigração e identidade de gênero
O Meta anunciou nesta terça-feira, 7, que abandonou seu programa de checagem de fatos nos Estados Unidos e que adotou um sistema baseado na comunidade, semelhante a usado na rede social de Elon Musk, a X. A companhia ainda anunciou que reduziu restrições a discussões sobre tópicos controversos, como imigração e identidade de gênero.
Os anúncios marcam uma reversão na política da Meta, cujo presidente-executivo, Mark Zuckerberg, alega defender há muito tempo um sistema de moderação ativa de conteúdo em suas redes sociais.
Também ocorrem pouco depois que a empresa nomeou o executivo republicano Joel Kaplan como chefe de assuntos globais e elegeu Dana White, presidente-executivo do Ultimate Fighting Championship e amigo íntimo do presidente eleito dos EUA, Donald Trump, para seu conselho de administração.
"Chegamos a um ponto em que há muitos erros e muita censura. É hora de voltarmos às nossas raízes em torno da liberdade de expressão", disse Zuckerberg em um vídeo. "Vamos nos concentrar em reduzir os erros, simplificar nossas políticas e restaurar a liberdade de expressão em nossas plataformas. Vamos ajustar nossos filtros de conteúdo para que exijam muito mais confiança antes de retirar o conteúdo."
O fim do programa de checagem de fatos, iniciado em 2016, pegou algumas organizações parceiras de surpresa.
"Não sabíamos que essa mudança estava acontecendo e foi um choque para nós. Isso definitivamente vai nos afetar", disse Jesse Stiller, editor-gerente da Check Your Fact.
Outros parceiros, incluindo Reuters, AFP e USA Today, não responderam imediatamente aos pedidos de comentários. O Conselho de Supervisão da Meta, um órgao que afirma ser independente da empresa, saudou a mudança.
Os anúncios afetam Facebook, Instagram e Threads - três das maiores plataformas de mídia social com mais de 3 bilhões de usuários em todo o mundo.
Nos últimos meses, Zuckerberg expressou arrependimento por certas ações de moderação de conteúdo sobre tópicos como a Covid-19. A Meta também doou 1 milhão dólares para o fundo inaugural de Trump, em um desvio de sua prática anterior.
"Esse é um grande retrocesso para a moderação de conteúdo em um momento em que a desinformação e o conteúdo nocivo estão evoluindo mais rápido do que nunca", disse Ross Burley, cofundador do Centro para Resiliência da Informação, uma organização sem fins lucrativos.
"Essa decisão parece mais um apaziguamento político do que uma política inteligente."
MODELO DE NOTAS COMUNITÁRIAS
O sucesso do modelo anunciado pela Meta ainda está para ser visto.
A X já está sendo investigada pela Comissão Europeia sobre a disseminação de conteúdo ilegal na UE e a eficácia das medidas tomadas para combater a manipulação de informações, incluindo o sistema "notas da comunidade".
A Comissão lançou a investigação em dezembro de 2023, vários meses depois que a X lançou o recurso "notas da comunidade". Os porta-vozes da Comissão não estavam imediatamente disponíveis para comentar.
A Meta disse que começará a implementar gradualmente o "Community Notes" nos EUA nos próximos meses e aprimorará o modelo ao longo do ano.
Isso permitirá que os usuários chamem a atenção para publicações potencialmente mentirosas e que precisam de mais contexto, em vez de colocar essa tarefa a cargo de organizações e especialistas independentes de verificação de fatos.
A Meta não decidirá quais notas da comunidade serão exibidas nas publicações.
"É uma jogada inteligente de Zuck e algo que espero que outras plataformas sigam", disse Linda Yaccarino, presidente-executiva do X, na rede social.
A Meta também transferirá suas equipes de confiança e segurança que supervisionam as políticas de conteúdo e revisam o conteúdo da Califórnia para o Texas e outros locais dos EUA.
A Meta disse que concentrará seus sistemas automatizados em violações ilegais e de alta gravidade, incluindo terrorismo e drogas.