Relatório do Fórum Econômico Mundial aponta que desinformação é principal risco global a curto prazo
COMPARTILHAMENTO DE AFIRMAÇÕES FALSAS E ENGANOSAS NAS REDES SOCIAIS É CONSIDERADA AMEAÇA MAIS IMPORTANTE NOS PRÓXIMOS DOIS ANOS, ACIMA DE CLIMÁTICOS EXTREMOS E CONFLITOS ARMADOS ENTRE PAÍSES
O Relatório de Riscos Globais de 2025, divulgado pelo Fórum Econômico Mundial no último dia 15, mostra que a desinformação é o principal problema a ser enfrentado pelo mundo nos próximos dois anos. O compartilhamento de afirmações falsas e enganosas nas redes sociais é considerado um risco mais importante até mesmo que eventos climáticos extremos e conflitos armados entre países. O documento considera que o fenômeno digital está impactando o cenário geopolítico ao distorcer, por exemplo, informações sobre intenções de votos e sobre zonas de conflitos.
Publicação de referência do Fórum Econômico Mundial, o relatório se baseia em informações colhidas em 2024 na Pesquisa de Percepção de Riscos Globais (GRPS, na sigla em inglês), que ouviu mais de 900 líderes globais dos setores empresarial, governamental, acadêmico e da sociedade civil. Ele identifica e analisa os riscos mais urgentes nos horizontes imediato, de curto e de longo prazo, com o objetivo de fornecer aos líderes mundiais a perspectiva necessária para enfrentar os desafios emergentes.
Em um ranking com 33 riscos, nesta edição, preocupações sobre diferentes assuntos são elencadas como problemas globais. Para o ano de 2025, os conflitos armados são considerados a ameaça mais preocupante, logo à frente dos eventos climáticos extremos. Também estão presentes temas como recessão econômica, desemprego, polarização social, ciberespionagem e desinformação.
Esse último tópico aparece em 4º lugar como preocupação global para 2025. No entanto, mantém-se como o principal risco de curto prazo pelo segundo ano consecutivo por ser considerado pelos entrevistados uma ameaça persistente à coesão social e aos governos. Segundo o relatório, o compartilhamento de afirmações falsas mina a confiança e agrava divisões dentro e entre nações. A longo prazo, o cenário é marcado por riscos tecnológicos relacionados à desinformação, como os resultados adversos da Inteligência Artificial (IA).
O texto aponta que o surgimento de novas tecnologias e o crescimento de plataformas que promovem interações entre os usuários têm impulsionado a produção de conteúdo online. Neste contexto, atores de ameaça, como são chamados os indivíduos ou grupos que exploram fraquezas em sistemas digitais, utilizam automação, algoritmos e IA para ampliar o alcance e o impacto de campanhas de desinformação.
Como já explicou o Verifica, a IA é uma tecnologia que busca imitar o comportamento humano. A ferramenta é baseada em algoritmos, ou seja, sistemas lógicos de aprendizado de máquina desenvolvidos para fazer uma tarefa. O processo de automação ocorre quando os algoritmos substituem a ação humana para uma determinada finalidade.
Polarização contribui para desinformação nas redes sociais
O relatório considera que a polarização social é um risco global importante a curto prazo. De acordo com o documento, esse problema, associado à desinformação, pode agravar o chamado viés algorítmico. Esse termo se refere aos preconceitos ou às inclinações presentes na programação dos algoritmos. Isso ocorre porque eles dependem de dados de terceiros, como bibliotecas de software e infraestruturas de rede. Dessa forma, esses algoritmos podem ser manipulados para causar danos, contribuindo para a escalada de conteúdos falsos ou enganosos que circulam nas redes sociais.
O jornalista Sérgio Lüdtke, editor-chefe do Projeto Comprova, coalizão de combate à desinformação da qual o Estadão Verifica faz parte, destaca que a desinformação ganhou potência e velocidade com novas tecnologias. Esse fenômeno acelera a polarização e ambas se retroalimentam da ruptura social, criando um ciclo.
"Se a desinformação confirmar as crenças ou as ilusões desses cidadãos que vivem num ambiente polarizado, eles estarão mais suscetíveis a formarem opiniões ou reforçarem convicções a partir desses conteúdos", disse.
A doutora em Comunicação e Informação Taís Seibt, professora da Universidade do Vale do Rio dos Sinos (Unisinos), destaca que quanto mais alguém se alinha com determinado conteúdo nas redes sociais, mais o algoritmo recomenda conteúdos similares. Assim, criam-se consensos em uma "bolha", que não reverberam em outros círculos sociais. Isso aumenta a polarização e abre espaço para os conteúdos que poluem o ecossistema de informação.
"Podem ser conteúdos verdadeiros fora de contexto, podem ser teorias conspiratórias, narrativas distorcidas ou totalmente inventadas, opinião disfarçada de notícia, discurso de ódio, cancelamento e linchamento virtual", exemplificou. "Enfim, uma série de discursos que fortalecem essa oposição 'nós x eles' e contaminam a opinião pública".
Papel da IA para desinformação
Além do viés dos algoritmos, o relatório também destaca o papel da inteligência artificial e da vigilância digital na escalada da desinformação e da polarização social e política. No relatório, o Fórum Econômico Mundial sugere a utilização de modelos de IA para minimizar o viés dos algoritmos. Segundo o documento, governos, sociedade civil e acadêmicos devem colaborar para treinar algoritmos menos enviesados.
Leia checagens sobre IANão, Haddad não disse que 'taxar os pobres' é mais 'lucrativo' porque seriam 98% da população
Vídeo de incêndios em Los Angeles tem características de geração por inteligência artificial
Imagens da catástrofe no RS criadas por IA alteram percepção da realidade, dizem especialistas
Outra proposta para atenuar os riscos relacionados ao uso da IA é a criação de conselhos de supervisão da tecnologia. Esses comitês, conforme o documento, devem contar com a perspectiva de diversos profissionais e especialistas. O objetivo seria identificar potenciais riscos e garantir que a IA siga políticas internas e externas.
Além disso, o levantamento ressalta a importância de disponibilizar informação acessível e transparente sobre os modelos de IA generativa. Esse tipo de inteligência artificial é projetada para criar conteúdos, como textos, imagens e vídeos, a partir de dados com os quais foi treinada. É o caso de ferramentas como o ChatGPT e OpenAI, por exemplo.
O documento avalia que soluções técnicas também devem ser adotadas para desenvolver um ecossistema de informação confiável. A adoção de marcas d'água para identificar conteúdos gerados pela tecnologia, por exemplo, é uma das sugestões.
Para o doutor em Ciências da Comunicação Marco Schneider, coordenador da Rede Nacional de Combate à Desinformação (RNCD), o problema relacionado à IA envolve mais uma questão de política do que técnica. "Devemos estar preocupados e atentos, porém não desesperados, porque a mesma IA que é capaz de disseminar desinformação é capaz de identificá-la", destacou.
Da mesma forma, Taís defende que as consequências, as responsabilidades e os limites de uso da IA devem ser debatidos e regulamentados. "Precisamos discutir normas para o uso seguro de plataformas digitais e IA. Mal usadas, podem ser tão ou mais perigosas que um carro desgovernado", avaliou.
Fim de programa de checagem na Meta torna plataforma menos transparente, diz pesquisador
Carta aberta dos checadores de fatos do mundo a Mark Zuckerberg, nove anos depois
Documento revela falta de confiança na mídia tradicional
O relatório ressalta que é cada vez mais desafiador identificar e combater fluxos de desinformação. Isso se deve a uma paisagem midiática cada vez mais fragmentada, que torna difícil saber onde buscar informações verdadeiras. Conforme o levantamento, ao distorcer narrativas e fatos, a polarização política e social contribui para a baixa e decrescente confiança na mídia tradicional.
Em uma amostra de 47 países colhida pelos pesquisadores, apenas 40% dos entrevistados disseram que confiavam na maioria das notícias. A falta de confiança nas fontes de informação, junto da circulação de conteúdo de baixa qualidade, é considerada uma ameaça às sociedades.
Para os especialistas consultados pelo Verifica, esse cenário tem múltiplos fatores. Entre eles, a polarização amplificada pelas plataformas, o crescimento de mídias sociais desreguladas como principal meio de acesso à informação e a precariedade da indústria da comunicação.
Para Taís, a educação midiática é uma ferramenta importante para promover mudança na forma como os veículos de imprensa são vistos pela sociedade. Segundo ela, é preciso que a população compreenda como funcionam a mídia, o jornalismo e as plataformas. É necessário desmistificar a ideia de que há um sistema neutro de informações.
"Há controle da informação nesses espaços [digitais], há muito dinheiro envolvido nisso, e a moeda de troca somos nós, nossas preferências", apontou.
Outras propostas para diminuir danos
O relatório defende a urgência de campanhas abrangentes de conscientização pública para educar sobre os riscos associados aos espaços digitais e sobre as ferramentas que as pessoas podem usar para se protegerem. Como exemplo, o documento sugere a educação sobre configurações de privacidade e segurança, reconhecimento de tentativas de phishing (ataque cibernético de roubo de dados), proteção de dados pessoais e navegação segura em mídias sociais.
Aprenda como identificar e rebater uma teoria da conspiração
Iniciativas de educação digital devem ajudar indivíduos a entender o papel de algoritmos e dados na modelagem das experiências online, além de fomentar o pensamento crítico para identificar conteúdo tendencioso ou prejudicial. O papel de governos, sociedade civil e organizações do setor privado é tornar essas iniciativas acessíveis a populações diversas.
Para os especialistas consultados pelo Verifica, além da educação midiática, é preciso defender a transparência de algoritmos e a responsabilização das big techs. Para Lüdtke, do Projeto Comprova, a transparência é importante para garantir que usuários tenham maior controle sobre o que vão acessar e consumir - o que consequentemente pode reduzir a propagação de conteúdos falsos ou enganosos.
Schneider, da Rede Nacional de Combate à Desinformação, apoia uma moderação democrática dos conteúdos compartilhados nas redes sociais, efetuada de modo transparente e com bases legais. Para ele, o processo deveria ser conduzido por órgãos reguladores independentes de governo e do mercado, como especialistas em informação, comunicação e cultura. Ele destaca, ainda, o investimento em checagem de fatos para reduzir a circulação de desinformação nas plataformas.
![Estadão](https://p2.trrsf.com/image/fget/sc/80/30/images.terra.com/2018/06/04/estadao-conteudo.jpg)