Primeiro leia esta notícia e depois compartilhe!
Segundo estudo, maioria dos usuários de redes sociais compartilha conteúdo sem ler
Parabéns! Abrir o link e ler este texto até aqui é algo que a minoria dos leitores faz hoje em dia, principalmente se o conteúdo em questão tiver sido compartilhado pelo Facebook, segundo uma pesquisa feita nos EUA.
Após analisar mais de 35 milhões de postagens públicas com links amplamente compartilhados na plataforma de mídia social entre 2017 e 2020, os pesquisadores descobriram que cerca de 75% dos compartilhamentos foram feitos sem que os usuários clicassem no link primeiro.
Conteúdo político é o mais compartilhado
Do total analisado, conteúdos políticos de ambos os extremos do espectro (direita e esquerda) foram compartilhados sem cliques com maior frequência do que conteúdos politicamente neutros.
As descobertas sugerem que os usuários de mídias sociais tendem a apenas ler manchetes e resumos das notícias, em vez de se envolverem plenamente com o conteúdo principal.
Os resultados, publicados no periódico Nature Human Behavior, indicam que o fenômeno semelhante pode ocorrer em outras plataformas de mídia social, além de explicar por que as "fake news" têm se espalhado com tanta facilidade.
Descoberta "assustadora"
"Foi uma grande surpresa descobrir que, em mais de 75% das vezes, os links compartilhados no Facebook foram compartilhados sem que o usuário clicasse antes," disse o autor correspondente S. Shyam Sundar, professor da Universidade Penn State, nos EUA.
"Eu supunha que, se alguém compartilhasse algo, teria lido e pensado sobre isso, que estaria apoiando ou até mesmo defendendo o conteúdo. Você poderia esperar que talvez algumas pessoas ocasionalmente compartilhassem conteúdo sem pensar, mas a maioria dos compartilhamentos ser assim? Isso foi uma descoberta surpreendente e muito assustadora."
Como os dados foram obtidos
O acesso aos dados do Facebook foi concedido por meio do Social Science One, um consórcio de pesquisa hospedado pelo Instituto de Ciências Sociais Quantitativas de Harvard, focado em obter e compartilhar dados sociais e comportamentais de forma responsável e ética.
Os dados foram fornecidos em colaboração com a Meta, empresa controladora do Facebook, e incluíram informações demográficas e comportamentais dos usuários, como uma "pontuação de afinidade política", determinada por pesquisadores externos. Eles identificaram as páginas seguidas pelos usuários — como as contas de veículos de mídia e figuras políticas.
Afinidade política determinada
Os pesquisadores usaram a pontuação de afinidade política para classificar os usuários em um dos cinco grupos: muito liberal, liberal, neutro, conservador e muito conservador.
Para determinar o conteúdo político dos links compartilhados, os pesquisadores neste estudo usaram aprendizado de máquina, uma forma de inteligência artificial, para identificar e classificar termos políticos no conteúdo dos links. Eles pontuaram o conteúdo em uma escala de afinidade política semelhante, de muito liberal a muito conservador, com base em quantas vezes cada grupo de afinidade compartilhava o link.
Essa nova variável de afinidade política do conteúdo foi criada com base em 35 milhões de publicações no Facebook durante a temporada eleitoral, nos EUA, ao longo de quatro anos. Este é um período considerado suficiente para entender padrões sobre o compartilhamento de notícias nas mídias sociais, segundo o coautor do estudo Eugene Cho Snyder, professor assistente do Instituto de Tecnologia de Nova Jersey.
Viés político na imprensa
A equipe validou a afinidade política de domínios de notícias, como CNN ou Fox, com base no gráfico de viés da mídia produzido pela AllSides, uma empresa independente focada em ajudar as pessoas a entender os vieses do conteúdo jornalístico, e em um sistema de classificação desenvolvido por pesquisadores da Universidade de Northeastern.
Com esses sistemas de classificação, a equipe classificou manualmente 8.000 links, primeiro identificando-os como conteúdo político ou não político. Em seguida, os pesquisadores usaram esse conjunto de dados para treinar um algoritmo que avaliou 35 milhões de links compartilhados mais de 100 vezes no Facebook por usuários nos Estados Unidos.
Conteúdo alinhado ao perfil político
Um padrão identificado e confirmado é que, quanto mais próximo era o conteúdo do alinhamento político do usuário, mais ele era compartilhado sem cliques. "Eles estão simplesmente encaminhando coisas que parecem, à primeira vista, concordar com sua ideologia política, sem perceber que, às vezes, podem estar compartilhando informações falsas", observou Snyder.
As descobertas apoiam a teoria de que muitos usuários leem superficialmente as notícias apenas com base em manchetes e resumos, disse Sundar, explicando que a Meta também forneceu dados de seu serviço de verificação de fatos de terceiros — que identificou que 2.969 dos URLs compartilhados estavam ligados a conteúdo falso.
Mais de 41 milhões de compartilhamentos!
Os pesquisadores descobriram que esses links foram compartilhados mais de 41 milhões de vezes, sem serem clicados! Destes, 76,94% vieram de usuários conservadores e 14,25% de usuários liberais. Os pesquisadores explicaram que a grande maioria — até 82% — dos links para informações falsas no conjunto de dados originaram-se de domínios de notícias conservadores.
Como coibir esse comportamento?
Para reduzir o compartilhamento sem cliques, Sundar disse que as plataformas de mídia social poderiam introduzir "fricções" para desacelerar o compartilhamento, como exigir que as pessoas reconheçam que leram o conteúdo completo antes de compartilhar.
"O processamento superficial de manchetes e resumos pode ser perigoso se dados falsos estiverem sendo compartilhados e não investigados," disse Sundar, explicando que os usuários de mídias sociais podem sentir que o conteúdo já foi verificado por aqueles em sua rede que o compartilham, mas este trabalho mostra que isso é improvável.
"Se as plataformas implementarem um aviso de que o conteúdo pode ser falso e fizerem os usuários reconhecerem o perigo ao compartilhá-lo, isso pode ajudar as pessoas a pensarem antes de compartilhar."
Campanhas de desinformação
Isso não impediria campanhas de desinformação intencionais, disse Sundar, e os indivíduos ainda têm a responsabilidade de verificar o conteúdo que compartilham.
"As campanhas de desinformação ou informação falsa têm como objetivo semear dúvidas ou dissensão em uma democracia — o alcance desses esforços veio à tona nas eleições de 2016 e 2020," disse Sundar.
"Se as pessoas estão compartilhando sem clicar, elas estão potencialmente contribuindo para essas campanhas sem querer, alimentando esforços organizados por adversários hostis para semear divisão e desconfiança."
Por que compartilhar sem clicar?
"A razão pela qual isso acontece pode ser porque as pessoas estão simplesmente bombardeadas com informações e não estão parando para pensar sobre elas," disse Sundar.
"Em um ambiente assim, a desinformação tem mais chances de se tornar viral. Esperamos que as pessoas aprendam com nosso estudo e se tornem mais alfabetizadas em mídia, digitalmente mais experientes e, finalmente, mais conscientes do que estão compartilhando."