Inteligência artificial coloca em xeque a confiabilidade da ciência, diz especialista da USP
Imagens e termos incorretos impactam a credibilidade de pesquisas, opina Glauco Arbix, professor da USP
Artigo científico revisado por pares publicou imagens manipuladas por IA, levantando preocupações sobre a confiabilidade dos estudos e a utilização de dados gerados por IA na literatura científica.
Imagens manipuladas e incorretas geradas por inteligência artificial (IA) foram publicadas, no início deste ano, em um artigo científico revisado por pares na revista Frontiers in Cell Development and Biology.
O caso, que envolve pesquisadores do Hospital Hong Hui e da Universidade Jiaotong na China, levanta preocupações sobre a confiabilidade dos estudos e a utilização de dados gerados por IA na literatura científica sem a devida verificação.
Elisabeth Bik, consultora de integridade científica, disse à publicação VICE que o caso é um "exemplo triste de como revistas científicas, editores e revisores podem ser ingênuos em relação à aceitação e publicação de dados gerados por IA".
Segundo ela, "números mais realistas gerados por IA provavelmente já se infiltraram na literatura científica" e que a IA generativa "causará sérios danos à qualidade, confiabilidade e valor dos artigos científicos".
No Brasil, o assunto foi abordado pelo professor titular da Universidade de São Paulo (USP) Glauco Arbix, coordenador do Observatório da Inovação do Instituto de Estudos Avançados (IEA), que destaca um problema que considera grave: vícios e práticas mal-intencionadas viabilizados por recursos da própria inteligência artificial.
Na coluna Observatório da Inovação, do Jornal da USP, Arbix chama a atenção para erros flagrantes em artigos científicos, os quais estão chamando cada vez mais atenção de editoras e de pesquisadores.
“Pois bem, recentemente, uma grande editora flagrou um artigo que começava com a seguinte frase: ‘Certamente aqui está uma possível introdução ao seu tópico”, um estilo típico do ChatGPT […] poucos poderiam imaginar que esse tipo de prática estava penetrando silenciosamente no mundo da pesquisa científica", disse Arbix.
Segundo o especialista, entidades especializadas em rastrear erros e problemas em estudos científicos estão começando a identificar uma onda de equívocos e fraudes, que pode dificultar a confiabilidade da própria ciência.
“Veja, a preocupação não é com os fatos isolados, mas é com a possibilidade de que os pesquisadores estejam cada vez mais incorporando esses modelos e práticas ruins em suas pesquisas e artigos. A University College London rastreou milhões de artigos científicos e identificou que pelo menos 60 mil artigos, só em 2023, foram publicados com base em algum tipo de recurso em IA", afirmou.
A preocupação, segundo Arbix, é que os recursos de IA possam patrocinar uma indústria de artigos de baixa qualidade, plagiados ou falsos, sem comprovação alguma.
Para o especialista, professores, alunos e funcionários precisam saber que esse tipo de atitude é inaceitável. E as universidades, as agências de fomento e as revistas precisam ‘se armar’ com recursos para coibir essas práticas.