A inteligência artificial está se tornando uma forma de automatizar o plágio?
A OpenAI, que criou o ChatGPT, já vem reconhecendo a tendência e está correndo para evitar uma onda de "plágio assistido por IA"
Um processo da Getty Images contra geradoras de inteligência artificial (IA) por uso indevido de imagem; artistas entrando na justiça por ilustrações utilizadas pelas mesmas empresas sem o devido crédito; alunos "colando" em avaliações com a ajuda do ChatGPT. Há alguns anos, problemas assim não faziam parte do nosso dia a dia. No entanto, cada vez que a tecnologia de aprendizado avança, esses dilemas vão se tornando mais comuns. Afinal, será que estamos vivendo em um momento de plágio auxiliado por ferramentas inteligentes?
A OpenAI, que criou o ChatGPT, já reconheceu que a tendência infestou a web e está correndo para evitar uma onda de "plágio assistido por IA", segundo o veículo The Guardian. Scott Aaronson, pesquisador convidado da OpenAI, chegou a comentar em uma palestra na Universidade do Texas: "Queremos que seja muito mais difícil pegar uma saída de GPT e passá-la como se viesse de um ser humano".
Mas a solução não é simples. Artistas argumentam que estão sendo plagiados por essas ferramentas e dizem que suas criações foram utilizadas como modelo de inspiração. Ou seja, as IAs podem estar copiando seus "estilos", mas não fazem uma cópia idêntica, o que torna a questão ainda mais complexa.
Atualmente, a autoria para processos criados via IA, em aplicações como ChatGPT e Dall-e é dada ou para quem fez a solicitação ou para a própria ferramenta. O primeiro é o caso do livro infantil "Alice and Sparkle", que foi criado no ChatGPT e teve o crédito dado ao designer Ammar Reshi. Ainda nesta semana, o The Guardian também publicou que revistas científicas proibiram a listagem do ChatGPT como coautor em artigos.
Humanos criam, IAs copiam?
Para a doutoranda em astrofísica do Black Hole Group, da Universidade de São Paulo (USP) que estuda buracos negros e inteligência artificial, Roberta Duarte, o problema do plágio com IA é que, de fato, um grande número de dados usados por ela é de autoria humana. Ela lembra que, na vida acadêmica, é comum que sejam solicitadas as referências utilizadas para um trabalho, e que isso deve ser cada vez mais comum daqui para frente nessas plataformas.
Duarte acredita, portanto, que produtos gerados por IA terão que, cada vez mais, "adicionar referências". "No caso das deepfakes, que também acenderam a discussão sobre inteligência artificial, algumas medidas foram tomadas, como algoritmos capazes de reconhecer um vídeo falso, e nas redes sociais, bots capazes de reconhecer fakes. Provavelmente algo semelhante vai acontecer com chatbots de IA, como uma espécie de copyright de imagens de artistas, por exemplo", explica a astrofísica.
Ferramentas como o ChatGPT não informam de onde tiraram suas referências para o texto gerado. Ele sai, basicamente, de um banco de dados de tudo que está "na web". Que pode ser falso, verdadeiro ou duvidoso.
Isso também dificulta, de acordo com o professor Fernando Osório, do Centro de IA "C4AI", da USP, para o usuário saber o quanto é possível confiar naquela informação — uma vez que o nosso julgamento sobre a veracidade de uma informação passa pelo reconhecimento da fonte que está transmitindo a mensagem.
"Eu acredito sim que a inteligência artificial pode automatizar o plágio porque os textos gerados por IA são textos que foram retirados de um aprendizado da internet. Basicamente você está buscando um conteúdo que humanos escreveram previamente. Nesse sentido, o problema é que ela vai além do 'copy and paste' (copiar e colar)", argumenta Osório.
O mesmo é defendido por Yuri Lima, CEO da LABORe e pesquisador do Laboratório do Futuro-COPPE/UFRJ. Ele lembra que as ferramentas de IA facilitam a criação de conteúdo por pessoas que não necessariamente são especialistas em determinadas áreas como design ou música.
"Com isso, a criação de conteúdo tende a aumentar e, se as ferramentas continuarem sem a transparência com relação às fontes, o plágio também pode crescer", destaca.
Nesse caso, pessoas estariam copiando da IA conteúdos já desenvolvidos primeiramente por outras. Ou seja, humanos copiando humanos.
Detectores de plágio: funcionam?
As acusações de plágio que as IAs têm sofrido estão vindo de forma pontual pelos próprios autores que se sentem plagiados pelas plataformas. No entanto, já existem detectores de plágio, como o GPT 0 e outros, alguns deles até pagos, segundo explica Osório.
"Isso é um problema porque gera exploração e não sabemos também a qualidade. E não sei até que nível eles [detectores] funcionam. Eles dão uma porcentagem do quanto humano é o texto, segundo alguns critérios, como forma de expressar emoções, por exemplo. Não sabemos o quão exato é isso", diz o professor.
O Detector GPT-2 da OpenAI também foi pensado para identificar textos feitos por IA. Ele basicamente compara o que foi escrito com um banco de dados de textos escritos tanto por humanos quanto por máquinas. Assim, se vende como um mecanismo altamente eficaz para a identificação de escrita gerada via computadores.
Do ponto de vista jurídico, os pesquisadores concordam que cada plataforma está lidando de uma forma com o problema, e em geral, ainda precisamos avançar para garantir uma boa resolução legal e ética em relação a essas tecnologias.
Quais são as limitações da IA?
Pode parecer que as IAs vão roubar nossos empregos e fazer tudo o que realizamos de uma forma melhor. Mas não é bem assim. Duarte explica que inteligência artificial ainda encontra barreiras no pensamento lógico.
Um exemplo é: se mostrarmos cenas de uma bola caindo no chão, a inteligência artificial é capaz de aprender padrões e entender que tudo que é solto no ar, cai. Porém, ela tem dificuldade em associar isso à lógica: a bola cai por causa da força gravitacional que a Terra exerce nela.
A pesquisadora também lembra que esses sistemas de aprendizado de máquina contam com dados humanos, ou seja, a criatividade ainda é humana.
O problema mais urgente, hoje, seria o de introduzir cada vez mais sistemas de inteligência artificial com que seria a "ética" humana. "É necessário que todos que modelam esses algoritmos tenha uma bagagem de ética em IA. Precisa ter mais foco para essa área e também deixar em evidência todos os problemas que podem ser associados ao modelo. Algumas empresas já liberam algoritmos de forma limitada para evitar esses problemas", diz Duarte.
E completa: "Um exemplo é a DALL-E que era um algoritmo limitado no passado, com poucos usuários, mas na versão DALL-E 2, os problemas foram resolvidos. Uma frase que gerava uma imagem problemática passou a gerar outras imagens".
O debate público sobre o tema deverá trazer cada vez mais questões como essas e pressões também deverão surgir para as ferramentas. Sem dúvidas, estamos entrando em uma nova realidade informacional, educacional e tecnológica, e serão necessários ajustes éticos, jurídicos e comportamentais diante dela.