Inteligência artificial traz novo desafio ao público sobre o que é real
IA avança de uma forma sem precedentes e debates sobre regulamentação e capacidade de identificação ganham força
O uso e desdobramentos da inteligência artificial (IA) têm feito cada dia mais parte da nossa realidade. Exemplos disso são as imagens recentes do Papa Francisco usando um casaco branco ou o ex-presidente do EUA Donald Trump cercado de agentes da polícia, sendo preso — todas não aconteceram de fato e foram criadas por software.
No entanto, elas pareceram tão realistas que muitas pessoas acreditaram que, de fato, aquelas imagens foram autênticas. Seja com a plataforma Midjourney ou com o ChatGPT, o avanço da inteligência artificial pode levar a humanidade a não conseguir identificar mais o que é real.
Segundo especialistas, as melhorias em IA levarão a criar conteúdos em massa com cada vez mais qualidade técnica, algo fundamental para espalhar ainda mais fake news e desinformação. Assim, esse uso nocivo ameaçará democracias, estados e colocará em risco a veracidade de informações.
Identificando imagens geradas por IA
Para se ter ideia, uma pesquisa da Royal Holloway University of London mostrou que, apesar da percepção e técnicas dos humanos para identificar fotos, muitas pessoas não conseguem distinguir com segurança entre imagens de rostos reais e conteúdos gerados por computador.
O estudo recente foi publicado na revista científica iScience. Segundo os pesquisadores, a falha em distinguir esses rostos artificiais dos reais tem implicações em nosso comportamento online.
- Essa situação era bem diferente há alguns anos. Em 2018, um estudo da Universidade do Colorado, em Boulder (EUA) investigou se os humanos eram capazes de identificar imagens geradas por IA de das criadas por pessoas.
- Os resultados mostraram que 90% dos participantes foram capazes de identificar corretamente as 30 imagens geradas por IA.
- Já em 2019, em um estudo empírico sobre a percepção de imagens da Associação de Maquinário da Computação dos EUA, as geradas por IA foram percebidas como menos autênticas do que as reais, mas ainda foram avaliadas como de alta qualidade.
A perceção da realidade
O cientista cognitivo e professor da Pontifícia Universidade Católica de São Paulo (PUC-SP) Diogo Cortiz, diz é possível que percamos a percamos a percepção da realidade se pensarmos em imagens artificiais no futuro.
“Eu brinco que essas essas plataformas como ChatGPT ou Midjourney são fábricas de multiversos, porque elas criam realidades de uma maneira muito rápida e em uma escala muito grande. A gente tem que tomar cuidado para não criar uma realidade para cada pessoa”, disse.
Giselle Beiguelman, professora da Faculdade de Arquitetura e Urbanismo (FAU) da USP e autora do livro "Políticas da Imagem", sobre cultura digital, vê como tendência que imagens computacionais passem a ser o filtro da nossa operação cotidiana e modelem a nossa maneira de ver o mundo.
"E com isso, o problema não é mais se a gente vai perder a percepção do que é real ou o que não é, mas se a gente passar a ver o mundo pelo cânone da inteligência artificial", disse. "Que tipo de coisas que nós não conseguiríamos ver que não estão nesse padrão? Será que a gente conseguirá enxergar?", questiona.
Velocidade e deepfakes
Thoran Rodrigues, CEO e fundador da datatech BigDataCorp, lembra que a questão não é nova. As fotos de modelos para anúncios de maquiagem ou de produtos de beleza são manipuladas digitalmente para esconder manchas na pele ou mudar o formato do corpo das pessoas. Nesse caso, a maioria das pessoas não sabe disso.
A professora Beiguelman explicou ainda que é preciso diferenciar a visão do olhar. "A gente tende a entender a visão e olhar como sinônimos. A visão é atributo biológico, mas o olhar é cultural", disse. Segundo ela, a inteligência artificial pode "moldar" nosso olhar e fazer com que percamos detalhes do dia a dia.
Com o uso das redes sociais, isso se expande em um raio que antigamente não era possível. Elas permitem que qualquer tipo de texto, vídeo ou imagem se espalhe de uma forma muito mais rápida do que em qualquer outro momento da história.
Segundo Rodrigues, a capacidade de impacto da inteligência artificial não vem da capacidade de produzir conteúdo falso, mas do poder que ela tem para acelerar a produção de qualquer tipo de conteúdo, seja verdadeiro ou não.
"E com isso, produzir um volume gigantesco de conteúdo falso e enganador ficou muito mais fácil e mais barato do que era antes", diz.
A preocupação é que essas imagens sejam descontextualizadas para que sirvam de "fake news". Algumas deepfakes (imagens ou vídeos criados com a IA) por exemplo, imitam vozes, simulam expressões faciais e são usadas para enganar pessoas.
A aplicação de IA em golpes também será uma preocupação cada vez maior. No início de março, uma canadense de 73 anos foi vítima de um golpe, no qual o criminoso usou uma voz gerada por inteligência artificial para se passar por seu neto, que afirmou estar na cadeia e pediu um "resgate" em dinheiro para pagar a fiança.
Seremos capazes de identificar imagens?
Para Rodrigues, a nossa capacidade de identificar conteúdo falso ou verdadeiro é zero. Segundo ele, a discussão não é sobre o que é "real" e "artificial", mas sim entre "verdadeiro" e "falso".
"O problema antecede em muito a inteligência artificial. Imagens falsas, ou mais genericamente, conteúdo falso (as famosas "fake news") são um problema que a humanidade enfrenta há séculos. E, no geral, as pessoas não sabem diferenciar uma coisa da outra se não tiverem alguma ajuda externa", disse.
Cortiz avalia que a tendência é haver melhorias nos modelos e as imagens geradas ficarem mais próximas do real. “No caso do Papa ou do Trump, em um primeiro olhar, é muito difícil identificar que é uma imagem gerada por IA. Isso só acontece quando a gente olha para detalhes como as mãos ou sombra”, disse.
Apesar disso, o professor afirma que o aprimoramento das plataformas difícultará identificar o que é real ou não. "A gente vai precisar de auxílio tecnológico para ajudar a identificar. Uma imagem gerada por IA ganha o mundo de uma maneira muito veloz", disse.
Deve haver regulamentação?
Na última semana, a Itália proibiu o uso do ChatGPT no país e iniciou uma investigação sobre questões de privacidade. Para Beiguelman, proibir o uso de inteligência artificial em um país é um "absurdo". "É muito mais fácil atribuir e trasformar a consequência em um problema do que investigar as causas", disse.
"Eu acho que deve criar um letramento digital. A educação é fundamental nesse momento, porque a gente não tem repertório para lidar e operar essas coisas [avanço da IA]. Vai proibir e vai aparecer outras coisas semelhantes", continuou.
Para Rodrigues, regras e normas nesses casos são inúteis. "Os algoritmos são abertos, as empresas que oferecem esses serviços estão nas mais diferentes jurisdições, e qualquer controle que possa ser pensado pode ser facilmente burlado", afirmou.
O CEO da BigDataCorp sugere desenvolvermos mais ferramentas — tecnológicas, processuais e sociais — para combater o uso indevido das mesmas.
"As empresas que oferecem serviços de geração de conteúdo por meio de IA, por exemplo, devem incluir nos resultados emitidos pelos modelos "marcas d'água" digitais para facilitar a identificação de conteúdo dessa natureza", disse Rodrigues.
"Precisamos nos concentrar nessas tecnologias, porque qualquer processo normativo e regulatório, além de ser falho, vai demorar muito tempo para gerar resultados concretos", avaliou o especialista.
O professor da PUC afirma que as empresas checadoras da fatos, por exemplo, não é suficiente para identificar essas fotos. "A própria tecnologia tem que nos auxiliar nesse processo: tanto na criação quanto em identificar", aponta Cortiz.