"ChatGPTs do mal": inteligência artificial aprimora golpes na internet
Com a tecnologia, golpistas se aprimoram em truques para enganar cada vez mais e de forma mais precisa as vítimas na internet
A inteligência artificial generativa — capaz de criar conteúdo — possibilita novas modalidades de cibercrimes. Com a tecnologia, golpistas se aprimoram em truques para enganar cada vez mais e de forma mais precisa as vítimas na internet. Assim, criam verdadeiras "ChatGPTs do mal".
A partir de conversas trocadas entre cibercriminosos na dark web, Eric Clay, especialista em segurança da consultoria canadense Flare, mapeou como os bandidos usam os avanços da IA generativa em novos golpes.
"O cibercrime costumava exigir experiência substancial em hacking, programação e engenharia social. De um modo geral, a cada ano fica mais fácil se tornar um cibercriminoso. Tanto que já vimos mais ataques de ransomware em 2023 do que em todo o ano de 2022. A expectativa é que essa tendência continue, principalmente habilitada por modelos de IA de código aberto", disse Clay em entrevista ao UOL.
Com certa facilidade pode-se adquirir na dark web aplicativos maliciosos para invadir empresas. Essa é a parte da internet invisível para buscadores e outros serviços de indexação, apenas acessada por browsers e aplicativos que garantem o anonimato.
Na prática, é toda outra internet invisível aos usuários comuns, ressalta a reportagem.
"ChatGPTs do mal"
Vendidos na dark web, eles possuem vários nomes, como WormGPT ou FraudGPT. Um deles, o PentestGPT, é baseado em ferramentas legítimas usadas por profissionais de segurança para averiguar se os sistemas de suas organizações são resistentes, no chamado teste de penetração.
Esse chatbot ajuda a localizar vulnerabilidades de segurança desconhecidas para os criadores.
Mas a maioria dos "GPTs do mal" são usados para um golpe comum, o phishing, ao criar textos para enganar as pessoas de forma mais convincente, com "iscas" que tenham a ver com seu cotidiano.
Ferramentas de IA generativa permitem estudar dados abertos para atacar pessoas comuns —por exemplo, usar assunto que tenha sido postado nas suas redes sociais para a IA para criar um e-mail sobre este tema, muitas vezes, se passando por um familiar da vítima.