Como criminosos estão utilizando inteligência artificial para aplicar golpes sofisticados

Fraudes que já eram conhecidas ficam ainda mais difíceis de rastrear com aprimoramento de algoritmos de IA

22 jan 2024 - 16h36
Criminosos usam inteligência artificial para aprimorar golpes
Criminosos usam inteligência artificial para aprimorar golpes
Foto: Unsplash

A inteligência artificial (IA) tem sido utilizada por criminosos na formulação e sofisticação de uma variedade de golpes on-line. Temos até "versões malignas" do ChatGPT, bots que usam a tecnologia para escrever textos fraudulentos, exibir vulnerabilidades em sites e outros fins maliciosos.

Um exemplo é o FraudGPT, robô promovido na dark web que pode formular campanhas de phishing — técnica onde criminosos se passam por entidades confiáveis, como bancos, para enganar vítimas — e até criar diversos tipos de programas maliciosos.

Publicidade

Da mesma forma que ferramentas como o ChatGPT facilitam tarefas no trabalho, estudo e até vida pessoal, "paralelos" do bot criado pela OpenAI facilitam o cibercrime.

Uma reportagem publicada pelo Byte mostrou que, na América Latina, aplicar golpes está cada vez mai simples e requer menos instrução. O Brasil desponta no cenário como um "exportador de ameaças", com golpes nativos sendo replicados por criminosos de países vizinhos.

Outro "primo" do ChatGPT, o PentestGPT, é baseado em ferramentas legítimas usadas por profissionais de segurança para averiguar se os sistemas de suas organizações são resistentes, no chamado teste de penetração.

Dicas para não cair em golpes no Tinder Dicas para não cair em golpes no Tinder

Publicidade

Esse chatbot ajuda a localizar vulnerabilidades de segurança desconhecidas para os criadores.

Há ainda as inúmeras ferramentas de código aberto que conseguem produzir deepfakes, montagens hiper-realistas com o rosto e corpo de pessoas a partir de poucas amostras de imagem.

Em dezembro, o Fantástico divulgou que criminosos divulgaram vídeos falsos criados com a imagem e a voz de famosos para enganar internautas em golpes diversos.

Marcos Mion, por exemplo, foi vítima da "montagem" em um vídeo onde ele estaria falando sobre a cura para o autismo. Na projeção, o apresentador comenta que encontrou uma solução para a doença e estaria usando o método com seu filho. 

Já o médico Drauzio Varella foi vítima de deepfake em um vídeo em que ele explica como "gotinhas milagrosas de colágeno" são benéficas. Mas, tudo não passava de um golpe para enganar seguidores — se aproveitando da credibilidade do médico, — para vender um produto.

Publicidade

Uma outra reportagem do Byte mostrou que deepfakes pornográficos com a apresentadora Eliana, a atriz Marina Ruy Barbosa, a cantora Anitta e as influenciadoras Rafa Kalimann e Mariana Nolasco, circulavam na web livremente.

Quem não encontrasse o rosto desejado poderia até mesmo usar programas para produzir seu próprio material, com diversos aplicativos na web à disposição. Alguns deles anunciavam seus serviços em grandes plataformas, como o Facebook.

Especialistas ouvidos pelo Byte concordam que pausar o desenvolvimento em inteligência artificial, além de impossível, só iria atrasar a formulação das próprias soluções para os problemas que a nova tecnologia potencializa. 

"Sem governo, Estado e leis — até globais — fica cada vez mais difícil debater o assunto. Não sou a favor de leis mais rígidas, mas de uma discussão mais profunda entre governo, estado e sociedade sobre o assunto para que sejam criadas leis", disse Rafael Sbarai, professor de produtos digitais e dados na FAAP (Fundação Armando Alvares Penteado), à reportagem publicada em abril.

Publicidade

Um dos compromissos do Congresso Nacional para este ano é promover a regulamentação do uso de IA. O presidente do Senado, Rodrigo Pacheco (PSD-MG) , já sinalizou que a casa vai apreciar, até abril, uma proposta de autoria dele sobre o assunto.

Fonte: Redação Byte
TAGS
É fã de ciência e tecnologia? Acompanhe as notícias do Byte!
Ativar notificações