Em um cenário alarmante de evolução criminosa impulsionada pela tecnologia, golpistas estão explorando as profundezas da inteligência artificial (IA) para praticar crimes virtuais cada vez mais sofisticados.
Um novo modus operandi emergiu e agora criminosos utilizam a técnica conhecida como deepfake para enganar vítimas, fingindo sequestros e exigindo resgates substanciais em troca da liberdade das supostas vítimas.
O caso mais recente foi o relato de uma mãe ao The Guardian. Jennifer DeStefano, dos EUA, narrou a terrível experiência própria em que ela e sua filha foram alvo.
Contatada por golpistas exigindo um milhão de dólares em troca da suposta libertação de sua filha, cuja voz foi simulada de maneira impressionante, a mãe conta que não pensou que estava sendo vítima de um crime.
“Era a voz da minha filha [...] eu não tinha tanto dinheiro, então concordei em dar a ele $ 50 mil dólares (mais que R$ 243 mil). Ele me disse que viria me buscar em uma van branca e colocaria um saco na minha cabeça para que eu não pudesse ver para onde estávamos indo”, narra.
Descobrindo golpe
Uma amiga que estava acompanhando Jennifer ligou para a polícia e narrou o ocorrido. De longe, a mãe aflita ouviu: “É IA, é um golpe de IA. A polícia tem visto um aumento de casos recentemente com descrições semelhantes".
Outra amiga disse que conseguiu falar com seu marido, que estava acompanhado da filha Briana. Ambos estavam seguros e nao faziam ideia do que as pessoas estavam falando.
Enquanto isso, ela ainda ouvia os criminosos na linha ameaçando e exigindo resgate. Jennifer conta que ficou frustrada porque a polícia considerou apenas um trote e não quis investigar porque ninguém havia se ferido e nenhum dinheiro havia sido levado.
Deepfake
Por meio da tecnologia de deepfake, os golpistas podem criar áudios extremamente convincentes ao simular a voz de uma pessoa-alvo.
Utilizando algoritmos avançados de aprendizado de máquina, esses criminosos conseguem analisar e imitar padrões de fala, entonações e nuances vocais específicas, resultando em uma reprodução quase perfeita da voz da vítima.
Dessa forma, podem manipular conversas telefônicas e, como no caso mencionado, enganar familiares e amigos ao fazer parecer que estão falando com a pessoa supostamente sequestrada, criando um ambiente de urgência e emoção que facilita a extorsão.