Golpistas usam inteligência artificial em falso sequestro
Mãe conta que recebeu um telefonema de uma voz que era igual a de sua filha; mas tudo não passava de um crime
Em um cenário alarmante de evolução criminosa impulsionada pela tecnologia, golpistas estão explorando as profundezas da inteligência artificial (IA) para praticar crimes virtuais cada vez mais sofisticados.
Um novo modus operandi emergiu e agora criminosos utilizam a técnica conhecida como deepfake para enganar vítimas, fingindo sequestros e exigindo resgates substanciais em troca da liberdade das supostas vítimas.
O caso mais recente foi o relato de uma mãe ao The Guardian. Jennifer DeStefano, dos EUA, narrou a terrível experiência própria em que ela e sua filha foram alvo.
Contatada por golpistas exigindo um milhão de dólares em troca da suposta libertação de sua filha, cuja voz foi simulada de maneira impressionante, a mãe conta que não pensou que estava sendo vítima de um crime.
“Era a voz da minha filha [...] eu não tinha tanto dinheiro, então concordei em dar a ele $ 50 mil dólares (mais que R$ 243 mil). Ele me disse que viria me buscar em uma van branca e colocaria um saco na minha cabeça para que eu não pudesse ver para onde estávamos indo”, narra.
Descobrindo golpe
Uma amiga que estava acompanhando Jennifer ligou para a polícia e narrou o ocorrido. De longe, a mãe aflita ouviu: “É IA, é um golpe de IA. A polícia tem visto um aumento de casos recentemente com descrições semelhantes".
Outra amiga disse que conseguiu falar com seu marido, que estava acompanhado da filha Briana. Ambos estavam seguros e nao faziam ideia do que as pessoas estavam falando.
Enquanto isso, ela ainda ouvia os criminosos na linha ameaçando e exigindo resgate. Jennifer conta que ficou frustrada porque a polícia considerou apenas um trote e não quis investigar porque ninguém havia se ferido e nenhum dinheiro havia sido levado.
Deepfake
Por meio da tecnologia de deepfake, os golpistas podem criar áudios extremamente convincentes ao simular a voz de uma pessoa-alvo.
Utilizando algoritmos avançados de aprendizado de máquina, esses criminosos conseguem analisar e imitar padrões de fala, entonações e nuances vocais específicas, resultando em uma reprodução quase perfeita da voz da vítima.
Dessa forma, podem manipular conversas telefônicas e, como no caso mencionado, enganar familiares e amigos ao fazer parecer que estão falando com a pessoa supostamente sequestrada, criando um ambiente de urgência e emoção que facilita a extorsão.