Script = https://s1.trrsf.com/update-1731943257/fe/zaz-ui-t360/_js/transition.min.js
PUBLICIDADE

Clonagem de voz é só o início do que inteligência artificial fará nos golpes

Mais de 65% dos brasileiros não sabem o que é deepfake; 71% não reconhecem quando um vídeo foi editado digitalmente usando IA

20 jun 2023 - 05h00
Compartilhar
Exibir comentários
Inteligência artificial aprimora golpes financeiros online, alertam especialistas
Inteligência artificial aprimora golpes financeiros online, alertam especialistas
Foto: Standret via Freepik

"Eu recebi uma ligação com a sua voz, pedindo que eu te emprestasse R$ 600. Não foi você, estou vendo". Após o influenciador digital Dario Centurione receber esta mensagem de seu pai no WhatsApp, ele resolveu alertar seu público para o problema. Era o início de uma modalidade de golpe online que ainda pode causar muita dor de cabeça para incautos: a clonagem de voz por inteligência artificial.

Como qualquer nova tecnologia, a IA não é usada apenas para o bem da humanidade. Criminosos a tem usado para aprimorar suas estratégias de phishing — isto é, de criar "iscas" para convencer pessoas a repassar dinheiro ou acesso a seus aparelhos — ou mesmo para criar novos malwares. E muito mais pode vir por aí.

Nesse cenário, uma das tendências mais preocupantes é a ascensão dos deepfakes. São imagens forjadas, áudios ou vídeos criados com o auxílio de IA para simular digitalmente pessoas reais, com mensagens enganosas ou persuasivas.

No caso de Centurione, ele contou em suas redes sociais que sua voz foi clonada por golpistas. Estes entraram em contato com o pai dele por telefone para pedir um pix no valor de R$ 600. A simulação foi tão real que o pai do influenciador acreditou que estava realmente conversando com o filho.

Os criminosos podem ter usado os vídeos publicados pelo influenciador na internet para criar uma espécie de banco de dados da sua voz, permitindo a eles criar frases novas "ditas" pelo clone digital.

Além disso, pesquisadores da empresa de cibersegurança Check Point divulgaram que o ChatGPT, tecnologia desenvolvida pela OpenAI, é usado por hackers para ajudar a produzir novos vírus. Agora, após notificações, o chatbot exibe uma mensagem informando que não pode desenvolver "códigos para o mal".

Além disso, criminosos já usam a IA para invadir a privacidade das pessoas, violar a segurança e roubar dados. 

O chamado catfish, golpe que cria personas online falsas para atrair vítimas para relacionamentos, já usa o ChatGPT. A ferramenta é capaz de criar declarações de amor e alterar o tom das mensagens de forma tão convincente que convence a vítima a passar informações confidenciais. 

Clonagem de voz e imagens estão entre os golpes mais usados com o uso de IA
Clonagem de voz e imagens estão entre os golpes mais usados com o uso de IA
Foto: Freepik

IA: muito usada, pouco compreendida

O perigoso cenário deve crescer porque ferramentas para geração de IA se tornam cada vez mais difundidas e acessíveis ao público em geral. Segundo uma pesquisa de setembro do ano passado encomendada pela IBM, 41% das empresas no Brasil adotaram ativamente a tecnologia.

“As tecnologias de IA estão sempre crescendo em sofisticação em aspectos impressionantes a cada nova versão e agora permitem a criação de imagens de aparência incrivelmente realista e áudios extremamente convincentes”, comenta Fabio Assolini, diretor de pesquisa para a América Latina da empresa de cibersegurança Kaspersky.

O especialista destaca que essas simulações são usados para vários fins, como vingança, fraude financeira, manipulação política e assédio. Além disso, os programas já criados estão em constante "aprendizado", relata Assolini.

“A prática pode sim ser aperfeiçoada e chegar a outras utilizações no cibercrime. Como golpistas menores que usam IA na manipulação de imagens para burlar as autenticações biométricas usadas por alguns bancos e instituições financeiras, na hora de abrir conta ou confirmar operações”. 

Segundo pesquisa conduzida pela Kaspersky, mais de 65% dos brasileiros não sabem o que é deepfake. E essa falta de informação pode ser preocupante. Além disso, o estudo mostra que 71% dos brasileiros não reconhecem quando um vídeo foi editado digitalmente usando essa técnica.

A atuação do Brasil para coibir os crimes virtuais

Uma legislação antiquada sobre crimes financeiros e a inexistência de leis para crimes praticados por inteligência artificial são os maiores agravantes para enfrentar esse panorama no Brasil.

“Infelizmente a criminalização de delitos cometidos pela internet ainda é ruim no país. Para IA e coisas do tipo, não há nada em nossa legislação para criminalizar delitos abusando dessa tecnologia”, diz Assolini.

Juliano Maranhão, professor da USP (Universidade de São Paulo) e diretor do Instituto Lawgorithm, associação que estuda IA aliada ao direito, diz que grandes varejistas e bancos costumam seguir melhores práticas internacionais de segurança do que pessoas físicas e pequenas empresas.

O professor afirma que a grande dificuldade está nos golpes de phishing, em que o cliente é induzido a realizar transações. “Há meios técnicos para combater fraudes digitais como falsos logins, mas as estratégias para enganar os titulares se resolvem principalmente com campanhas de conscientização”, disse Maranhão.

O grau de instrução dos usuários ou a idade das vítimas e familiaridade com a tecnologia podem ser agravantes. “O que exige o desenvolvimento de campanhas para informar adequadamente os consumidores sobre os riscos e sobre quais providências tomar em casos de golpes”, complementa o professor.

Empresas contra-atacam

Ao Byte, a Febraban (Federação Brasileira dos Bancos) relatou que os bancos associados contam com recursos modernos em segurança cibernética e prevenção a fraudes, como mensagens criptografadas, autenticação biométrica e tokenização (criação de senhas extras temporárias). Ainda usam ferramentas como big data, análise de dados e a própria IA na prevenção de riscos. 

Uma pesquisa da federação, divulgada em maio deste ano, concluiu que o orçamento total dos bancos brasileiros destinados à tecnologia deverá atingir neste ano R$ 45,1 bilhões — um avanço de 29% em relação ao do ano passado. Deste total, 10% são voltados à cibersegurança.

“A Febraban acompanha permanentemente todos os temas relacionados à segurança cibernética, ainda que eles não tenham origem no sistema financeiro. Os bancos estão comprometidos com o aprimoramento constante dos sistemas de segurança das instituições, para garantir a eficiência das operações financeiras cotidianas de milhões de brasileiros”, disse a entidade. 

Outra possibilidade de resposta a golpes turbinados por IA está nos algoritmos baseados em grafos, área da matemática que estuda a relação entre os objetos de um conjunto. A tecnologia, que já é usada nos 20 maiores bancos norte-americanos, pode ajudar bancos e lojas a identificarem possíveis golpes em tempo real.

A Neo4j, multinacional com soluções de segurança baseadas em grafos, diz que elas podem avaliar se uma compra ou pedido de empréstimo está dentro ou fora do comportamento esperado do consumidor. “É possível buscar esses cruzamentos em grande volume de dados e encontrar padrões que antes eram impossíveis de descobrir”, diz Paulo Farias, diretor de vendas da empresa.  

“Trabalhamos com uma instituição financeira que registra a informação de transação para seguro de carro, compra de imóveis, etc. Pessoas que fazem lavagem de dinheiro com compra e venda de imóveis são alguns dos exemplos que a gente consegue agregar nessas informações”, exemplifica Farias.

Como se precaver dos golpes financeiros online

Desconfiança é a palavra de ouro. Ou seja, se algo é bom demais para ser verdade, verifique se é uma mentira, como promoções mirabolantes, oferta de presentes ou até bancos entrando em contato para oferecer algum dinheiro. 

Quando o assunto é deepfake em vídeo, repare se algo parece estranho ou se a pessoa exibida nele apresenta movimentos irregulares ou pouco naturais. "Alterações bruscas na iluminação, ausência de piscadas ou lábios não sincronizados com a fala também são elementos que ajudam a flagrar um deepfake”, explica Fabio Assolini, da Kaspersky.

Criminoso clonou voz de influenciador digital para pedir dinheiro
Criminoso clonou voz de influenciador digital para pedir dinheiro
Foto: Freepik

Uma dica dele sobre tais vídeos é que os arquivos normalmente são renderizados em baixa qualidade intencionalmente para esconder os detalhes citados acima. 

Maranhão, da USP, sugere fazer chamadas de vídeo para confirmar pedidos que sejam “fora do padrão”; verificar o número de telefone; ligar novamente para o contato, conferir a autoria do pedido e fazer perguntas que apenas a pessoa de verdade saberia responder. 

“Alguns aplicativos de bancos também permitem acionar mecanismos de proteção como reconhecimento facial, restrição de transações na rua, limites diferenciados para contatos de confiança e demais transferências. Todas essas medidas podem minimizar eventuais danos causados por golpes”, explica. 

Sofri um golpe online, como agir?

Primeiro, é importante abrir um boletim de ocorrência e descrever todas as informações sobre o golpe: que dia e hora aconteceu, quem os golpistas fingiram ser, qual o número de telefone utilizado, dados de boleto, dados de Pix e valores pagos.

A depender do que tiver sido compartilhado com os golpistas, pode ser necessário ainda entrar em contato com bancos, operadoras de cartão de crédito, atualizar senhas de e-mail ou de redes sociais e falar com a operadora telefônica, dentre outras medidas. 

“Dependendo do caso, pode ser necessário buscar a orientação de um advogado especializado para avaliar a melhor estratégia e se cabe buscar um processo judicial para reaver os valores perdidos em relação a contas bancárias, compras não autorizadas ou endividamento”, afirma Maranhão. 

Fonte: Redação Byte
Compartilhar
TAGS
Publicidade
Seu Terra












Publicidade