Profissionais de TI admitem preparo insuficiente contra ataques de IA
Nova tecnologia deixa mais sofisticados textos, imagens e até vídeos utilizados em fraudes
Líderes de TI enfrentam dificuldades para lidar com ameaças cibernéticas, especialmente aquelas proporcionadas por IA, com 92% observando um aumento de tais ataques e 95% acreditando que eles estão se tornando mais sofisticados. Phishing e malware são os mais comuns, sendo difíceis de serem detectados pela tecnologia emergente.
Líderes de TI ao redor do mundo enfrentam dificuldades para acompanhar a evolução de ameaças cibernéticas potencializadas pela inteligência artificial (IA). É o que mostra o Relatório de Insights de Segurança de 2024, da Keeper Security, que entrevistou mais de 800 profissionais.
Segundo o documento, 92% dos consultados observaram um incremento nos ataques cibernéticos ano a ano. As investidas que utilizam inteligência artificial são agora o tipo de ameaça mais frequente enfrentado pelas organizações, afetando 51% delas.
O golpe de phishing, que envolve o envio de e-mails falsos para roubar informações pessoais, é o ataque mais relatado, afetando 61% dos entrevistados. 84% dos profissionais destacaram que identificar uma situação assim está cada vez mais difícil, uma vez que os criminosos estão utilizando ferramentas de inteligência artificial para tornar as mensagens mais convincentes.
A inteligência artificial é também uma das tendências para 2024 levantadas pela empresa de segurança Eset.
"As inteligências artificiais, principalmente as generativas, ampliarão cada vez mais seu impacto e significância nos crimes digitais. Para auxiliar a evitar estes tipos de golpes é interessante que cada pessoa conheça, mesmo que minimamente, as capacidades básicas do que cada IA pode oferecer e como ela poderia ser usada pelo cibercrime", diz Daniel Barbosa, porta-voz da Eset.
Veja exemplos, de acordo com a Eset
IAs generativas de Textos
Podem ser usadas para melhorar campanhas de phishing, eliminando eventuais erros de grafia e gramática, bem como melhorando os argumentos usados para convencer as vítimas.
As IAs também conseguem, com uma interação adequada, gerar códigos em diversos tipos de linguagem de programação que podem ser usados de forma maliciosa.
IAs generativas de Imagens
Permitem que o rosto de uma ou mais pessoas seja inserido em fotos comprometedoras, colocando as vítimas em situações em que não estariam realmente. Isso pode ser usado para difamação, extorsão, falsificação de provas e muitos outros pontos.
IAs generativas de Vídeos
O principal exemplo é o deepfake. Já é possível encontrar casos em que conferências foram feitas e um dos participantes era na verdade um criminoso usando IA para mudar seu rosto e sua voz, fazendo com que pessoas realizassem ações que o beneficiassem.
A abordgem, que já foi mais tecnicamente complexa, está cada vez mais acessível.