Hackers exploram falha em assistentes de IA para roubar dados; entenda
A técnica consiste em utilizar caracteres invisíveis que os humanos não conseguem ver, mas que os modelos de IA podem interpretar
Uma nova ameaça cibernética está colocando em risco a segurança de usuários de assistentes de inteligência artificial como o ChatGPT. A tática, descrita em um artigo do Ars Technica, mostra que hackers estão explorando um tipo de falha nos sistemas para inserir comandos maliciosos e extrair informações confidenciais sem que o usuário perceba.
A técnica, chamada de "ASCII Smuggling", consiste em utilizar caracteres invisíveis — que humanos não podem ver — mas modelos de IA conseguem identificar. Esses caracteres são inseridos em links ou comandos (prompts), permitindo que os cibercriminosos roubem senhas, dados financeiros e outras informações sensíveis.
A principal vulnerabilidade está na capacidade dos modelos de IA de processar comandos ocultos dentro de textos aparentemente inofensivos. Essa técnica, conhecida como "prompt injection", permite que os hackers manipulem o comportamento do assistente de inteligência aartificial para realizar ações não autorizadas.
Ainda que algumas empresas tenham implementado medidas para mitigar esses ataques, o problema persiste, segundo a reportagem.
Especialistas apontam a falta de práticas de segurança robustas durante o desenvolvimento desses modelos e a complexidade da inteligência artificial como desafios paraproteger os usuários.
Segundo eles, existe a necessidade de uma maior conscientização sobre essa nova ameaça e defendem a implementação de medidas de segurança mais rigorosas.
Algumas medidas como empresas desenvolvedoras de IA invistam apostar em análises para aprimorar a segurança de seus sistemas e proteger os dados dos usuários podem ser a solução.