Ferramenta de IA possui vulnerabilidades que possibilitam roubo de dados, afirma estudo

Estudo revela falhas ocultas de IA que permitem a exfiltração de dados, a anulação da segurança e o comprometimento persistente dentro da ferramenta de IA

Compartilhar:

A Tenable descobriu sete vulnerabilidades e técnicas de ataque durante testes com o ChatGPT-4o da OpenAI. Segundo a empresa, essas falhas expõem os usuários a riscos de privacidade ao burlar os mecanismos de segurança integrados. Os pesquisadores mostram caso forem exploradas, elas podem permitir que atacantes roubem secretamente dados pessoais, incluindo chats e memórias armazenadas. Embora a OpenAI tenha corrigido alguns dos problemas identificados, outros não haviam sido abordados no momento da publicação, deixando abertas certas vias de exposição.

Uma pesquisa recente com consumidores digitais aponta que, na América Latina, as taxas de adoção de ferramentas de IA generativa como o ChatGPT superam a média global, o que reforça a relevância de analisar sua segurança na região. O estudo explica que as vulnerabilidades revelam uma nova classe de ataque de IA chamada injeção indireta de prompt, onde instruções ocultas em sites externos ou comentários podem enganar o modelo para realizar ações não autorizadas. Essas falhas afetam as funções de navegação web e memória do ChatGPT, que processam dados de internet em tempo real e armazenam informações do usuário, criando oportunidades para manipulação e exposição de dados.

Ataques silenciosos e duradouros

Os pesquisadores da Tenable demonstram que esses ataques podem ocorrer silenciosamente de duas maneiras: ataques de “0-clique” (0-click), onde simplesmente fazer uma pergunta ao ChatGPT desencadeia o comprometimento, e ataques de “1-clique” (1-click), onde clicar em um link malicioso ativa comandos ocultos. Ainda mais preocupante é uma técnica chamada Injeção de Memória Persistente (Persistent Memory Injection), onde as instruções maliciosas são salvas na memória de longo prazo do ChatGPT e permanecem ativas após o usuário fechar o aplicativo. Isso permite que os atacantes plantem ameaças duradouras que podem expor informações privadas em futuras sessões até que sejam removidas.

Em conjunto, essas falhas mostram como os atacantes poderiam burlar as medidas de segurança da OpenAI e acessar os históricos privados dos usuários. “As vulnerabilidades expõe uma fraqueza fundamental em como os grandes modelos de linguagem julgam em qual informação confiar”, disse Moshe Bernstein, engenheiro de Pesquisa Sênior da Tenable. “Individualmente, essas falhas parecem pequenas, mas juntas formam uma cadeia de ataque completa, da injeção e evasão ao roubo de dados e persistência. Isso demonstra que os sistemas de IA não são apenas alvos potenciais, eles podem se tornar ferramentas de ataque que coletam informações silenciosamente de chats ou navegações cotidianas.”

Destaques

Colunas & Blogs

Conteúdos Relacionados

Security Report | Overview

América do Sul registra maior aumento de ciberataques em 2025, alerta estudo

Conclusões são do relatório Compromise Report 2026, elaborado pela empresa de cibersegurança Lumu
Security Report | Overview

Impacto do grupo Lazarus: mais de US$ 1,7 bilhão roubados em apenas sete meses

O grupo de cibercriminosos patrocinado pelo Estado da Coreia do Norte drenou ativos de instituições que utilizavam carteiras de hardware...
Security Report | Overview

Onda de DDoS atinge Irã em meio à conflito com EUA e Israel, aponta relatório

Monitoramento da NSFOCUS revela que ofensivas cibernéticas sincronizadas a conflitos geopolíticos funcionam como vanguarda digital em embates militares
Security Report | Overview

89% das violações em genAI na saúde envolvem dados regulamentados

Relatório anual da Netskope revela que a exposição de prontuários em ferramentas de IA no setor é quase três vezes...