A Tenable descobriu sete vulnerabilidades e técnicas de ataque durante testes com o ChatGPT-4o da OpenAI. Segundo a empresa, essas falhas expõem os usuários a riscos de privacidade ao burlar os mecanismos de segurança integrados. Os pesquisadores mostram caso forem exploradas, elas podem permitir que atacantes roubem secretamente dados pessoais, incluindo chats e memórias armazenadas. Embora a OpenAI tenha corrigido alguns dos problemas identificados, outros não haviam sido abordados no momento da publicação, deixando abertas certas vias de exposição.
Uma pesquisa recente com consumidores digitais aponta que, na América Latina, as taxas de adoção de ferramentas de IA generativa como o ChatGPT superam a média global, o que reforça a relevância de analisar sua segurança na região. O estudo explica que as vulnerabilidades revelam uma nova classe de ataque de IA chamada injeção indireta de prompt, onde instruções ocultas em sites externos ou comentários podem enganar o modelo para realizar ações não autorizadas. Essas falhas afetam as funções de navegação web e memória do ChatGPT, que processam dados de internet em tempo real e armazenam informações do usuário, criando oportunidades para manipulação e exposição de dados.
Ataques silenciosos e duradouros
Os pesquisadores da Tenable demonstram que esses ataques podem ocorrer silenciosamente de duas maneiras: ataques de “0-clique” (0-click), onde simplesmente fazer uma pergunta ao ChatGPT desencadeia o comprometimento, e ataques de “1-clique” (1-click), onde clicar em um link malicioso ativa comandos ocultos. Ainda mais preocupante é uma técnica chamada Injeção de Memória Persistente (Persistent Memory Injection), onde as instruções maliciosas são salvas na memória de longo prazo do ChatGPT e permanecem ativas após o usuário fechar o aplicativo. Isso permite que os atacantes plantem ameaças duradouras que podem expor informações privadas em futuras sessões até que sejam removidas.
Em conjunto, essas falhas mostram como os atacantes poderiam burlar as medidas de segurança da OpenAI e acessar os históricos privados dos usuários. “As vulnerabilidades expõe uma fraqueza fundamental em como os grandes modelos de linguagem julgam em qual informação confiar”, disse Moshe Bernstein, engenheiro de Pesquisa Sênior da Tenable. “Individualmente, essas falhas parecem pequenas, mas juntas formam uma cadeia de ataque completa, da injeção e evasão ao roubo de dados e persistência. Isso demonstra que os sistemas de IA não são apenas alvos potenciais, eles podem se tornar ferramentas de ataque que coletam informações silenciosamente de chats ou navegações cotidianas.”