Ferramenta de IA possui vulnerabilidades que possibilitam roubo de dados, afirma estudo

Estudo revela falhas ocultas de IA que permitem a exfiltração de dados, a anulação da segurança e o comprometimento persistente dentro da ferramenta de IA

Compartilhar:

A Tenable descobriu sete vulnerabilidades e técnicas de ataque durante testes com o ChatGPT-4o da OpenAI. Segundo a empresa, essas falhas expõem os usuários a riscos de privacidade ao burlar os mecanismos de segurança integrados. Os pesquisadores mostram caso forem exploradas, elas podem permitir que atacantes roubem secretamente dados pessoais, incluindo chats e memórias armazenadas. Embora a OpenAI tenha corrigido alguns dos problemas identificados, outros não haviam sido abordados no momento da publicação, deixando abertas certas vias de exposição.

Uma pesquisa recente com consumidores digitais aponta que, na América Latina, as taxas de adoção de ferramentas de IA generativa como o ChatGPT superam a média global, o que reforça a relevância de analisar sua segurança na região. O estudo explica que as vulnerabilidades revelam uma nova classe de ataque de IA chamada injeção indireta de prompt, onde instruções ocultas em sites externos ou comentários podem enganar o modelo para realizar ações não autorizadas. Essas falhas afetam as funções de navegação web e memória do ChatGPT, que processam dados de internet em tempo real e armazenam informações do usuário, criando oportunidades para manipulação e exposição de dados.

Ataques silenciosos e duradouros

Os pesquisadores da Tenable demonstram que esses ataques podem ocorrer silenciosamente de duas maneiras: ataques de “0-clique” (0-click), onde simplesmente fazer uma pergunta ao ChatGPT desencadeia o comprometimento, e ataques de “1-clique” (1-click), onde clicar em um link malicioso ativa comandos ocultos. Ainda mais preocupante é uma técnica chamada Injeção de Memória Persistente (Persistent Memory Injection), onde as instruções maliciosas são salvas na memória de longo prazo do ChatGPT e permanecem ativas após o usuário fechar o aplicativo. Isso permite que os atacantes plantem ameaças duradouras que podem expor informações privadas em futuras sessões até que sejam removidas.

Em conjunto, essas falhas mostram como os atacantes poderiam burlar as medidas de segurança da OpenAI e acessar os históricos privados dos usuários. “As vulnerabilidades expõe uma fraqueza fundamental em como os grandes modelos de linguagem julgam em qual informação confiar”, disse Moshe Bernstein, engenheiro de Pesquisa Sênior da Tenable. “Individualmente, essas falhas parecem pequenas, mas juntas formam uma cadeia de ataque completa, da injeção e evasão ao roubo de dados e persistência. Isso demonstra que os sistemas de IA não são apenas alvos potenciais, eles podem se tornar ferramentas de ataque que coletam informações silenciosamente de chats ou navegações cotidianas.”

Destaques

Colunas & Blogs

Conteúdos Relacionados

Security Report | Overview

Aumento de apps espiões em celulares acende alerta para Segurança, diz pesquisa

Levantamento  mostra avanço de softwares que espionam crianças e adolescentes; especialistas explicam como identificá-los e o que fazer para removê-los
Security Report | Overview

73% dos brasileiros já caíram em phishing, afirma pesquisa

Pesquisa mostra que em apenas um ano, o Brasil registrou 553 milhões de ataques de phishing, uma média de 1,5...
Security Report | Overview

ANPD se reúne com órgão britânico para discutir proteção de menores na rede

ANPD marca encontro com agência reguladora internacional para discutir implementação do ECA Digital e reforçar medidas de proteção para crianças...
Security Report | Overview

Valid melhora em 72% seus indicadores contra ataques de phishing

Em apenas seis meses, projeto vem promovendo uma mudança cultural significativa, engajando colaboradores e fortalecendo a resiliência digital da empresa...