Nova brecha no ChatGPT permite roubo silencioso de dados sensíveis, aponta estudo

Pesquisadores da Check Point Software revelam vulnerabilidade inédita que permitia a exfiltração silenciosa de dados sensíveis em sessões do ChatGPT, reforçando a necessidade de uma nova abordagem à segurança na era da IA

Compartilhar:

A equipe da Check Point Research (CPR), divisão de inteligência de ameaças da Check Point Software, identificou uma vulnerabilidade até então desconhecida que permitia a exfiltração silenciosa de dados sensíveis em conversas no ChatGPT, sem o conhecimento ou consentimento dos usuários. A falha foi totalmente corrigida pela OpenAI em 20 de fevereiro de 2026, sem evidências de exploração ativa.

 

O principal recado para o mercado corporativo é o de que as plataformas de inteligência artificial devem ser tratadas como infraestrutura de nuvem e computação. Controles nativos não eliminam riscos, e não é possível depender exclusivamente dos mecanismos de segurança dos fornecedores para garantir a segurança dodados acessados, processados ou gerados nesses ambientes.

 

Análise: de assistente confiável a vetor de exposição silenciosa

Um único prompt malicioso poderia transformar uma sessão do ChatGPT em um canal de exfiltração de dados. Informações sensíveis, incluindo entradas do usuário, arquivos enviados e até resumos e conclusões gerados pela própria IA, poderiam ser enviadas externamente sem qualquer alerta ou autorização.

 

O ataque explorava um canal oculto de comunicação baseado em DNS, contornando mecanismos de proteção visíveis. A lógica podia ser incorporada em GPTs personalizados, ampliando o risco e transformando um ataque pontual em uma ameaça escalável. O mesmo vetor também possibilitava a execução remota de comandos dentro do ambiente de execução da plataforma.

 

A análise da equipe da CPR mostrou que, uma vez acionado, o ataque permitia a extração de conteúdos selecionados da conversa, como mensagens, arquivos enviados e respostas geradas pela IA. Do ponto de vista do usuário, não havia qualquer indício de anomalia. O assistente continuava operando normalmente, sem alertas ou solicitações de permissão. A vulnerabilidade não decorreu de uso indevido ou erro de configuração, mas de um ponto cego na infraestrutura, em que os controles focavam intenção e políticas, enquanto o ambiente permitia comportamentos inesperados.

 

O cenário é crítico diante do uso crescente dessas ferramentas para manipular dados sensíveis, como informações de clientes, registros financeiros, documentos médicos e materiais estratégicos internos. Em ambientes baseados em IA, a segurança dodados é limitada pelo elo mais fraco da arquitetura.

 

Impactos para empresas e usuários

 

Para usuários individuais, a conclusão é de que a confiança em sistemas de IA precisa ser informada, não presumida. Essas plataformas já processam e geram informações de alto valor, muitas vezes ainda mais sensíveis do que os dados originais.

 

Para empresas, especialmente em setores regulados, o impacto é ainda maior. Um incidente envolvendo IA pode evoluir rapidamente para violações de normas como a LGPD, o GDPR ou o HIPAA, além de riscos financeiros e de conformidade regulatória.

 

Líderes de segurança da informação em áreas como saúde, serviços financeiros e governo devem incorporar plataformas de IA ao escopo de ambientes regulados, e não as tratar como aplicações de consumo fora dos controles existentes.

 

Um ponto de inflexão para a segurança em IA

 

A análise evidencia uma mudança estrutural. Plataformas de IA deixaram de ser apenas software e passaram a operar como ambientes completos de execução. Isso exige uma revisão da arquitetura de segurança, com adoção de defesa em profundidade, validação independente e monitoramento contínuo.

 

“Esta análise reforça uma realidade da era da IA: não se deve presumir que ferramentas de IA sejam seguras por padrão. À medida que essas plataformas evoluem para ambientes completos de computação que lidam com dados altamente sensíveis, controles nativos já não são suficientes. As organizações precisam de visibilidade independente e proteção em camadas para avançar com segurança”, ressalta Eli Smadja, líder de pesquisa da Check Point Research.

 

A correção e a lição estrutural

 

A vulnerabilidade foi reportada de forma responsável pela Check Point Software, e a OpenAI confirmou que já havia identificado o problema internamente. A correção eliminou o canal de comunicação indevido. Não há indícios de exploração no ambiente real.

 

Ainda assim, o aprendizado vai além de uma falha específica. A segurança em IA não se resume a correções pontuais, mas exige uma abordagem estrutural. Organizações precisam assumir que essas plataformas operam como ambientes completos de computação e protegê-las em todas as camadas, da lógica da aplicação ao comportamento da infraestrutura.

 

Empresas de IA são altamente eficazes no desenvolvimento tecnológico, mas não são, por padrão, organizações orientadas à segurança. Por isso, a atuação de análise e pesquisa independentes é crítica para antecipar riscos e validar controles.

 

Mesmo com a mitigação da técnica específica identificada, o risco estrutural permanece. Vetores como engenharia social, phishing e upload de arquivos maliciosos continuam sendo caminhos viáveis para ataques baseados em injeção de prompts e acesso indevido a dados.

 

Nesse contexto, torna-se indispensável que as organizações adicionem suas próprias camadas de proteção. A abordagem inclui políticas de prevenção contra vazamento de dados, monitoramento de rede e detecção de ameaças emergentes, além de mecanismos para reduzir riscos associados à manipulação de prompts.

 

Assim, conforme as plataformas evoluem, a superfície de ataque também se expande. Empresas que estruturarem desde já uma arquitetura robusta de segurança para IA estarão mais preparadas para mitigar riscos e sustentar a inovação com resiliência.

 

Conteúdos Relacionados

Security Report | Overview

Campanha de ransomware via arquivos SVG força salto de ataques na América Latina

Dados do Threat Lab mostram predominância de malwares conhecidos e avanço de técnicas sofisticadas entre 16 e 23 de março...
Security Report | Overview

CERT.br lança Cartilha de Segurança para prevenir golpes online

Publicações detalham como a engenharia social é usada para ludibriar a população e ensinam a proteger contas e transações financeiras
Security Report | Overview

Industrialização do Cibercrime amplia impactos e danos, diz relatório

Adversários cibernéticos adotam modelos operacionais semelhantes aos de empresas para atingir todos os setores, exigindo melhoria na coordenação, visibilidade e...
Security Report | Overview

EUA restringe roteadores estrangeiros por riscos à Segurança

Medida da FCC visa fortalecer a cadeia de suprimentos cibernética e reduzir vulnerabilidades em dispositivos de borda, frequentemente negligenciados em...