Falta cultura de segurança quando o assunto é IA generativa?

Pesquisa da Cyberhaven mostra que 34,8% dos dados inseridos por funcionários em ferramentas de IA já são sensíveis e que 83,8% fluem para plataformas públicas ou de alto risco, evidenciando um problema estrutural de governança

Compartilhar:

*Por Marcelo Branquinho

Os primeiros sinais de 2026 na segurança digital não surgiram de um ataque sofisticado, mas de uma decisão operacional equivocada. O chefe interino da CISA, agência responsável pela segurança cibernética dos Estados Unidos, compartilhou documentos internos do governo com a versão pública do ChatGPT. Os arquivos não eram classificados como sigilosos, mas traziam a marcação “para uso oficial apenas”, o que já define uma restrição clara de circulação.

 

Esse episódio desloca o debate sobre inteligência artificial generativa para um ponto objetivo. O problema não está na intenção, mas na consequência técnica do uso de ferramentas públicas para tratar informações internas. Quando isso ocorre no mais alto nível de uma estrutura de defesa, o caso deixa de ser isolado e passa a funcionar como indicador de risco sistêmico.

 

Do ponto de vista técnico, grandes modelos de linguagem públicos operam de forma diferente de softwares corporativos tradicionais. Eles não apenas processam informações, mas podem incorporá-las ao seu ciclo de aprendizado. Quando um documento interno é inserido em uma instância pública, a organização perde controle direto sobre como aquele conteúdo pode ser reutilizado pelo modelo.

 

Isso cria uma implicação prática clara para qualquer empresa ou órgão público. Informações operacionais, estratégias, fluxos internos ou análises sensíveis podem ser reproduzidas de forma indireta a outros usuários, a partir de perguntas semanticamente relacionadas. A exposição não depende de invasão externa; ela ocorre pelo próprio uso da ferramenta.

 

Dados mostram que o comportamento já saiu do controle

 

O relatório “2025 AI Adoption and Risk Report”, da Cyberhaven, quantifica um movimento que já observamos na prática. Em dois anos, o volume de dados corporativos sensíveis inseridos em ferramentas de IA triplicou. Em 2025, 34,8% de todas as informações carregadas por funcionários nessas plataformas eram sensíveis, frente a 10,7% em 2023.

 

O dado mais crítico está no destino dessas informações. Segundo o estudo, 83,8% dos dados corporativos fluem para plataformas classificadas como de alto ou crítico risco, geralmente versões públicas, sem governança e sem garantias de isolamento. Além disso, 39,5% das ferramentas de IA usadas no ambiente de trabalho expõem as interações para treinamento do modelo. Esses números indicam uma falha de decisão organizacional. As empresas não estão escolhendo ambientes inseguros por desconhecimento técnico, mas por conveniência operacional e ausência de políticas claras.

 

A adoção de IA generativa costuma ser justificada por ganhos de eficiência. Esse critério é válido, mas incompleto. Quando a escolha da ferramenta ignora a separação entre instâncias públicas e ambientes empresariais com treinamento desativado, o ganho de curto prazo cria um passivo de médio e longo prazo.

 

No caso da administração Trump, a falha de um alto oficial de cibersegurança – que deveria ser o guardião desses protocolos – demonstra que a conveniência tecnológica muitas vezes atropela a governança. O desafio para 2026 será fomentar uma cultura de segurança e estabelecer políticas rígidas que impeçam que a inovação se transforme em uma porta aberta para a exposição de dados críticos em escala global.

 

* Marcelo Branquinho é CEO e fundador da TI Safe. Graduado em Engenharia Elétrica, Branquinho é especialista em segurança de sistemas SCADA e membro da International Society of Automation (ISA).

Destaques

Colunas & Blogs

Conteúdos Relacionados

Security Report | Overview

Mapa da Defesa Cibernética Brasileira revela avanço técnico e centralidade do risco humano

Levantamento inédito do MITI consolida visão estratégica do ecossistema nacional e destaca soluções da Beephish para combater vulnerabilidades comportamentais
Security Report | Overview

Golpe no WhatsApp simula Receita Federal para roubar contas Gov.br no IR 2026

Divisão de inteligência da Redbelt Security identifica campanha de phishing que utiliza ameaças de bloqueio de CPF e sites falsos...
Security Report | Overview

Trojan brasileiro GoPix evolui para ameaça financeira mais avançada do país

Malware utiliza anúncios no Google Ads e técnicas inéditas de redirecionamento para fraudar Pix, boletos e criptomoedas em tempo real
Security Report | Overview

“ATM Jackpotting” gera nova onda de ataques à caixas eletrônicos, aponta threat intel

Especialistas revelam que criminosos utilizam pendrives para esvaziar terminais bancários, explorando falhas físicas e sistemas operacionais defasados que ignoram defesas...