*Por Marcelo Branquinho
Os primeiros sinais de 2026 na segurança digital não surgiram de um ataque sofisticado, mas de uma decisão operacional equivocada. O chefe interino da CISA, agência responsável pela segurança cibernética dos Estados Unidos, compartilhou documentos internos do governo com a versão pública do ChatGPT. Os arquivos não eram classificados como sigilosos, mas traziam a marcação “para uso oficial apenas”, o que já define uma restrição clara de circulação.
Esse episódio desloca o debate sobre inteligência artificial generativa para um ponto objetivo. O problema não está na intenção, mas na consequência técnica do uso de ferramentas públicas para tratar informações internas. Quando isso ocorre no mais alto nível de uma estrutura de defesa, o caso deixa de ser isolado e passa a funcionar como indicador de risco sistêmico.
Do ponto de vista técnico, grandes modelos de linguagem públicos operam de forma diferente de softwares corporativos tradicionais. Eles não apenas processam informações, mas podem incorporá-las ao seu ciclo de aprendizado. Quando um documento interno é inserido em uma instância pública, a organização perde controle direto sobre como aquele conteúdo pode ser reutilizado pelo modelo.
Isso cria uma implicação prática clara para qualquer empresa ou órgão público. Informações operacionais, estratégias, fluxos internos ou análises sensíveis podem ser reproduzidas de forma indireta a outros usuários, a partir de perguntas semanticamente relacionadas. A exposição não depende de invasão externa; ela ocorre pelo próprio uso da ferramenta.
Dados mostram que o comportamento já saiu do controle
O relatório “2025 AI Adoption and Risk Report”, da Cyberhaven, quantifica um movimento que já observamos na prática. Em dois anos, o volume de dados corporativos sensíveis inseridos em ferramentas de IA triplicou. Em 2025, 34,8% de todas as informações carregadas por funcionários nessas plataformas eram sensíveis, frente a 10,7% em 2023.
O dado mais crítico está no destino dessas informações. Segundo o estudo, 83,8% dos dados corporativos fluem para plataformas classificadas como de alto ou crítico risco, geralmente versões públicas, sem governança e sem garantias de isolamento. Além disso, 39,5% das ferramentas de IA usadas no ambiente de trabalho expõem as interações para treinamento do modelo. Esses números indicam uma falha de decisão organizacional. As empresas não estão escolhendo ambientes inseguros por desconhecimento técnico, mas por conveniência operacional e ausência de políticas claras.
A adoção de IA generativa costuma ser justificada por ganhos de eficiência. Esse critério é válido, mas incompleto. Quando a escolha da ferramenta ignora a separação entre instâncias públicas e ambientes empresariais com treinamento desativado, o ganho de curto prazo cria um passivo de médio e longo prazo.
No caso da administração Trump, a falha de um alto oficial de cibersegurança – que deveria ser o guardião desses protocolos – demonstra que a conveniência tecnológica muitas vezes atropela a governança. O desafio para 2026 será fomentar uma cultura de segurança e estabelecer políticas rígidas que impeçam que a inovação se transforme em uma porta aberta para a exposição de dados críticos em escala global.
* Marcelo Branquinho é CEO e fundador da TI Safe. Graduado em Engenharia Elétrica, Branquinho é especialista em segurança de sistemas SCADA e membro da International Society of Automation (ISA).