Falta cultura de segurança quando o assunto é IA generativa?

Pesquisa da Cyberhaven mostra que 34,8% dos dados inseridos por funcionários em ferramentas de IA já são sensíveis e que 83,8% fluem para plataformas públicas ou de alto risco, evidenciando um problema estrutural de governança

Compartilhar:

*Por Marcelo Branquinho

Os primeiros sinais de 2026 na segurança digital não surgiram de um ataque sofisticado, mas de uma decisão operacional equivocada. O chefe interino da CISA, agência responsável pela segurança cibernética dos Estados Unidos, compartilhou documentos internos do governo com a versão pública do ChatGPT. Os arquivos não eram classificados como sigilosos, mas traziam a marcação “para uso oficial apenas”, o que já define uma restrição clara de circulação.

 

Esse episódio desloca o debate sobre inteligência artificial generativa para um ponto objetivo. O problema não está na intenção, mas na consequência técnica do uso de ferramentas públicas para tratar informações internas. Quando isso ocorre no mais alto nível de uma estrutura de defesa, o caso deixa de ser isolado e passa a funcionar como indicador de risco sistêmico.

 

Do ponto de vista técnico, grandes modelos de linguagem públicos operam de forma diferente de softwares corporativos tradicionais. Eles não apenas processam informações, mas podem incorporá-las ao seu ciclo de aprendizado. Quando um documento interno é inserido em uma instância pública, a organização perde controle direto sobre como aquele conteúdo pode ser reutilizado pelo modelo.

 

Isso cria uma implicação prática clara para qualquer empresa ou órgão público. Informações operacionais, estratégias, fluxos internos ou análises sensíveis podem ser reproduzidas de forma indireta a outros usuários, a partir de perguntas semanticamente relacionadas. A exposição não depende de invasão externa; ela ocorre pelo próprio uso da ferramenta.

 

Dados mostram que o comportamento já saiu do controle

 

O relatório “2025 AI Adoption and Risk Report”, da Cyberhaven, quantifica um movimento que já observamos na prática. Em dois anos, o volume de dados corporativos sensíveis inseridos em ferramentas de IA triplicou. Em 2025, 34,8% de todas as informações carregadas por funcionários nessas plataformas eram sensíveis, frente a 10,7% em 2023.

 

O dado mais crítico está no destino dessas informações. Segundo o estudo, 83,8% dos dados corporativos fluem para plataformas classificadas como de alto ou crítico risco, geralmente versões públicas, sem governança e sem garantias de isolamento. Além disso, 39,5% das ferramentas de IA usadas no ambiente de trabalho expõem as interações para treinamento do modelo. Esses números indicam uma falha de decisão organizacional. As empresas não estão escolhendo ambientes inseguros por desconhecimento técnico, mas por conveniência operacional e ausência de políticas claras.

 

A adoção de IA generativa costuma ser justificada por ganhos de eficiência. Esse critério é válido, mas incompleto. Quando a escolha da ferramenta ignora a separação entre instâncias públicas e ambientes empresariais com treinamento desativado, o ganho de curto prazo cria um passivo de médio e longo prazo.

 

No caso da administração Trump, a falha de um alto oficial de cibersegurança – que deveria ser o guardião desses protocolos – demonstra que a conveniência tecnológica muitas vezes atropela a governança. O desafio para 2026 será fomentar uma cultura de segurança e estabelecer políticas rígidas que impeçam que a inovação se transforme em uma porta aberta para a exposição de dados críticos em escala global.

 

* Marcelo Branquinho é CEO e fundador da TI Safe. Graduado em Engenharia Elétrica, Branquinho é especialista em segurança de sistemas SCADA e membro da International Society of Automation (ISA).

Destaques

Colunas & Blogs

Conteúdos Relacionados

Security Report | Overview

OpenClaw inaugura era dos agentes autônomos e amplia riscos de ciberataques, alerta pesquisa

Especialistas apontam que a plataforma OpenClaw reflete uma mudança de paradigma: assistentes de IA agora operam com permissões corporativas, criando...
Security Report | Overview

Redes sociais concentraram quase 80% dos anúncios, páginas e perfis falsos em 2025

Estudo da Serasa Experian identificou 37.845 anúncios, perfis, páginas e aplicativos falsos ao longo de 2025, que buscavam induzir usuários...
Security Report | Overview

Carnaval Online em Salvador traz WiFi com Segurança para foliões

A Prefeitura soteropolitana, em parceria com a Fortinet, implementa um sistema de conectividade e Segurança Cibernética para o Carnaval da...
Security Report | Overview

Palo Alto Networks conclui aquisição da CyberArk focada em IA Segura

Companhia de Cibersegurança integrará plataforma de Segurança unificada para identidades humanas, de máquinas e de agentes