As violações de políticas de dados associadas ao uso de ferramentas de inteligência artificial generativa (GenAI) mais do que dobraram em 2025, apesar do avanço das versões corporativas dessas aplicações. Dados do Cloud and Threat Report: 2026, da Netskope, indicam que as empresas enfrentaram, em média, 223 incidentes mensais relacionados à GenAI, revelando uma defasagem entre a rápida adoção da tecnologia e a maturidade das práticas de governança e proteção de dados.
O aumento no uso de GenAI vem acompanhado de crescimento expressivo no número de usuários e no volume de prompts: 200% e 500%, respectivamente, no último ano. Esse crescimento ocorre em um ritmo inferior à expansão do uso da tecnologia nas empresas. Enquanto as violações de políticas de dados associadas à GenAI dobraram em um ano, o número de usuários dessas ferramentas cresceu três vezes e o volume de prompts aumentou seis vezes no mesmo período.
Segundo o estudo, essa diferença indica uma lacuna na maturidade da governança, já que cerca de 50% das empresas ainda não possuem políticas efetivas de proteção de dados para aplicações de GenAI. Nesses ambientes, dados sensíveis podem estar sendo enviados para ferramentas de IA sem detecção, o que indica que a real dimensão da exposição de dados pode ser ainda mais significativa.
Embora as empresas tenham ampliado o acesso a versões corporativas de GenAI – com a proporção de usuários que utilizam apenas contas pessoais caindo de 78% para 47% – relatório mostra que 90% das empresas já bloqueiam ativamente uma ou mais aplicações consideradas de risco.
Aplicações pessoais de nuvem continuam sendo uma fonte significativa de vazamento de dados, respondendo por 60% dos incidentes de ameaça interna, com exposição de dados regulados, propriedade intelectual, código-fonte e credenciais. O phishing também manteve sua presença como vetor de ataque, com 87 a cada 10 mil usuários ainda clicando em links suspeitos mensalmente, apesar de uma redução modesta ano a ano.
De acordo com Ray Canzanese, diretor do Netskope Threat Labs, a adoção de inteligência artificial generativa mudou as regras do jogo e criou um perfil de risco que surpreendeu muitas equipes pela sua abrangência e complexidade. Segundo ele, esse cenário tem dificultado acompanhar as novas ameaças e feito com que princípios básicos de segurança fiquem em segundo plano. Para lidar com isso, as equipes precisam adotar uma postura consciente do uso de IA, evoluir políticas e ampliar o uso de ferramentas já existentes, como DLP, para equilibrar inovação e segurança.