Uso corporativo de GenAI cresce, mas falhas de governança ampliam risco de vazamento de dados

Relatório da Netskope mostra que violações de políticas ligadas à IA generativa dobraram em 2025, enquanto metade das empresas ainda opera sem controles adequados

Compartilhar:

As violações de políticas de dados associadas ao uso de ferramentas de inteligência artificial generativa (GenAI) mais do que dobraram em 2025, apesar do avanço das versões corporativas dessas aplicações. Dados do Cloud and Threat Report: 2026, da Netskope, indicam que as empresas enfrentaram, em média, 223 incidentes mensais relacionados à GenAI, revelando uma defasagem entre a rápida adoção da tecnologia e a maturidade das práticas de governança e proteção de dados.

 

O aumento no uso de GenAI vem acompanhado de crescimento expressivo no número de usuários e no volume de prompts: 200% e 500%, respectivamente, no último ano. Esse crescimento ocorre em um ritmo inferior à expansão do uso da tecnologia nas empresas. Enquanto as violações de políticas de dados associadas à GenAI dobraram em um ano, o número de usuários dessas ferramentas cresceu três vezes e o volume de prompts aumentou seis vezes no mesmo período.

 

Segundo o estudo, essa diferença indica uma lacuna na maturidade da governança, já que cerca de 50% das empresas ainda não possuem políticas efetivas de proteção de dados para aplicações de GenAI. Nesses ambientes, dados sensíveis podem estar sendo enviados para ferramentas de IA sem detecção, o que indica que a real dimensão da exposição de dados pode ser ainda mais significativa.

 

Embora as empresas tenham ampliado o acesso a versões corporativas de GenAI – com a proporção de usuários que utilizam apenas contas pessoais caindo de 78% para 47% – relatório mostra que 90% das empresas já bloqueiam ativamente uma ou mais aplicações consideradas de risco.

 

Aplicações pessoais de nuvem continuam sendo uma fonte significativa de vazamento de dados, respondendo por 60% dos incidentes de ameaça interna, com exposição de dados regulados, propriedade intelectual, código-fonte e credenciais. O phishing também manteve sua presença como vetor de ataque, com 87 a cada 10 mil usuários ainda clicando em links suspeitos mensalmente, apesar de uma redução modesta ano a ano.

 

De acordo com Ray Canzanese, diretor do Netskope Threat Labs, a adoção de inteligência artificial generativa mudou as regras do jogo e criou um perfil de risco que surpreendeu muitas equipes pela sua abrangência e complexidade. Segundo ele, esse cenário tem dificultado acompanhar as novas ameaças e feito com que princípios básicos de segurança fiquem em segundo plano. Para lidar com isso, as equipes precisam adotar uma postura consciente do uso de IA, evoluir políticas e ampliar o uso de ferramentas já existentes, como DLP, para equilibrar inovação e segurança.

 

Destaques

Colunas & Blogs

Conteúdos Relacionados

Security Report | Overview

CES 2026 amplia o debate sobre cibersegurança em um mundo cada vez mais conectado

Avanço de dispositivos inteligentes, IA embarcada e mobilidade reforçam a necessidade de tratar segurança como um processo contínuo, com impactos...
Security Report | Overview

Riscos na implementação da IA estão entre os principais desafios apontados por CEOs

Estudo da EY-Parthenon mostra que tecnologia e dados seguem no centro das estratégias de investimento dos CEOs, em meio a...
Security Report | Overview

Gartner alerta: governança, segurança e resiliência redefinem Infraestrutura e Operações

Relatório aponta seis tendências que pressionam líderes de I&O a rever arquitetura, soberania digital e gestão de riscos
Security Report | Overview

Risco, governança e segurança digital são destaques na agenda dos CIOs para 2026

Pesquisa da Logicalis revela que eficiência operacional avança lado a lado com desafios críticos em cibersegurança e governança de IA