Uso corporativo de GenAI cresce, mas falhas de governança ampliam risco de vazamento de dados

Relatório da Netskope mostra que violações de políticas ligadas à IA generativa dobraram em 2025, enquanto metade das empresas ainda opera sem controles adequados

Compartilhar:

As violações de políticas de dados associadas ao uso de ferramentas de inteligência artificial generativa (GenAI) mais do que dobraram em 2025, apesar do avanço das versões corporativas dessas aplicações. Dados do Cloud and Threat Report: 2026, da Netskope, indicam que as empresas enfrentaram, em média, 223 incidentes mensais relacionados à GenAI, revelando uma defasagem entre a rápida adoção da tecnologia e a maturidade das práticas de governança e proteção de dados.

 

O aumento no uso de GenAI vem acompanhado de crescimento expressivo no número de usuários e no volume de prompts: 200% e 500%, respectivamente, no último ano. Esse crescimento ocorre em um ritmo inferior à expansão do uso da tecnologia nas empresas. Enquanto as violações de políticas de dados associadas à GenAI dobraram em um ano, o número de usuários dessas ferramentas cresceu três vezes e o volume de prompts aumentou seis vezes no mesmo período.

 

Segundo o estudo, essa diferença indica uma lacuna na maturidade da governança, já que cerca de 50% das empresas ainda não possuem políticas efetivas de proteção de dados para aplicações de GenAI. Nesses ambientes, dados sensíveis podem estar sendo enviados para ferramentas de IA sem detecção, o que indica que a real dimensão da exposição de dados pode ser ainda mais significativa.

 

Embora as empresas tenham ampliado o acesso a versões corporativas de GenAI – com a proporção de usuários que utilizam apenas contas pessoais caindo de 78% para 47% – relatório mostra que 90% das empresas já bloqueiam ativamente uma ou mais aplicações consideradas de risco.

 

Aplicações pessoais de nuvem continuam sendo uma fonte significativa de vazamento de dados, respondendo por 60% dos incidentes de ameaça interna, com exposição de dados regulados, propriedade intelectual, código-fonte e credenciais. O phishing também manteve sua presença como vetor de ataque, com 87 a cada 10 mil usuários ainda clicando em links suspeitos mensalmente, apesar de uma redução modesta ano a ano.

 

De acordo com Ray Canzanese, diretor do Netskope Threat Labs, a adoção de inteligência artificial generativa mudou as regras do jogo e criou um perfil de risco que surpreendeu muitas equipes pela sua abrangência e complexidade. Segundo ele, esse cenário tem dificultado acompanhar as novas ameaças e feito com que princípios básicos de segurança fiquem em segundo plano. Para lidar com isso, as equipes precisam adotar uma postura consciente do uso de IA, evoluir políticas e ampliar o uso de ferramentas já existentes, como DLP, para equilibrar inovação e segurança.

 

Destaques

Colunas & Blogs

Conteúdos Relacionados

Security Report | Overview

Gartner indica seis etapas estratégicas para gerenciar a proliferação de IA agêntica

Previsão indica que empresas da Fortune 500 terão mais de 150 mil agentes em uso até 2028, mas apenas 13%...
Security Report | Overview

Avanço da IA impulsiona investimentos em SI em 48% das empresas brasileiras

Estudo encomendado pela Dell Technologies revela que, apesar do foco em automação e proteção de dados, lideranças ainda superestimam a...
Security Report | Overview

Novo plano estratégico de vendor coloca IA no centro da Identidade segura

Com a aceleração da adoção da Inteligência Artificial, cada vez mais avanços na governança de identidades e privilégios foram necessários....
Security Report | Overview

GSI/PR assina acordo para elevar maturidade Cyber de Pequenas Empresas

Além de impulsionar a adoção de boas práticas em segurança digital, o projeto permitirá mapear as principais dores e demandas...