Uso corporativo de GenAI cresce, mas falhas de governança ampliam risco de vazamento de dados

Relatório da Netskope mostra que violações de políticas ligadas à IA generativa dobraram em 2025, enquanto metade das empresas ainda opera sem controles adequados

Compartilhar:

As violações de políticas de dados associadas ao uso de ferramentas de inteligência artificial generativa (GenAI) mais do que dobraram em 2025, apesar do avanço das versões corporativas dessas aplicações. Dados do Cloud and Threat Report: 2026, da Netskope, indicam que as empresas enfrentaram, em média, 223 incidentes mensais relacionados à GenAI, revelando uma defasagem entre a rápida adoção da tecnologia e a maturidade das práticas de governança e proteção de dados.

 

O aumento no uso de GenAI vem acompanhado de crescimento expressivo no número de usuários e no volume de prompts: 200% e 500%, respectivamente, no último ano. Esse crescimento ocorre em um ritmo inferior à expansão do uso da tecnologia nas empresas. Enquanto as violações de políticas de dados associadas à GenAI dobraram em um ano, o número de usuários dessas ferramentas cresceu três vezes e o volume de prompts aumentou seis vezes no mesmo período.

 

Segundo o estudo, essa diferença indica uma lacuna na maturidade da governança, já que cerca de 50% das empresas ainda não possuem políticas efetivas de proteção de dados para aplicações de GenAI. Nesses ambientes, dados sensíveis podem estar sendo enviados para ferramentas de IA sem detecção, o que indica que a real dimensão da exposição de dados pode ser ainda mais significativa.

 

Embora as empresas tenham ampliado o acesso a versões corporativas de GenAI – com a proporção de usuários que utilizam apenas contas pessoais caindo de 78% para 47% – relatório mostra que 90% das empresas já bloqueiam ativamente uma ou mais aplicações consideradas de risco.

 

Aplicações pessoais de nuvem continuam sendo uma fonte significativa de vazamento de dados, respondendo por 60% dos incidentes de ameaça interna, com exposição de dados regulados, propriedade intelectual, código-fonte e credenciais. O phishing também manteve sua presença como vetor de ataque, com 87 a cada 10 mil usuários ainda clicando em links suspeitos mensalmente, apesar de uma redução modesta ano a ano.

 

De acordo com Ray Canzanese, diretor do Netskope Threat Labs, a adoção de inteligência artificial generativa mudou as regras do jogo e criou um perfil de risco que surpreendeu muitas equipes pela sua abrangência e complexidade. Segundo ele, esse cenário tem dificultado acompanhar as novas ameaças e feito com que princípios básicos de segurança fiquem em segundo plano. Para lidar com isso, as equipes precisam adotar uma postura consciente do uso de IA, evoluir políticas e ampliar o uso de ferramentas já existentes, como DLP, para equilibrar inovação e segurança.

 

Destaques

Colunas & Blogs

Conteúdos Relacionados

Security Report | Overview

Escolas no alvo: Como proteger informações de estudantes e docentes nas aulas online?

Com a expansão do ensino digital e o volume crescente de dados acadêmicos, a proteção de dados tornou-se prioridade urgente...
Security Report | Overview

Ataques de ransomware crescem 17% em 2025

Levantamento da ISH Tecnologia aponta os grupos criminosos mais ativos e coloca o Brasil como o 9º país mais afetado...
Security Report | Overview

Normas do Banco Central pressionam setor financeiro a reforçar gestão de riscos, aponta vendor

Resoluções estabelecem novos requisitos de proteção, rastreabilidade e controles de segurança com prazo de adequação até 1º de março de...
Security Report | Overview

95% das empresas brasileiras ampliaram programas de privacidade para escalar IA

Estudo da Cisco revela que a Inteligência Artificial impulsiona investimentos em privacidade e redefine a governança de dados das organizações