Empresas enfrentam ameaça com uso constante de IA generativa por funcionários, diz pesquisa

O relatório revela um aumento de 30 vezes no envio de dados sensíveis para ferramentas como ChatGPT e Google Gemini, destacando riscos de violação, Shadow AI e falta de visibilidade sobre o uso corporativo de GenAI

Compartilhar:

A Netskope publicou uma pesquisa que revela um aumento de 30 vezes nos dados enviados para aplicações de GenAI por usuários corporativos no último ano. Isso inclui dados confidenciais, como código-fonte, dados regulamentados, senhas, chaves de acesso e propriedade intelectual. Segundo o relatório isso também aumenta os riscos de violações que geram prejuízo financeiro, quebra de compliance e roubo de propriedade intelectual.

 

Uso de IA no ambiente corporativo 

O Relatório de Ameaças e Nuvem de IA Generativa de 2025 do Netskope Threat Labs conseguiu visibilidade de 317 aplicações de GenAI como ChatGPT, Google Gemini e GitHub Copilot. Uma análise mais ampla revelou que 75% dos usuários corporativos estão acessando aplicações com recursos de IA, gerando um problema ainda maior às equipes de segurança que é a ameaça interna não-intencional.

 

Shadow AI

 

A pesquisa destacou o uso de ferramentas de IA sem aprovação ou supervisão da área de segurança. Chamada de Shadow AI, o uso é apontado como um dos maiores desafios da TI, já que 72% dos usuários corporativos fazem uso de contas pessoais nas aplicações de GenAI prejudicando corporações.

 

Além disso, a pesquisa explicou que isso ocorre pois as empresas não têm visibilidade total ou mesmo parcial sobre como os dados são processados, armazenados e aproveitados dentro do uso indireto da GenAI. Muitas vezes, escolhem aplicar uma política de “bloquear antes e perguntar depois” a qual permite explicitamente certas aplicações e as demais.

 

O ideal, segundo especialistas, seria os líderes buscarem uma estratégia segura, já que os profissionais querem os benefícios de eficiência e produtividade dessas ferramentas.

 

Para a Netskope, à medida que os profissionais de segurança combatem ameaças impulsionadas por IA, muitos estão se voltando a ferramentas de segurança já integradas ao seu conjunto de tecnologias.

 

Ou seja, as empresas estão trabalhando para reduzir os riscos de IA com políticas que lhes permitem bloquear o acesso à essas  ferramentas,  controlar quais usuários podem acessar e quais dados podem ser compartilhados com essas ferramentas.

 

Além disso, a organização recomendou que as empresas revisem, adaptem e ajustem suas estruturas de risco especificamente para IA ou genAI por meio de esforços para garantir proteção adequada de dados, usuários e redes.

 

 

 

Conteúdos Relacionados

Security Report | Overview

Setor industrial lidera ranking de ataques cibernético, aponta análise

Estudo sobre os ataques cibernéticos ao setor industrial revela que um em cada cinco tem como alvo o roubo de...
Security Report | Overview

Phishing continua sendo responsável por 33% dos ataques de segurança, alerta relatório

O relatório de incidentes destaca as principais tendências de cibercrimes observados ao longo do segundo trimestre de 2025
Security Report | Overview

Golpes digitais afetam 29% dos consumidores em todo o mundo

Relatório revela que golpes digitais afetam 29% dos consumidores em todo o mundo; prejuízo médio no Brasil é de R$...
Security Report | Overview

61% dos profissionais de SI planejam adotar a IA para setor de manufatura, afirma relatório

Relatório revela ainda que a cibersegurança já é a principal preocupação externa do setor, ficando atrás apenas das condições econômicas