Empresas enfrentam ameaça com uso constante de IA generativa por funcionários, diz pesquisa

O relatório revela um aumento de 30 vezes no envio de dados sensíveis para ferramentas como ChatGPT e Google Gemini, destacando riscos de violação, Shadow AI e falta de visibilidade sobre o uso corporativo de GenAI

Compartilhar:

A Netskope publicou uma pesquisa que revela um aumento de 30 vezes nos dados enviados para aplicações de GenAI por usuários corporativos no último ano. Isso inclui dados confidenciais, como código-fonte, dados regulamentados, senhas, chaves de acesso e propriedade intelectual. Segundo o relatório isso também aumenta os riscos de violações que geram prejuízo financeiro, quebra de compliance e roubo de propriedade intelectual.

 

Uso de IA no ambiente corporativo 

O Relatório de Ameaças e Nuvem de IA Generativa de 2025 do Netskope Threat Labs conseguiu visibilidade de 317 aplicações de GenAI como ChatGPT, Google Gemini e GitHub Copilot. Uma análise mais ampla revelou que 75% dos usuários corporativos estão acessando aplicações com recursos de IA, gerando um problema ainda maior às equipes de segurança que é a ameaça interna não-intencional.

 

Shadow AI

 

A pesquisa destacou o uso de ferramentas de IA sem aprovação ou supervisão da área de segurança. Chamada de Shadow AI, o uso é apontado como um dos maiores desafios da TI, já que 72% dos usuários corporativos fazem uso de contas pessoais nas aplicações de GenAI prejudicando corporações.

 

Além disso, a pesquisa explicou que isso ocorre pois as empresas não têm visibilidade total ou mesmo parcial sobre como os dados são processados, armazenados e aproveitados dentro do uso indireto da GenAI. Muitas vezes, escolhem aplicar uma política de “bloquear antes e perguntar depois” a qual permite explicitamente certas aplicações e as demais.

 

O ideal, segundo especialistas, seria os líderes buscarem uma estratégia segura, já que os profissionais querem os benefícios de eficiência e produtividade dessas ferramentas.

 

Para a Netskope, à medida que os profissionais de segurança combatem ameaças impulsionadas por IA, muitos estão se voltando a ferramentas de segurança já integradas ao seu conjunto de tecnologias.

 

Ou seja, as empresas estão trabalhando para reduzir os riscos de IA com políticas que lhes permitem bloquear o acesso à essas  ferramentas,  controlar quais usuários podem acessar e quais dados podem ser compartilhados com essas ferramentas.

 

Além disso, a organização recomendou que as empresas revisem, adaptem e ajustem suas estruturas de risco especificamente para IA ou genAI por meio de esforços para garantir proteção adequada de dados, usuários e redes.

 

 

 

Conteúdos Relacionados

Security Report | Overview

Agentes guardiões devem representar até 15% do mercado de IA agêntica até 2030, aponta estudo

Tecnologias são vistas como essenciais para garantir interações seguras e confiáveis com agentes de inteligência artificial em expansão
Security Report | Overview

Sites falsos com pop-up maliciosos espionam viajantes, revela relatório

Relatório apontou sites falsos com banners de consentimento de cookies usados para controlar dispositivos de quem está planejando viagens
Security Report | Overview

Os seis golpes digitais mais aplicados no Brasil, segundo pesquisa

Levantamento aponta os seis golpes mais frequentes em 2025; especialista destaca que dicas atuais já estão defasadas e pede campanhas...
Security Report | Overview

Grupo de ransoware assume ameaças cibernéticas, aponta relatório

A sofisticação das ações cibercriminosas segue em ascensão, segundo especialistas, com o grupo de ransomware SafePay ganhando destaque, enquanto o...