Empresas enfrentam ameaça com uso constante de IA generativa por funcionários, diz pesquisa

O relatório revela um aumento de 30 vezes no envio de dados sensíveis para ferramentas como ChatGPT e Google Gemini, destacando riscos de violação, Shadow AI e falta de visibilidade sobre o uso corporativo de GenAI

Compartilhar:

A Netskope publicou uma pesquisa que revela um aumento de 30 vezes nos dados enviados para aplicações de GenAI por usuários corporativos no último ano. Isso inclui dados confidenciais, como código-fonte, dados regulamentados, senhas, chaves de acesso e propriedade intelectual. Segundo o relatório isso também aumenta os riscos de violações que geram prejuízo financeiro, quebra de compliance e roubo de propriedade intelectual.

 

Uso de IA no ambiente corporativo 

O Relatório de Ameaças e Nuvem de IA Generativa de 2025 do Netskope Threat Labs conseguiu visibilidade de 317 aplicações de GenAI como ChatGPT, Google Gemini e GitHub Copilot. Uma análise mais ampla revelou que 75% dos usuários corporativos estão acessando aplicações com recursos de IA, gerando um problema ainda maior às equipes de segurança que é a ameaça interna não-intencional.

 

Shadow AI

 

A pesquisa destacou o uso de ferramentas de IA sem aprovação ou supervisão da área de segurança. Chamada de Shadow AI, o uso é apontado como um dos maiores desafios da TI, já que 72% dos usuários corporativos fazem uso de contas pessoais nas aplicações de GenAI prejudicando corporações.

 

Além disso, a pesquisa explicou que isso ocorre pois as empresas não têm visibilidade total ou mesmo parcial sobre como os dados são processados, armazenados e aproveitados dentro do uso indireto da GenAI. Muitas vezes, escolhem aplicar uma política de “bloquear antes e perguntar depois” a qual permite explicitamente certas aplicações e as demais.

 

O ideal, segundo especialistas, seria os líderes buscarem uma estratégia segura, já que os profissionais querem os benefícios de eficiência e produtividade dessas ferramentas.

 

Para a Netskope, à medida que os profissionais de segurança combatem ameaças impulsionadas por IA, muitos estão se voltando a ferramentas de segurança já integradas ao seu conjunto de tecnologias.

 

Ou seja, as empresas estão trabalhando para reduzir os riscos de IA com políticas que lhes permitem bloquear o acesso à essas  ferramentas,  controlar quais usuários podem acessar e quais dados podem ser compartilhados com essas ferramentas.

 

Além disso, a organização recomendou que as empresas revisem, adaptem e ajustem suas estruturas de risco especificamente para IA ou genAI por meio de esforços para garantir proteção adequada de dados, usuários e redes.

 

 

 

Destaques

Colunas & Blogs

Conteúdos Relacionados

Security Report | Overview

Observabilidade, IA e resiliência digital: as lições do NETSCOUT Engage 2025

Durante a abertura do evento, o CEO Anil Singhal apresentou um salto estratégico: migrar da observabilidade reativa para a preditiva,...
Security Report | Overview

Estudo descobre novo grupo de espionagem digital ligado à China

Relatório da Unit 42 detalha como o ator estatal, ativo há mais de dois anos, mirou governos e telecomunicações em...
Security Report | Overview

77% das organizações tiveram incidentes com perda de dados nos últimos 18 meses

Segundo o levantamento, 64% dos profissionais de segurança relatam que suas organizações possuem um programa de proteção ou governança de...
Security Report | Overview

Brasil concentra metade dos ataques de ransomware na América Latina, alerta panorama

De acordo com pesquisa, o país teve um aumento de 12% desses golpes bloqueados se comparado ao ano anterior com...