Empresas enfrentam ameaça com uso constante de IA generativa por funcionários, diz pesquisa

O relatório revela um aumento de 30 vezes no envio de dados sensíveis para ferramentas como ChatGPT e Google Gemini, destacando riscos de violação, Shadow AI e falta de visibilidade sobre o uso corporativo de GenAI

Compartilhar:

A Netskope publicou uma pesquisa que revela um aumento de 30 vezes nos dados enviados para aplicações de GenAI por usuários corporativos no último ano. Isso inclui dados confidenciais, como código-fonte, dados regulamentados, senhas, chaves de acesso e propriedade intelectual. Segundo o relatório isso também aumenta os riscos de violações que geram prejuízo financeiro, quebra de compliance e roubo de propriedade intelectual.

 

Uso de IA no ambiente corporativo 

O Relatório de Ameaças e Nuvem de IA Generativa de 2025 do Netskope Threat Labs conseguiu visibilidade de 317 aplicações de GenAI como ChatGPT, Google Gemini e GitHub Copilot. Uma análise mais ampla revelou que 75% dos usuários corporativos estão acessando aplicações com recursos de IA, gerando um problema ainda maior às equipes de segurança que é a ameaça interna não-intencional.

 

Shadow AI

 

A pesquisa destacou o uso de ferramentas de IA sem aprovação ou supervisão da área de segurança. Chamada de Shadow AI, o uso é apontado como um dos maiores desafios da TI, já que 72% dos usuários corporativos fazem uso de contas pessoais nas aplicações de GenAI prejudicando corporações.

 

Além disso, a pesquisa explicou que isso ocorre pois as empresas não têm visibilidade total ou mesmo parcial sobre como os dados são processados, armazenados e aproveitados dentro do uso indireto da GenAI. Muitas vezes, escolhem aplicar uma política de “bloquear antes e perguntar depois” a qual permite explicitamente certas aplicações e as demais.

 

O ideal, segundo especialistas, seria os líderes buscarem uma estratégia segura, já que os profissionais querem os benefícios de eficiência e produtividade dessas ferramentas.

 

Para a Netskope, à medida que os profissionais de segurança combatem ameaças impulsionadas por IA, muitos estão se voltando a ferramentas de segurança já integradas ao seu conjunto de tecnologias.

 

Ou seja, as empresas estão trabalhando para reduzir os riscos de IA com políticas que lhes permitem bloquear o acesso à essas  ferramentas,  controlar quais usuários podem acessar e quais dados podem ser compartilhados com essas ferramentas.

 

Além disso, a organização recomendou que as empresas revisem, adaptem e ajustem suas estruturas de risco especificamente para IA ou genAI por meio de esforços para garantir proteção adequada de dados, usuários e redes.

 

 

 

Destaques

Colunas & Blogs

Conteúdos Relacionados

Security Report | Overview

Pesquisa: Vulnerabilidades de novembro expõem riscos em plataformas digitais

Relatório aponta que atividades de exploração ativa, campanhas de espionagem e falhas em ferramentas corporativas reforçam a necessidade de atenção...
Security Report | Overview

Estudo prevê as principais tendências para o cenário de fraudes em 2026

Estudo prevê que, em 2026, identidades sintéticas impulsionadas por IA, fraudes profissionalizadas e redes sofisticadas de “mulas de dinheiro” vão...
Security Report | Overview

Malware de aplicativo de empréstimo cresce 43 vezes em dois anos, revela levantamento

De acordo com dados da pesquisa, o Brasil é o 2º país mais atacado por SpyLoan na América Latina
Security Report | Overview

Malware evasivo via conexões criptografadas aumenta 40%, alerta relatório

Estudo mostra que cibercriminosos adotam manobras encobertas para contornar assinaturas com malware zero-day e cadeias de infecção USP