Empresas enfrentam ameaça com uso constante de IA generativa por funcionários, diz pesquisa

O relatório revela um aumento de 30 vezes no envio de dados sensíveis para ferramentas como ChatGPT e Google Gemini, destacando riscos de violação, Shadow AI e falta de visibilidade sobre o uso corporativo de GenAI

Compartilhar:

A Netskope publicou uma pesquisa que revela um aumento de 30 vezes nos dados enviados para aplicações de GenAI por usuários corporativos no último ano. Isso inclui dados confidenciais, como código-fonte, dados regulamentados, senhas, chaves de acesso e propriedade intelectual. Segundo o relatório isso também aumenta os riscos de violações que geram prejuízo financeiro, quebra de compliance e roubo de propriedade intelectual.

 

Uso de IA no ambiente corporativo 

O Relatório de Ameaças e Nuvem de IA Generativa de 2025 do Netskope Threat Labs conseguiu visibilidade de 317 aplicações de GenAI como ChatGPT, Google Gemini e GitHub Copilot. Uma análise mais ampla revelou que 75% dos usuários corporativos estão acessando aplicações com recursos de IA, gerando um problema ainda maior às equipes de segurança que é a ameaça interna não-intencional.

 

Shadow AI

 

A pesquisa destacou o uso de ferramentas de IA sem aprovação ou supervisão da área de segurança. Chamada de Shadow AI, o uso é apontado como um dos maiores desafios da TI, já que 72% dos usuários corporativos fazem uso de contas pessoais nas aplicações de GenAI prejudicando corporações.

 

Além disso, a pesquisa explicou que isso ocorre pois as empresas não têm visibilidade total ou mesmo parcial sobre como os dados são processados, armazenados e aproveitados dentro do uso indireto da GenAI. Muitas vezes, escolhem aplicar uma política de “bloquear antes e perguntar depois” a qual permite explicitamente certas aplicações e as demais.

 

O ideal, segundo especialistas, seria os líderes buscarem uma estratégia segura, já que os profissionais querem os benefícios de eficiência e produtividade dessas ferramentas.

 

Para a Netskope, à medida que os profissionais de segurança combatem ameaças impulsionadas por IA, muitos estão se voltando a ferramentas de segurança já integradas ao seu conjunto de tecnologias.

 

Ou seja, as empresas estão trabalhando para reduzir os riscos de IA com políticas que lhes permitem bloquear o acesso à essas  ferramentas,  controlar quais usuários podem acessar e quais dados podem ser compartilhados com essas ferramentas.

 

Além disso, a organização recomendou que as empresas revisem, adaptem e ajustem suas estruturas de risco especificamente para IA ou genAI por meio de esforços para garantir proteção adequada de dados, usuários e redes.

 

 

 

Destaques

Colunas & Blogs

Conteúdos Relacionados

Security Report | Overview

Onda de DDoS atinge Irã em meio à conflito com EUA e Israel, aponta relatório

Monitoramento da NSFOCUS revela que ofensivas cibernéticas sincronizadas a conflitos geopolíticos funcionam como vanguarda digital em embates militares
Security Report | Overview

89% das violações em genAI na saúde envolvem dados regulamentados

Relatório anual da Netskope revela que a exposição de prontuários em ferramentas de IA no setor é quase três vezes...
Security Report | Overview

ANPD defende estratégias de data protection nos sistemas do SUS

Evento de Segurança da Informação reuniu entidades e especialistas de proteção de dados para fortalecimento da integridade de dados no...
Security Report | Overview

Campanha de espionagem sequestra Google Drive e Windows para atacar governos

Operação "Silver Dragon" utiliza backdoor personalizado e serviços legítimos do sistema operacional para monitorar instituições públicas na Ásia e Europa