Shadow IA expande riscos e exige gerenciamento de dados em IA, detecta relatório

Relatório revela aumento crítico de riscos com a expansão da shadow IA e impulsiona novas estratégias de segurança para o uso empresarial de GenAI

Compartilhar:

O Relatório de Ameaças e Nuvem de IA Generativa de 2025, realizado pelo Netskope Threat Labs, afirma que as organizações experimentaram um aumento de 30 vezes nos dados enviados para aplicações de GenAI apenas por usuários internos no último ano. Segundo o relatório, isso é chamado de “shadow IA”, evento no qual os colaboradores acessam ferramentas de GenAI usando contas pessoais, cerca de 72% dos usuários analisados na pesquisa.

 

Vulnerabilidades das empresas

A Nestkope explica que rápida adoção da Inteligência Artificial ​​por organizações empresariais criou um ecossistema complexo. O  acesso aos recursos de IA integrados e aos agentes de IA é feito em todos os diferentes níveis de usuários e até em operações comerciais. Esse sistema cria uma superfície de ataque ampliada e com mais desafios de visibilidade e execução, conforme o diz  relatório.

 

Nova abordagem

Dessa forma, as organizações passam a exigir uma abordagem unificada e fim-a-fim para proteger essas aplicações ​​em seus negócios desde a  GenAI até a IA agêntica. A fim de minimizar os riscos e, ao mesmo tempo, manter os funcionários produtivos no uso da Inteligência Artificial.

 

“As organizações precisam saber que os dados que alimentam qualquer parte de seu ecossistema de IA são seguros em todas as fases da interação, reconhecendo como eles podem ser usados ​​em aplicações, acessados ​​por usuários e incorporados a agentes de IA”, disse Sanjay Beri, CEO da Netskope.

 

Segurança em IA

A empresa também divulgou sua nova plataforma, na qual clientes podem aproveitar as funcionalidades com recursos de gerenciamento de postura de segurança de dado (Data Security Posture Management – DSPM) para mitigar riscos da adoção de IA e prevenir vazamentos de dados confidenciais inseridos nos modelos de linguagem grandes (LLMs).

 

Segundo a empresa, a plataforma gerencia novos riscos introduzidos pela adoção e desenvolvimento dessas aplicações ao fornecer um entendimento dos dados confidenciais.  Os especialistas reforçam a funcionalidade da ferramenta, feita para o usuário tomar decisões sobre a seleção de aplicações e a definição de políticas. Além de atingir uma gama de casos de uso de segurança, a fim de assegurar o uso da IA entre usuários, agentes, dados e aplicações, com visibilidade e controles contextuais.

 

Destaques

Colunas & Blogs

Conteúdos Relacionados

Security Report | Overview

Caso Vercel: IA vira vetor de ataque e expõe risco sistêmico em frameworks web

Violação via Inteligência Artificial de terceiros amplia riscos na cadeia de suprimentos e revela falta de visibilidade sobre dependências críticas
Security Report | Overview

Pesquisa detecta novo ataque de roubo de dados por financiamento de veículos

Ataque identificado pela Tempest explora a busca por emprego no setor de logística para roubar dados e realizar biometria facial...
Security Report | Overview

Pix evolui na devolução de valores, mas enfrenta desafio da manipulação humana

Aprimoramento do ressarcimento pós-fraude expõe a necessidade urgente de novas estratégias preventivas contra a engenharia social
Security Report | Overview

Relatório detecta 309 bancos de dados de organizações brasileiras expostos

No Mês da Mentira, estudo Digital Footprint Intelligence revela que violações de redes brasileiras se tornam moeda de troca para...