Shadow IA expande riscos e exige gerenciamento de dados em IA, detecta relatório

Relatório revela aumento crítico de riscos com a expansão da shadow IA e impulsiona novas estratégias de segurança para o uso empresarial de GenAI

Compartilhar:

O Relatório de Ameaças e Nuvem de IA Generativa de 2025, realizado pelo Netskope Threat Labs, afirma que as organizações experimentaram um aumento de 30 vezes nos dados enviados para aplicações de GenAI apenas por usuários internos no último ano. Segundo o relatório, isso é chamado de “shadow IA”, evento no qual os colaboradores acessam ferramentas de GenAI usando contas pessoais, cerca de 72% dos usuários analisados na pesquisa.

 

Vulnerabilidades das empresas

A Nestkope explica que rápida adoção da Inteligência Artificial ​​por organizações empresariais criou um ecossistema complexo. O  acesso aos recursos de IA integrados e aos agentes de IA é feito em todos os diferentes níveis de usuários e até em operações comerciais. Esse sistema cria uma superfície de ataque ampliada e com mais desafios de visibilidade e execução, conforme o diz  relatório.

 

Nova abordagem

Dessa forma, as organizações passam a exigir uma abordagem unificada e fim-a-fim para proteger essas aplicações ​​em seus negócios desde a  GenAI até a IA agêntica. A fim de minimizar os riscos e, ao mesmo tempo, manter os funcionários produtivos no uso da Inteligência Artificial.

 

“As organizações precisam saber que os dados que alimentam qualquer parte de seu ecossistema de IA são seguros em todas as fases da interação, reconhecendo como eles podem ser usados ​​em aplicações, acessados ​​por usuários e incorporados a agentes de IA”, disse Sanjay Beri, CEO da Netskope.

 

Segurança em IA

A empresa também divulgou sua nova plataforma, na qual clientes podem aproveitar as funcionalidades com recursos de gerenciamento de postura de segurança de dado (Data Security Posture Management – DSPM) para mitigar riscos da adoção de IA e prevenir vazamentos de dados confidenciais inseridos nos modelos de linguagem grandes (LLMs).

 

Segundo a empresa, a plataforma gerencia novos riscos introduzidos pela adoção e desenvolvimento dessas aplicações ao fornecer um entendimento dos dados confidenciais.  Os especialistas reforçam a funcionalidade da ferramenta, feita para o usuário tomar decisões sobre a seleção de aplicações e a definição de políticas. Além de atingir uma gama de casos de uso de segurança, a fim de assegurar o uso da IA entre usuários, agentes, dados e aplicações, com visibilidade e controles contextuais.

 

Conteúdos Relacionados

Security Report | Overview

Explorações com IA são identificadas em pesquisa após violar vulnerabilidades

Pesquisadores analisaram a nova estrutura de exploração com IA, a qual permite que agentes maliciosos acessem vulnerabilidades críticas, forçando as...
Security Report | Overview

Grupo Pão de Açúcar revela estratégia para proteção digital contra ataques cibernéticos

A solução é resultado de parceria entre empresas, ela é reconhecida pela capacidade de detecção, prevenção e recuperação frente a...
Security Report | Overview

Estratégia de brushing é usada para fraudes em operações e-commerce, mostra análise

Relatório revela que diversas fraudes podem começar em uma entrega após a compra não realizada em e-commerce, o "brushing" é...
Security Report | Overview

União Europeia caminha para reconhecer equivalência entre LGPD e GDPR

Segundo relatório a iniciativa divulgada pela União Europeia reconhece que o nível de proteção de dados assegurado no Brasil pode...