Shadow IA expande riscos e exige gerenciamento de dados em IA, detecta relatório

Relatório revela aumento crítico de riscos com a expansão da shadow IA e impulsiona novas estratégias de segurança para o uso empresarial de GenAI

Compartilhar:

O Relatório de Ameaças e Nuvem de IA Generativa de 2025, realizado pelo Netskope Threat Labs, afirma que as organizações experimentaram um aumento de 30 vezes nos dados enviados para aplicações de GenAI apenas por usuários internos no último ano. Segundo o relatório, isso é chamado de “shadow IA”, evento no qual os colaboradores acessam ferramentas de GenAI usando contas pessoais, cerca de 72% dos usuários analisados na pesquisa.

 

Vulnerabilidades das empresas

A Nestkope explica que rápida adoção da Inteligência Artificial ​​por organizações empresariais criou um ecossistema complexo. O  acesso aos recursos de IA integrados e aos agentes de IA é feito em todos os diferentes níveis de usuários e até em operações comerciais. Esse sistema cria uma superfície de ataque ampliada e com mais desafios de visibilidade e execução, conforme o diz  relatório.

 

Nova abordagem

Dessa forma, as organizações passam a exigir uma abordagem unificada e fim-a-fim para proteger essas aplicações ​​em seus negócios desde a  GenAI até a IA agêntica. A fim de minimizar os riscos e, ao mesmo tempo, manter os funcionários produtivos no uso da Inteligência Artificial.

 

“As organizações precisam saber que os dados que alimentam qualquer parte de seu ecossistema de IA são seguros em todas as fases da interação, reconhecendo como eles podem ser usados ​​em aplicações, acessados ​​por usuários e incorporados a agentes de IA”, disse Sanjay Beri, CEO da Netskope.

 

Segurança em IA

A empresa também divulgou sua nova plataforma, na qual clientes podem aproveitar as funcionalidades com recursos de gerenciamento de postura de segurança de dado (Data Security Posture Management – DSPM) para mitigar riscos da adoção de IA e prevenir vazamentos de dados confidenciais inseridos nos modelos de linguagem grandes (LLMs).

 

Segundo a empresa, a plataforma gerencia novos riscos introduzidos pela adoção e desenvolvimento dessas aplicações ao fornecer um entendimento dos dados confidenciais.  Os especialistas reforçam a funcionalidade da ferramenta, feita para o usuário tomar decisões sobre a seleção de aplicações e a definição de políticas. Além de atingir uma gama de casos de uso de segurança, a fim de assegurar o uso da IA entre usuários, agentes, dados e aplicações, com visibilidade e controles contextuais.

 

Destaques

Colunas & Blogs

Conteúdos Relacionados

Security Report | Overview

Governança e transparência são essenciais para o implementação da IA na Administração Pública, afirma Diretor da ANPD

Especialista reforça a importância de mecanismos de governança e transparência para que o potencial da inteligência artificial seja plenamente alcançado,...
Security Report | Overview

Ataque hacker ao protocolo Balancer causa prejuízo de mais de R$ 100 milhões

Invasão a uma das principais plataformas DeFi comprometeu carteiras digitais e reacendeu o debate sobre segurança e auditoria no ecossistema...
Security Report | Overview

Cibercriminosos exploram a Conferência COP30 em novos golpes de phishing, alerta estudo

Estudo mostra ataques que criam sites falsos de hotéis e acomodações fazendo referência à COP30; especialistas da empresa fornecem orientações...
Security Report | Overview

Gartner prevê que violações regulatórias de IA resultarão em um aumento de 30% em 2028

Estudo aponta que penas 23% dos líderes de TI estão muito confiantes na capacidade de suas organizações de gerenciar componentes...