Shadow IA expande riscos e exige gerenciamento de dados em IA, detecta relatório

Relatório revela aumento crítico de riscos com a expansão da shadow IA e impulsiona novas estratégias de segurança para o uso empresarial de GenAI

Compartilhar:

O Relatório de Ameaças e Nuvem de IA Generativa de 2025, realizado pelo Netskope Threat Labs, afirma que as organizações experimentaram um aumento de 30 vezes nos dados enviados para aplicações de GenAI apenas por usuários internos no último ano. Segundo o relatório, isso é chamado de “shadow IA”, evento no qual os colaboradores acessam ferramentas de GenAI usando contas pessoais, cerca de 72% dos usuários analisados na pesquisa.

 

Vulnerabilidades das empresas

A Nestkope explica que rápida adoção da Inteligência Artificial ​​por organizações empresariais criou um ecossistema complexo. O  acesso aos recursos de IA integrados e aos agentes de IA é feito em todos os diferentes níveis de usuários e até em operações comerciais. Esse sistema cria uma superfície de ataque ampliada e com mais desafios de visibilidade e execução, conforme o diz  relatório.

 

Nova abordagem

Dessa forma, as organizações passam a exigir uma abordagem unificada e fim-a-fim para proteger essas aplicações ​​em seus negócios desde a  GenAI até a IA agêntica. A fim de minimizar os riscos e, ao mesmo tempo, manter os funcionários produtivos no uso da Inteligência Artificial.

 

“As organizações precisam saber que os dados que alimentam qualquer parte de seu ecossistema de IA são seguros em todas as fases da interação, reconhecendo como eles podem ser usados ​​em aplicações, acessados ​​por usuários e incorporados a agentes de IA”, disse Sanjay Beri, CEO da Netskope.

 

Segurança em IA

A empresa também divulgou sua nova plataforma, na qual clientes podem aproveitar as funcionalidades com recursos de gerenciamento de postura de segurança de dado (Data Security Posture Management – DSPM) para mitigar riscos da adoção de IA e prevenir vazamentos de dados confidenciais inseridos nos modelos de linguagem grandes (LLMs).

 

Segundo a empresa, a plataforma gerencia novos riscos introduzidos pela adoção e desenvolvimento dessas aplicações ao fornecer um entendimento dos dados confidenciais.  Os especialistas reforçam a funcionalidade da ferramenta, feita para o usuário tomar decisões sobre a seleção de aplicações e a definição de políticas. Além de atingir uma gama de casos de uso de segurança, a fim de assegurar o uso da IA entre usuários, agentes, dados e aplicações, com visibilidade e controles contextuais.

 

Destaques

Colunas & Blogs

Conteúdos Relacionados

Security Report | Overview

Uso corporativo de GenAI cresce, mas falhas de governança ampliam risco de vazamento de dados

Relatório da Netskope mostra que violações de políticas ligadas à IA generativa dobraram em 2025, enquanto metade das empresas ainda...
Security Report | Overview

CES 2026 amplia o debate sobre cibersegurança em um mundo cada vez mais conectado

Avanço de dispositivos inteligentes, IA embarcada e mobilidade reforçam a necessidade de tratar segurança como um processo contínuo, com impactos...
Security Report | Overview

Riscos na implementação da IA estão entre os principais desafios apontados por CEOs

Estudo da EY-Parthenon mostra que tecnologia e dados seguem no centro das estratégias de investimento dos CEOs, em meio a...
Security Report | Overview

Gartner alerta: governança, segurança e resiliência redefinem Infraestrutura e Operações

Relatório aponta seis tendências que pressionam líderes de I&O a rever arquitetura, soberania digital e gestão de riscos