O Relatório de Ameaças e Nuvem de IA Generativa de 2025, realizado pelo Netskope Threat Labs, afirma que as organizações experimentaram um aumento de 30 vezes nos dados enviados para aplicações de GenAI apenas por usuários internos no último ano. Segundo o relatório, isso é chamado de “shadow IA”, evento no qual os colaboradores acessam ferramentas de GenAI usando contas pessoais, cerca de 72% dos usuários analisados na pesquisa.
Vulnerabilidades das empresas
A Nestkope explica que rápida adoção da Inteligência Artificial por organizações empresariais criou um ecossistema complexo. O acesso aos recursos de IA integrados e aos agentes de IA é feito em todos os diferentes níveis de usuários e até em operações comerciais. Esse sistema cria uma superfície de ataque ampliada e com mais desafios de visibilidade e execução, conforme o diz relatório.
Nova abordagem
Dessa forma, as organizações passam a exigir uma abordagem unificada e fim-a-fim para proteger essas aplicações em seus negócios desde a GenAI até a IA agêntica. A fim de minimizar os riscos e, ao mesmo tempo, manter os funcionários produtivos no uso da Inteligência Artificial.
“As organizações precisam saber que os dados que alimentam qualquer parte de seu ecossistema de IA são seguros em todas as fases da interação, reconhecendo como eles podem ser usados em aplicações, acessados por usuários e incorporados a agentes de IA”, disse Sanjay Beri, CEO da Netskope.
Segurança em IA
A empresa também divulgou sua nova plataforma, na qual clientes podem aproveitar as funcionalidades com recursos de gerenciamento de postura de segurança de dado (Data Security Posture Management – DSPM) para mitigar riscos da adoção de IA e prevenir vazamentos de dados confidenciais inseridos nos modelos de linguagem grandes (LLMs).
Segundo a empresa, a plataforma gerencia novos riscos introduzidos pela adoção e desenvolvimento dessas aplicações ao fornecer um entendimento dos dados confidenciais. Os especialistas reforçam a funcionalidade da ferramenta, feita para o usuário tomar decisões sobre a seleção de aplicações e a definição de políticas. Além de atingir uma gama de casos de uso de segurança, a fim de assegurar o uso da IA entre usuários, agentes, dados e aplicações, com visibilidade e controles contextuais.