Setor de manufatura amadurece o uso de IA e reduz riscos, aponta pesquisa

Pesquisa revela que o setor manufatureiro está reduzindo a dependência de ferramentas de IA não autorizadas, com crescimento expressivo no uso de soluções aprovadas pelas equipes de TI

Compartilhar:

Uma nova pesquisa do Netskope Threat Labs mostra que as empresas do setor manufatureiro estão quase equilibrando o uso de ferramentas de IA autorizadas e não autorizadas, a diferença entre elas é de apenas 10 pontos percentuais. Segundo a pesquisa, isso significa que a adoção de soluções de IA aprovadas pelas equipes de TI vem crescendo rapidamente, reduzindo a dependência de ferramentas usadas sem controle de segurança ou supervisão.

 

O estudo mostra que a adoção da GenAI permanece alta e consistente na indústria manufatureira, com 94% das organizações utilizando esse tipo de aplicação. O uso de ferramentas pessoais e não gerenciadas caiu de 83% em dezembro de 2024 para 51% em setembro de 2025, enquanto o uso de soluções aprovadas pelas empresas cresceu de 15% para 42%. Esses números evidenciam uma mudança significativa em todo o setor rumo a uma abordagem mais governada e segura para o uso da IA.

 

“Observamos que as organizações do setor manufatureiro têm adotado medidas concretas para submeter a IA aos controles de governança e implementar uma supervisão estruturada. A lacuna entre o uso gerenciado de IA e a Shadow AI não gerenciada está diminuindo, o que sugere que os esforços para adotar oficialmente essas tecnologias com segurança e governança adequadas estão dando resultado”, diz Gianpietro Cutolo, pesquisador de Ameaças em Nuvem no Netskope Threat Labs.

 

O relatório também indica que 29% das organizações do setor já utilizam pelo menos uma das três principais plataformas de GenAI para operar sistemas privados de inteligência artificial. O Azure OpenAI lidera esse movimento, seguido pelo Amazon Bedrock e pelo Google Vertex AI. A adoção na indústria manufatureira ainda está ligeiramente abaixo da média global, o que demonstra um potencial contínuo de crescimento à medida que as empresas avançam na integração de infraestruturas corporativas de GenAI com mais segurança.

 

Quando ocorrem violações das políticas de dados, tanto no uso pessoal quanto corporativo de IA e aplicações em nuvem, a maioria dos incidentes envolve tentativas de compartilhamento de dados regulamentados (41%), propriedade intelectual (32%) e senhas ou chaves de API (19%), segundo especialistas. O relatório alerta que essas exposições colocam em risco não apenas a conformidade, mas também a vantagem competitiva das empresas, devido à alta sensibilidade da propriedade intelectual e dos dados operacionais do setor.

 

“À medida que o setor avança em direção a plataformas com mecanismos de segurança e termos e condições apropriados para empresas, os fabricantes mostram que inovação e segurança podem caminhar juntas. O próximo desafio será manter esse equilíbrio à medida que a IA se torna cada vez mais integrada às operações e à produção”, conclui Gianpietro.

 

Conteúdos Relacionados

Security Report | Overview

Exploração de vulnerabilidades é principal causa de ransomware no setor da saúde, aponta relatório

Estudo também revelou um crescimento de ameaças de extorsão sem criptografia e forte impacto psicológico nas equipes de TI e...
Security Report | Overview

Tecnologias convergentes devem redefinir Cibersegurança 2026, prevê análise

Análise Global prevê que convergência entre IA autônoma, computação quântica e Web 4.0 deve transformar a inovação e elevar os...
Security Report | Overview

Estudo: quase 50% das empresas brasileiras não sabem como priorizar os investimentos em SI

Falta de diagnósticos e avaliações de riscos tornam as organizações reativas em relação à proteção. Especialistas indicam como entender o...
Security Report | Overview

Gartner identifica pontos cegos críticos da GenAI e alerta CIOs

Até 2030, mais de 40% das organizações sofrerão incidentes de segurança ou conformidade relacionados com shadow AI não autorizada