IA na nuvem pode ser vulnerável a falhas críticas e riscos de segurança, aponta relatório

Relatório da Tenable revela que combinações inseguras entre IA e nuvem expõem dados sensíveis a vulnerabilidades críticas, erros de configuração e riscos de envenenamento de modelos

Compartilhar:

A Tenable lançou o Relatório Tenable 2025: Riscos da IA na Nuvem. A pesquisa mostrou como a Inteligência Artificial baseada na nuvem é propensa a combinações tóxicas evitáveis que tornam dados e modelos confidenciais vulneráveis à manipulação, à adulteração e ao vazamento de dados.

 

Segundo a pesquisa, a nuvem e a IA estão transformando o ambiente organizacional, mas ambas apresentam riscos cibernéticos complexos quando combinadas. O relatório destacou o estado atual dos riscos de segurança em ferramentas e estruturas de desenvolvimento de IA em nuvem e em serviços de IA oferecidos pelos três principais provedores: Amazon Web Services (AWS), Google Cloud Platform (GCP) e Microsoft Azure.

 

Entre as principais constatações do relatório incluem que as cargas de trabalho de IA na nuvem não são imunes a vulnerabilidades. Sendo aproximadamente 70% das cargas de trabalho de IA na nuvem contêm pelo menos uma vulnerabilidade não corrigida. Em particular, a Tenable Research descobriu a CVE-2023-38545, uma vulnerabilidade crítica do cURL, em 30% das cargas de trabalho de IA na nuvem.

 

De acordo com os dados, também existem configurações incorretas na nuvem no estilo Jenga®1 em serviços de IA gerenciados, sendo 77% das organizações têm a conta de serviço padrão do Compute Engine com privilégios excessivos configurada no Google Vertex AI Notebooks. Isso significa que todos os serviços criados neste Compute Engine padrão estão em risco. Utilizando o conceito de Jenga, um bloco mal configurado na torre de aplicações pode causar uma falha catastrófica e/ou abrir portas para invasores.

 

Além disso, a Tenable afirmou que os dados de treinamento de IA são suscetíveis ao envenenamento, o que ameaça distorcer os resultados do modelo: 14% das organizações que usam o Amazon Bedrock (plataforma de inteligência artificial criada pela Amazon) não bloqueiam explicitamente o acesso público a pelo menos um bucket (refere-se a um ambiente virtual onde é possível armazenar e gerenciar dados de forma organizada) de treinamento de IA e 5% têm pelo menos um bucket excessivamente permissivo.

 

Ainda, as instâncias de notebook do Amazon SageMaker (serviço de aprendizagem de máquina gerenciado pela AWS) concedem acesso root (acesso completo, na origem) por padrão.  Como resultado, a pesquisa afirmou que 91% dos usuários do Amazon SageMaker têm pelo menos um notebook que, se comprometido, pode conceder acesso não-autorizado a qualquer usuário, resultando na possível modificação de todos os arquivos nele.

 

Destaques

Colunas & Blogs

Conteúdos Relacionados

Security Report | Overview

Carnaval Online em Salvador traz WiFi com Segurança para foliões

A Prefeitura soteropolitana, em parceria com a Fortinet, implementa um sistema de conectividade e Segurança Cibernética para o Carnaval da...
Security Report | Overview

Palo Alto Networks conclui aquisição da CyberArk focada em IA Segura

Companhia de Cibersegurança integrará plataforma de Segurança unificada para identidades humanas, de máquinas e de agentes
Security Report | Overview

Check Point reforça estratégia de IA Segura com três novas aquisições

Companhia define plano em quatro pilares para a transformação de IA nas empresas e anuncia aquisições da Cyata, Cyclops e...
Security Report | Overview

Sophos adquire a Arco Cyber para elevar estratégia de desenvolvimento do CISO

Novidade permite que a companhia entregue governança de cibersegurança aprimorada por IA a um mercado ainda pouco atendido, oferecendo às...