IA na nuvem pode ser vulnerável a falhas críticas e riscos de segurança, aponta relatório

Relatório da Tenable revela que combinações inseguras entre IA e nuvem expõem dados sensíveis a vulnerabilidades críticas, erros de configuração e riscos de envenenamento de modelos

Compartilhar:

A Tenable lançou o Relatório Tenable 2025: Riscos da IA na Nuvem. A pesquisa mostrou como a Inteligência Artificial baseada na nuvem é propensa a combinações tóxicas evitáveis que tornam dados e modelos confidenciais vulneráveis à manipulação, à adulteração e ao vazamento de dados.

 

Segundo a pesquisa, a nuvem e a IA estão transformando o ambiente organizacional, mas ambas apresentam riscos cibernéticos complexos quando combinadas. O relatório destacou o estado atual dos riscos de segurança em ferramentas e estruturas de desenvolvimento de IA em nuvem e em serviços de IA oferecidos pelos três principais provedores: Amazon Web Services (AWS), Google Cloud Platform (GCP) e Microsoft Azure.

 

Entre as principais constatações do relatório incluem que as cargas de trabalho de IA na nuvem não são imunes a vulnerabilidades. Sendo aproximadamente 70% das cargas de trabalho de IA na nuvem contêm pelo menos uma vulnerabilidade não corrigida. Em particular, a Tenable Research descobriu a CVE-2023-38545, uma vulnerabilidade crítica do cURL, em 30% das cargas de trabalho de IA na nuvem.

 

De acordo com os dados, também existem configurações incorretas na nuvem no estilo Jenga®1 em serviços de IA gerenciados, sendo 77% das organizações têm a conta de serviço padrão do Compute Engine com privilégios excessivos configurada no Google Vertex AI Notebooks. Isso significa que todos os serviços criados neste Compute Engine padrão estão em risco. Utilizando o conceito de Jenga, um bloco mal configurado na torre de aplicações pode causar uma falha catastrófica e/ou abrir portas para invasores.

 

Além disso, a Tenable afirmou que os dados de treinamento de IA são suscetíveis ao envenenamento, o que ameaça distorcer os resultados do modelo: 14% das organizações que usam o Amazon Bedrock (plataforma de inteligência artificial criada pela Amazon) não bloqueiam explicitamente o acesso público a pelo menos um bucket (refere-se a um ambiente virtual onde é possível armazenar e gerenciar dados de forma organizada) de treinamento de IA e 5% têm pelo menos um bucket excessivamente permissivo.

 

Ainda, as instâncias de notebook do Amazon SageMaker (serviço de aprendizagem de máquina gerenciado pela AWS) concedem acesso root (acesso completo, na origem) por padrão.  Como resultado, a pesquisa afirmou que 91% dos usuários do Amazon SageMaker têm pelo menos um notebook que, se comprometido, pode conceder acesso não-autorizado a qualquer usuário, resultando na possível modificação de todos os arquivos nele.

 

Destaques

Colunas & Blogs

Conteúdos Relacionados

Security Report | Overview

ANPD defende convergência regulatória e direitos fundamentais no Parlamento Europeu

Transformação da Autarquia em agência reguladora e a decisão de adequação mútua entre Brasil e União Europeia consolidam o país...
Security Report | Overview

Falhas críticas no Claude Code permitem roubo de chaves de API, aponta análise

A exposição de chaves de API da Anthropic representava risco corporativo significativo em ambientes colaborativos e espaços de trabalho compartilhados
Security Report | Overview

Ciberataques ao setor financeiro sobem 115% e Brasil se destaca regionalmente

Pesquisa da Check Point Software aponta que automação, uso de IA e ampliação da superfície de ataque elevam riscos e...
Security Report | Overview

Pesquisa detecta “inflação” de ciberataques no setor elétrico

Relatório da Redbelt Security mapeia explosão de tentativas de invasão, maturidade desigual entre usinas e subestações e riscos concentrados na...