IA na nuvem pode ser vulnerável a falhas críticas e riscos de segurança, aponta relatório

Relatório da Tenable revela que combinações inseguras entre IA e nuvem expõem dados sensíveis a vulnerabilidades críticas, erros de configuração e riscos de envenenamento de modelos

Compartilhar:

A Tenable lançou o Relatório Tenable 2025: Riscos da IA na Nuvem. A pesquisa mostrou como a Inteligência Artificial baseada na nuvem é propensa a combinações tóxicas evitáveis que tornam dados e modelos confidenciais vulneráveis à manipulação, à adulteração e ao vazamento de dados.

 

Segundo a pesquisa, a nuvem e a IA estão transformando o ambiente organizacional, mas ambas apresentam riscos cibernéticos complexos quando combinadas. O relatório destacou o estado atual dos riscos de segurança em ferramentas e estruturas de desenvolvimento de IA em nuvem e em serviços de IA oferecidos pelos três principais provedores: Amazon Web Services (AWS), Google Cloud Platform (GCP) e Microsoft Azure.

 

Entre as principais constatações do relatório incluem que as cargas de trabalho de IA na nuvem não são imunes a vulnerabilidades. Sendo aproximadamente 70% das cargas de trabalho de IA na nuvem contêm pelo menos uma vulnerabilidade não corrigida. Em particular, a Tenable Research descobriu a CVE-2023-38545, uma vulnerabilidade crítica do cURL, em 30% das cargas de trabalho de IA na nuvem.

 

De acordo com os dados, também existem configurações incorretas na nuvem no estilo Jenga®1 em serviços de IA gerenciados, sendo 77% das organizações têm a conta de serviço padrão do Compute Engine com privilégios excessivos configurada no Google Vertex AI Notebooks. Isso significa que todos os serviços criados neste Compute Engine padrão estão em risco. Utilizando o conceito de Jenga, um bloco mal configurado na torre de aplicações pode causar uma falha catastrófica e/ou abrir portas para invasores.

 

Além disso, a Tenable afirmou que os dados de treinamento de IA são suscetíveis ao envenenamento, o que ameaça distorcer os resultados do modelo: 14% das organizações que usam o Amazon Bedrock (plataforma de inteligência artificial criada pela Amazon) não bloqueiam explicitamente o acesso público a pelo menos um bucket (refere-se a um ambiente virtual onde é possível armazenar e gerenciar dados de forma organizada) de treinamento de IA e 5% têm pelo menos um bucket excessivamente permissivo.

 

Ainda, as instâncias de notebook do Amazon SageMaker (serviço de aprendizagem de máquina gerenciado pela AWS) concedem acesso root (acesso completo, na origem) por padrão.  Como resultado, a pesquisa afirmou que 91% dos usuários do Amazon SageMaker têm pelo menos um notebook que, se comprometido, pode conceder acesso não-autorizado a qualquer usuário, resultando na possível modificação de todos os arquivos nele.

 

Conteúdos Relacionados

Security Report | Overview

Consultoria alerta para falhas críticas em sistemas da Microsoft, VMware e Fortinet

Curadoria mensal aponta vulnerabilidades com exploração ativa e riscos de execução remota de código que impactam diretamente infraestruturas corporativas no...
Security Report | Overview

ANPD discute os novos desafios para a segurança infantil online com o ECA Digital

Em evento em Brasília, agência reforça diálogo institucional para equilibrar a proteção de dados pessoais e o cumprimento da nova...
Security Report | Overview

Ciberataques no Brasil saltam 37% enquanto cenário global atinge níveis recordes

Relatório da Check Point Software revela pressão constante sobre redes mundiais e riscos crescentes de exposição de dados por IA...
Security Report | Overview

CGI.br propõe ajustes estratégicos ao Marco Regulatório da Inteligência Artificial

Em nota técnica sobre o PL 2.338/2023, Comitê defende maior rigor contra deepfakes, vigilância biométrica e proteção ampliada a direitos...