IA na nuvem pode ser vulnerável a falhas críticas e riscos de segurança, aponta relatório

Relatório da Tenable revela que combinações inseguras entre IA e nuvem expõem dados sensíveis a vulnerabilidades críticas, erros de configuração e riscos de envenenamento de modelos

Compartilhar:

A Tenable lançou o Relatório Tenable 2025: Riscos da IA na Nuvem. A pesquisa mostrou como a Inteligência Artificial baseada na nuvem é propensa a combinações tóxicas evitáveis que tornam dados e modelos confidenciais vulneráveis à manipulação, à adulteração e ao vazamento de dados.

 

Segundo a pesquisa, a nuvem e a IA estão transformando o ambiente organizacional, mas ambas apresentam riscos cibernéticos complexos quando combinadas. O relatório destacou o estado atual dos riscos de segurança em ferramentas e estruturas de desenvolvimento de IA em nuvem e em serviços de IA oferecidos pelos três principais provedores: Amazon Web Services (AWS), Google Cloud Platform (GCP) e Microsoft Azure.

 

Entre as principais constatações do relatório incluem que as cargas de trabalho de IA na nuvem não são imunes a vulnerabilidades. Sendo aproximadamente 70% das cargas de trabalho de IA na nuvem contêm pelo menos uma vulnerabilidade não corrigida. Em particular, a Tenable Research descobriu a CVE-2023-38545, uma vulnerabilidade crítica do cURL, em 30% das cargas de trabalho de IA na nuvem.

 

De acordo com os dados, também existem configurações incorretas na nuvem no estilo Jenga®1 em serviços de IA gerenciados, sendo 77% das organizações têm a conta de serviço padrão do Compute Engine com privilégios excessivos configurada no Google Vertex AI Notebooks. Isso significa que todos os serviços criados neste Compute Engine padrão estão em risco. Utilizando o conceito de Jenga, um bloco mal configurado na torre de aplicações pode causar uma falha catastrófica e/ou abrir portas para invasores.

 

Além disso, a Tenable afirmou que os dados de treinamento de IA são suscetíveis ao envenenamento, o que ameaça distorcer os resultados do modelo: 14% das organizações que usam o Amazon Bedrock (plataforma de inteligência artificial criada pela Amazon) não bloqueiam explicitamente o acesso público a pelo menos um bucket (refere-se a um ambiente virtual onde é possível armazenar e gerenciar dados de forma organizada) de treinamento de IA e 5% têm pelo menos um bucket excessivamente permissivo.

 

Ainda, as instâncias de notebook do Amazon SageMaker (serviço de aprendizagem de máquina gerenciado pela AWS) concedem acesso root (acesso completo, na origem) por padrão.  Como resultado, a pesquisa afirmou que 91% dos usuários do Amazon SageMaker têm pelo menos um notebook que, se comprometido, pode conceder acesso não-autorizado a qualquer usuário, resultando na possível modificação de todos os arquivos nele.

 

Destaques

Colunas & Blogs

Conteúdos Relacionados

Security Report | Overview

Ferramenta de IA possui vulnerabilidades que possibilitam roubo de dados, afirma estudo

Estudo revela falhas ocultas de IA que permitem a exfiltração de dados, a anulação da segurança e o comprometimento persistente...
Security Report | Overview

Aumento de apps espiões em celulares acende alerta para Segurança, diz pesquisa

Levantamento  mostra avanço de softwares que espionam crianças e adolescentes; especialistas explicam como identificá-los e o que fazer para removê-los
Security Report | Overview

73% dos brasileiros já caíram em phishing, afirma pesquisa

Pesquisa mostra que em apenas um ano, o Brasil registrou 553 milhões de ataques de phishing, uma média de 1,5...
Security Report | Overview

ANPD se reúne com órgão britânico para discutir proteção de menores na rede

ANPD marca encontro com agência reguladora internacional para discutir implementação do ECA Digital e reforçar medidas de proteção para crianças...