Falha crítica é identificada em ferramenta de IA, aponta pesquisa

Em menos de 24 horas após o lançamento, pesquisadores conseguiram infiltram sistema de proteção do modelo de IA e revelam riscos do uso indiscriminado de GenAI

Compartilhar:

Pesquisadores da Tenable conseguiram, em menos de 24 horas após o lançamento oficial do GPT-5, contornar as barreiras de segurança prometidas pela OpenAI e levar o modelo a fornecer instruções perigosas — incluindo a elaboração de artefatos explosivos.

 

Segundo a pesquisa, o GPT-5 foi apresentado pela OpenAI como seu modelo de linguagem mais avançado, com melhorias substanciais em precisão, velocidade e compreensão de contexto, além de um novo sistema de segurança para evitar usos indevidos. Apesar disso, a equipe da Tenable Research conseguiu realizar um “jailbreak” (processo de remover restrições impostas) no sistema usando uma técnica conhecida como crescendo, obtendo respostas que violam os princípios de segurança anunciados.

 

De acordo com os pesquisadores, o episódio demonstra que, mesmo com avanços declarados na proteção contra solicitações nocivas, ainda é possível explorar vulnerabilidades e usar modelos de IA generativa para fins maliciosos.

 

“Nosso teste comprova que, apesar das inovações anunciadas, ainda existem brechas que podem ser exploradas para burlar mecanismos de segurança. É fundamental que as organizações monitorem e controlem o uso dessas ferramentas, garantindo que a adoção de IA seja feita de forma responsável e alinhada às normas de segurança e compliance”, afirma Alejandro Dutto, diretor de engenharia de segurança cibernética para América Latina e Caribe da Tenable.

 

Segundo o executivo, este caso serve como um alerta importante para empresas e instituições que utilizam modelos de IA: confiar apenas nas barreiras técnicas fornecidas por terceiros pode não ser suficiente. Ele afirma ainda ser fundamental implementar políticas internas claras, treinar equipes sobre riscos e comportamentos seguros, além de manter um acompanhamento constante do uso dessas ferramentas.

Conteúdos Relacionados

Security Report | Overview

70% das empresas no Brasil usam IA para se defender de fraudes, afirma estudo

Pesquisa aponta que crimes digitais cresceram 21% entre 2024 e 2025. Uma em cada vinte tentativas de verificação de identidade...
Security Report | Overview

Estudo detecta quase 20 mil violações de Segurança mirando o Agronegócio

Ataques e violações de segurança ao ambiente digital do setor podem paralisar operações, afetar a produção e gerar prejuízos milionários
Security Report | Overview

Média de ataques cibernéticos supera 2 mil casos por semana, afirma pesquisa

Os ataques cibernéticos atingiram quase todos os setores e regiões, marcando um forte aumento em escala e sofisticação; no Brasil,...
Security Report | Overview

Setor industrial lidera ranking de ataques cibernético, aponta análise

Estudo sobre os ataques cibernéticos ao setor industrial revela que um em cada cinco tem como alvo o roubo de...