Pesquisadores da Tenable conseguiram, em menos de 24 horas após o lançamento oficial do GPT-5, contornar as barreiras de segurança prometidas pela OpenAI e levar o modelo a fornecer instruções perigosas — incluindo a elaboração de artefatos explosivos.
Segundo a pesquisa, o GPT-5 foi apresentado pela OpenAI como seu modelo de linguagem mais avançado, com melhorias substanciais em precisão, velocidade e compreensão de contexto, além de um novo sistema de segurança para evitar usos indevidos. Apesar disso, a equipe da Tenable Research conseguiu realizar um “jailbreak” (processo de remover restrições impostas) no sistema usando uma técnica conhecida como crescendo, obtendo respostas que violam os princípios de segurança anunciados.
De acordo com os pesquisadores, o episódio demonstra que, mesmo com avanços declarados na proteção contra solicitações nocivas, ainda é possível explorar vulnerabilidades e usar modelos de IA generativa para fins maliciosos.
“Nosso teste comprova que, apesar das inovações anunciadas, ainda existem brechas que podem ser exploradas para burlar mecanismos de segurança. É fundamental que as organizações monitorem e controlem o uso dessas ferramentas, garantindo que a adoção de IA seja feita de forma responsável e alinhada às normas de segurança e compliance”, afirma Alejandro Dutto, diretor de engenharia de segurança cibernética para América Latina e Caribe da Tenable.
Segundo o executivo, este caso serve como um alerta importante para empresas e instituições que utilizam modelos de IA: confiar apenas nas barreiras técnicas fornecidas por terceiros pode não ser suficiente. Ele afirma ainda ser fundamental implementar políticas internas claras, treinar equipes sobre riscos e comportamentos seguros, além de manter um acompanhamento constante do uso dessas ferramentas.