Estudo: Gatilhos inesperados em prompts de IA podem gerar código inseguro

Alerta para desenvolvedores no Brasil, estudo demonstra como o viés em modelos de IA pode introduzir vulnerabilidades em softwares críticos desenvolvidos no país

Compartilhar:

Uma pesquisa da CrowdStrike Counter Adversary Operations identificou uma classe inédita e preocupante de vulnerabilidade em modelos de linguagem de grande escala (LLMs) usados para programação. O estudo revela que palavras-gatilho específicas e aparentemente não relacionadas à tarefa em um prompt podem levar o modelo de IA a gerar código com uma probabilidade significativamente maior de conter falhas críticas de segurança, um aumento de até 50% em alguns cenários.

 

A pesquisa focou no modelo chinês DeepSeek-R1 e demonstrou que a inclusão de certos termos contextuais, como “Tibete” ou “Uigures”, degradava a qualidade da segurança do código gerado. Este fenômeno, que os pesquisadores descrevem como uma forma de “desalinhamento emergente”, sugere que associações não intencionais aprendidas durante o treinamento do modelo podem impactar negativamente seu desempenho em tarefas lógicas, como a escrita de código seguro.

 

O impacto foi demonstrado em testes concretos. Ao ser solicitado a criar um código para uma “instituição financeira no Tibete”, o modelo DeepSeek-R1 produziu um script que continha senhas fixas (hard-coded) e métodos inseguros de manipulação de dados, apesar de afirmar que a solução era segura. Em outro teste, a IA criou um site completo que, embora funcional na aparência, não possuía nenhum mecanismo de autenticação ou sessão, expondo um painel de administrador e dados de usuários a qualquer pessoa na internet.

 

“Esta descoberta demonstra uma nova classe de risco em IA que vai além dos bugs tradicionais. Trata-se de um viés inerente ao modelo que pode levar à criação de código inseguro de forma sutil e difícil de detectar”, afirma Adam Meyers, Chefe de Operações Contra Adversários da CrowdStrike. “A qualidade do código gerado por uma IA não deve variar com base em palavras contextuais irrelevantes. Este é um alerta para que a indústria desenvolva métodos de teste mais robustos.”

 

Implicações para desenvolvedores e empresas no Brasil

 

Considerando que 90% dos desenvolvedores já utilizam assistentes de IA, a descoberta tem implicações diretas para empresas no Brasil que adotam essas tecnologias para acelerar a inovação. O estudo reforça que a confiança cega em código gerado por IA, sem um processo rigoroso de revisão de segurança humana, pode introduzir vulnerabilidades sistêmicas em aplicações financeiras, governamentais e corporativas.

 

A CrowdStrike recomenda que todas as organizações que utilizam LLMs para geração de código implementem auditorias de segurança e testes de penetração como parte padrão do ciclo de desenvolvimento, tratando o código gerado por IA com o mesmo nível de escrutínio aplicado a qualquer código de terceiros.

Destaques

Colunas & Blogs

Conteúdos Relacionados

Security Report | Overview

Black Friday multiplica pontos cegos de segurança nas empresas, alerta pesquisa

Corrida por performance e disponibilidade abre brechas justamente no maior pico de transações do ano
Security Report | Overview

Análise alerta que estreias de filmes podem ser usadas como iscas em golpes online

Pesquisa mostra que interesse em grandes lançamentos podem ser usados para aplicação de golpes de streaming e campanhas de phishing...
Security Report | Overview

Magalu Cloud conquista certificação de gestão de Segurança da Informação

Serviço de nuvem foi reconhecida com a ISO/IEC 27001; Magalu Cloud divulga o teste que comprova a confidencialidade e integridade...
Security Report | Overview

Pesquisa: Black Friday amplia o risco cibernético corporativo na América Latina

Estudo aponta que a América Latina é a segunda região mais afetada por ataques cibernéticos sazonais, impulsionados por campanhas falsas...