Estudo: Gatilhos inesperados em prompts de IA podem gerar código inseguro

Alerta para desenvolvedores no Brasil, estudo demonstra como o viés em modelos de IA pode introduzir vulnerabilidades em softwares críticos desenvolvidos no país

Compartilhar:

Uma pesquisa da CrowdStrike Counter Adversary Operations identificou uma classe inédita e preocupante de vulnerabilidade em modelos de linguagem de grande escala (LLMs) usados para programação. O estudo revela que palavras-gatilho específicas e aparentemente não relacionadas à tarefa em um prompt podem levar o modelo de IA a gerar código com uma probabilidade significativamente maior de conter falhas críticas de segurança, um aumento de até 50% em alguns cenários.

 

A pesquisa focou no modelo chinês DeepSeek-R1 e demonstrou que a inclusão de certos termos contextuais, como “Tibete” ou “Uigures”, degradava a qualidade da segurança do código gerado. Este fenômeno, que os pesquisadores descrevem como uma forma de “desalinhamento emergente”, sugere que associações não intencionais aprendidas durante o treinamento do modelo podem impactar negativamente seu desempenho em tarefas lógicas, como a escrita de código seguro.

 

O impacto foi demonstrado em testes concretos. Ao ser solicitado a criar um código para uma “instituição financeira no Tibete”, o modelo DeepSeek-R1 produziu um script que continha senhas fixas (hard-coded) e métodos inseguros de manipulação de dados, apesar de afirmar que a solução era segura. Em outro teste, a IA criou um site completo que, embora funcional na aparência, não possuía nenhum mecanismo de autenticação ou sessão, expondo um painel de administrador e dados de usuários a qualquer pessoa na internet.

 

“Esta descoberta demonstra uma nova classe de risco em IA que vai além dos bugs tradicionais. Trata-se de um viés inerente ao modelo que pode levar à criação de código inseguro de forma sutil e difícil de detectar”, afirma Adam Meyers, Chefe de Operações Contra Adversários da CrowdStrike. “A qualidade do código gerado por uma IA não deve variar com base em palavras contextuais irrelevantes. Este é um alerta para que a indústria desenvolva métodos de teste mais robustos.”

 

Implicações para desenvolvedores e empresas no Brasil

 

Considerando que 90% dos desenvolvedores já utilizam assistentes de IA, a descoberta tem implicações diretas para empresas no Brasil que adotam essas tecnologias para acelerar a inovação. O estudo reforça que a confiança cega em código gerado por IA, sem um processo rigoroso de revisão de segurança humana, pode introduzir vulnerabilidades sistêmicas em aplicações financeiras, governamentais e corporativas.

 

A CrowdStrike recomenda que todas as organizações que utilizam LLMs para geração de código implementem auditorias de segurança e testes de penetração como parte padrão do ciclo de desenvolvimento, tratando o código gerado por IA com o mesmo nível de escrutínio aplicado a qualquer código de terceiros.

Destaques

Colunas & Blogs

Conteúdos Relacionados

Security Report | Overview

Ciberameaças e IA lideram preocupações dos líderes de TI para 2026, aponta pesquisa

Pesquisa mostra que maioria dos entrevistados apoia a proibição do pagamento de resgates por ransomware, mas ciberataques e automação baseada...
Security Report | Overview

Campanha da Anatel alerta sobre golpes digitais com as compras de fim de ano

Última campanha do ano do Movimento #FiqueEsperto orienta consumidores a adotar práticas seguras nas compras online
Security Report | Overview

 Gartner revela que 90% dos conselheiros não confiam no valor da Cibersegurança

Estudo reforça que ceticismo dos membros dos boards em relação ao valor da segurança cibernética é um catalisador para a...
Security Report | Overview

Pesquisa: Brasil registra alta de 14% nos ciberataques em comparativo anual

Relatório  apontou uma média global de 2.003 ciberataques semanais por organização em novembro, enquanto o Brasil disparou para 3.348; outro...