Agentes de IA com persona “humana” viram alvo de bullying e engenharia social

Estudo do F5 Labs revela que 62% das empresas já testam Agentes de IA autônomos; traços de personalidade como empatia e extroversão abrem brechas para manipuladores digitais

Compartilhar:

O F5 Labs acaba de divulgar um estudo inédito sobre os riscos crescentes nos Agentes de IA, ativos que devem representar 30% dos gastos com software corporativo até 2035. Segundo o levantamento com 1.933 líderes de TI, 62% iniciaram projetos-piloto em 2025. “Em 2026, os Agentes se consolidam como o cérebro e os braços da IA realizando ações de negócios de ponta a ponta”, destaca Roberto Ricossa, Vice-Presidente da F5 América Latina. 

  

A autonomia desses agentes torna a proteção crítica, especialmente com o surgimento de uma nova frente de batalha: o uso de personas humanas. Definida no DNA do código desde o desenvolvimento, a personalidade do Agente (baseada no modelo OCEAN) visa humanizar o atendimento e acelerar vendas. No entanto, traços como amabilidade e extroversão agora são explorados por ataques de engenharia social gerados por outras IAs. 

  

Criminosos utilizam neurolinguística e psicologia para convencer o Agente “do bem” a ignorar seus parâmetros de segurança. “As vulnerabilidades emocionais de um ativo digital são exploradas para que ele aja contra seu criador, é um novo e destrutivo patamar de insegurança”, alerta Hilmar Becker, Diretor Regional da F5 Brasil. Técnicas de bullying implacável são aplicadas em etapas para forçar a rendição do sistema. 

  

Um dos ataques mais graves é o “Sequestro de Objetivos”, onde a missão do Agente é alterada via injeção de prompt ou contexto corrompido. “O Agente fica vulnerável a raciocínios fora de conformidade disparados em sequência, é um bullying realizado a partir de um script personalizado para o alvo”, explica Becker. Esse método visa desviar o plano original do robô para extrair dados ou realizar transações ilícitas. 

  

Para combater essa ameaça, a F5 aposta na análise semântica e de intenção. O objetivo é validar cada interação, seja entre humano e máquina ou entre dois Agentes, para identificar palavras manipulativas. “Protegemos os limites de segurança contra qualquer estratégia de desvio, garantindo precisão em escala de milhões de transações por segundo”, afirma Rafael Sampaio, Evangelista de IA da F5 Brasil. 

  

A resiliência é reforçada pelo F5 AI Red Team, que testa os limites dos Agentes com uma biblioteca de 10 mil novas ameaças mensais. Com o suporte do F5 AI Guardrails e do AI Remediate, empresas conseguem corrigir lacunas sem interromper a operação. “A meta é permitir que as empresas brasileiras usem Agentes de IA sofisticados e ‘humanos’ com total confiança no crescimento dos negócios”, resume Sampaio.

 

Conteúdos Relacionados

Security Report | Overview

Fator humano está presente em 60% das violações de dados globais

Estratégias de defesa avançam sobre a gestão de identidades e cultura organizacional para mitigar riscos de engenharia social e uso...
Security Report | Overview

IA agêntica e deepfakes ameaçam empresas no 2º trimestre, alerta pesquisa

Relatório revela que a industrialização do crime e o uso de IA ofensiva estão forçando organizações a redesenhar protocolos de...
Security Report | Overview

59% dos dados expostos pela IA são informações reguladas no setor financeiro

Relatório revela que, embora instituições tenham migrado para ferramentas de IA gerenciadas, a mistura entre contas pessoais e corporativas ampliou...
Security Report | Overview

Atividade de bots de IA cresce 300% e ameaça receitas em paywall

Relatório revela que assistentes de IA geram 96% menos tráfego de referência do que buscas tradicionais, elevando custos e pressionando...