O F5 Labs acaba de divulgar um estudo inédito sobre os riscos crescentes nos Agentes de IA, ativos que devem representar 30% dos gastos com software corporativo até 2035. Segundo o levantamento com 1.933 líderes de TI, 62% iniciaram projetos-piloto em 2025. “Em 2026, os Agentes se consolidam como o cérebro e os braços da IA realizando ações de negócios de ponta a ponta”, destaca Roberto Ricossa, Vice-Presidente da F5 América Latina.
A autonomia desses agentes torna a proteção crítica, especialmente com o surgimento de uma nova frente de batalha: o uso de personas humanas. Definida no DNA do código desde o desenvolvimento, a personalidade do Agente (baseada no modelo OCEAN) visa humanizar o atendimento e acelerar vendas. No entanto, traços como amabilidade e extroversão agora são explorados por ataques de engenharia social gerados por outras IAs.
Criminosos utilizam neurolinguística e psicologia para convencer o Agente “do bem” a ignorar seus parâmetros de segurança. “As vulnerabilidades emocionais de um ativo digital são exploradas para que ele aja contra seu criador, é um novo e destrutivo patamar de insegurança”, alerta Hilmar Becker, Diretor Regional da F5 Brasil. Técnicas de bullying implacável são aplicadas em etapas para forçar a rendição do sistema.
Um dos ataques mais graves é o “Sequestro de Objetivos”, onde a missão do Agente é alterada via injeção de prompt ou contexto corrompido. “O Agente fica vulnerável a raciocínios fora de conformidade disparados em sequência, é um bullying realizado a partir de um script personalizado para o alvo”, explica Becker. Esse método visa desviar o plano original do robô para extrair dados ou realizar transações ilícitas.
Para combater essa ameaça, a F5 aposta na análise semântica e de intenção. O objetivo é validar cada interação, seja entre humano e máquina ou entre dois Agentes, para identificar palavras manipulativas. “Protegemos os limites de segurança contra qualquer estratégia de desvio, garantindo precisão em escala de milhões de transações por segundo”, afirma Rafael Sampaio, Evangelista de IA da F5 Brasil.
A resiliência é reforçada pelo F5 AI Red Team, que testa os limites dos Agentes com uma biblioteca de 10 mil novas ameaças mensais. Com o suporte do F5 AI Guardrails e do AI Remediate, empresas conseguem corrigir lacunas sem interromper a operação. “A meta é permitir que as empresas brasileiras usem Agentes de IA sofisticados e ‘humanos’ com total confiança no crescimento dos negócios”, resume Sampaio.