Até 2028, 25% de todas as aplicações corporativas de Inteligência Artificial Generativa (GenAI) sofrerão pelo menos cinco incidentes de Segurança menores por ano, um aumento em relação aos 9% em 2025, de acordo com o Gartner Inc.
Conforme as organizações continuam a desenvolver e integrar aplicações de IA Agêntica utilizando tecnologias como o Model Context Protocol (MCP), novos vetores de ataque e práticas de segurança imaturas elevarão significativamente a exposição ao risco.
“O MCP foi desenvolvido para interoperabilidade, facilidade de uso e flexibilidade; portanto, erros de Segurança podem ocorrer sem a supervisão contínua em relação à IA Agêntica. Por isso, a taxa de incidentes deve crescer: Veremos 15% de todas as aplicações corporativas de GenAI sofrerem pelo menos um grande incidente por ano até 2029, contra 3% em 2025”, diz Aaron Lord, Diretor Analista Sênior do Gartner.
À medida que cresce o entusiasmo por estruturas como o MCP, os líderes de engenharia de software devem estar preparados para as realidades de segurança que se seguem, que vão desde incidentes de exposição de dados até vulnerabilidades ocultas em componentes de terceiros amplamente utilizados.
A proteção contra esses riscos exige o estabelecimento de processos rigorosos de revisão de segurança, a priorização de casos de uso de baixo risco, a mitigação de padrões de ameaças conhecidos e o empoderamento de especialistas do domínio para definir proteções que mantenham a Inteligência Artificial Agêntica ao mesmo tempo poderosa e segura.
O design do MCP otimiza a interoperabilidade e a velocidade dos desenvolvedores, e não a aplicação de segurança por padrão, o que significa que erros podem surgir durante o uso normal. Isso pode acontecer especialmente quando os agentes podem acessar dados sensíveis, consumir conteúdo não confiável ou se comunicar externamente no mesmo fluxo. Os líderes de engenharia de software devem tratar qualquer caso de uso que combine esses três fatores como uma “zona proibida” devido ao risco elevado de exfiltração.
“Os líderes de engenharia de software devem colaborar com as equipes de dados, segurança e infraestrutura para criar uma revisão formal de segurança para os casos de uso de MCP, para priorizar padrões de baixo risco e excluir explicitamente combinações de alto risco”, diz Lord.
Segundo o executivo, eles devem reforçar isso com práticas robustas de autenticação e autorização adaptadas especificamente para agentes de IA, e não herdadas de funções de usuários humanos, a fim de manter as permissões estritamente delimitadas.
“A aplicação de medidas de mitigação de padrões de ameaças bem conhecidas, como a proteção contra injeção de conteúdo e o reforço da supervisão de componentes MCP de terceiros, ajudará a fechar as lacunas mais comuns antes que possam ser exploradas”.
Mitigações bem-sucedidas e proativas para a segurança de MCP exigem conhecimento de antipadrões que podem levar a vulnerabilidades. Os líderes de engenharia de software precisarão mitigar as vulnerabilidades do MCP com foco em padrões de ameaças conhecidos, como ataques de injeção de conteúdo, ameaças à cadeia de suprimentos e a divulgação de dados sensíveis ou a escalada de privilégios quando a IA tenta ajudar, mas comete um erro.
“Os líderes de engenharia de software precisarão estabelecer uma propriedade orientada por domínio para servidores MCP, para implementar barreiras de segurança orientadas por domínio”, diz Lord. “A crescente complexidade da IA Agêntica acabará levando a complicações no gerenciamento do acesso aos dados e na manutenção da conformidade.”
Para lidar com isso em escala, o Gartner recomenda que os líderes de engenharia de software colaborem com especialistas do domínio e trabalhem de forma retroativa para garantir interações seguras por padrão para a IA Agêntica.
Será fundamental que os especialistas do domínio predefinam suas proteções antes de permitir que clientes MCP acessem seus dados e recursos. Esses domínios devem ser os proprietários dos servidores MCP e definir as proteções para o uso da IA Agêntica.