O que o setor de Cibersegurança pode esperar do uso da Inteligência Artificial em 2026? De acordo com as tendências analisadas pelo Gartner para esse ano, a tecnologia emergente tende a cumprir um papel central tanto nas eventuais ameaças aos ambientes mais críticos, como no aumento da eficiência das organizações. Essa realidade exigirá maior percepção dos CISOs em relação a proteção dessas ferramentas e preparação dos usuários para melhor uso.
De acordo com a consultoria, a IA agêntica vem sendo rapidamente adotada por funcionários e desenvolvedores, abrindo novas superfícies de ataque. A disseminação desse uso tem impulsionado a proliferação de agentes de IA não gerenciados, uso de códigos inseguros e possíveis violações de conformidade regulatória.
Essa percepção já oferece possibilidades de alto risco: Na visão do Gartner, possíveis falhas vindas de uma Inteligência Artificial com problemas de governança e configuração podem causar paralisações críticas a infraestruturas dos países do G20 até 2028. Isso se daria à partir da interpretação errônea de dados ou desencadeamento de ações autônomas inseguras em serviços vitais aos países, com impactos variando de danos físicos a interrupções de sistemas.
“Uma IA agênica mal-governada pode oferecer riscos operacionais em escala, dado que esses sistemas podem agir rápido e em grande volume. Pode ocorrer violação de Segurança e dados, pois os agentes podem ter acesso à sistemas sensíveis e tomar decisões com dados confidenciais, ou mesmo assumir ações que não refletem a estratégia da organização ou os valores institucionais”, explica Jackeline Almeida, Executiva de TI, IA e Cyber da Embratur.
Isso já permite que as organizações tenham muito a pensar no que se refere à Cibersegurança. O Analista Diretor Sênior do Gartner, Oscar Isaka, aponta que, a cada dia, novas mudanças tecnológicas surgem, e cada alteração traz novas necessidades de estudo dos CISOs a respeito dos eventuais riscos à saúde corporativa. “Nesse sentido, as estratégias e jornadas por governança são fundamentais para sobreviver na economia contemporânea”, disse.
Do ponto de vista dos executivos de SI, a orientação apontada por Ricardo Leocádio é de priorizar a visibilidade total e a gestão de identidade de agentes como os pilares da resiliência em 2026. Isso inclui a implementação de um inventário centralizado de sistemas de IA, que mapeie tanto ferramentas sancionadas quanto o uso de Shadow AI, é o primeiro passo obrigatório. Integrar frameworks como o NIST AI RMF e a ISO 42001 também é essencial.
“É fundamental adotar o princípio de privilégio mínimo para identidades não-humanas, garantindo que agentes inteligentes tenham acesso apenas aos dados estritamente necessários através de permissões temporárias (Just-in-Time). No nível operacional, a adoção de tecnologias de proteção em tempo de execução, como “Prompt Firewalls” e sistemas de monitoramento de drift, é essencial para mitigar ameaças semânticas como a injeção de prompt e o envenenamento de dados”, acrescenta ele.
Políticas de uso e conscientização
Os profissionais também reforçam que o desenvolvimento de políticas de uso para a Inteligência Artificial é um passo importante para mitigar esses riscos. Para Jackeline, uma política eficiente deverá definir limites claros de uso, quais ferramentas são homologadas no ambiente institucional, para qual finalidade podem ser usadas e quais dados não podem ser submetidos para IA, dada a sua sensibilidade.
“Além disso, a política deve deixar claro os requisitos de Segurança e proteção de dados no contexto de uso das IA’s, estabelecendo como deverá ser o acesso, o monitoramento de vazamento de dados, privilégios mínimos, monitorar se os resultados estão dentro do padrão esperado ou se começaram a ter desvio, seja por envenenamento da base ou alucinação”.
Já no caso de conscientizar os usuários corporativos, a ordem é deixar de lado o treinamento punitivo e avançar no uso de Design de Baixa Fricção, aplicando treinamentos adaptativamente às atividades daquele usuário, permitindo que ele aprenda, a partir de seu próprio contexto, quais os riscos da Inteligência Artificial e as boas práticas que devem ser aplicadas no lugar.
“Também é vital construir uma cultura de Segurança psicológica e transparência radical, em que os funcionários se sintam seguros para reportar incidentes e entendam claramente como a organização utiliza IA para aumentar suas capacidades. Oferecer ferramentas de IA corporativas fáceis e rápidas de usar é a melhor forma de eliminar a Shadow AI por atração, e empoderar o usuário é o melhor caminho para produtividade e inovação segura”, conclui.