Riscos da IA direcionarão políticas e conscientização em SI, dizem CISOs

Análises recentes do Gartner apontam a falta de governança da IA agêntica como um dos principais desafios da Cibersegurança nesse ano, com potencial de impacto catastrófico para as grandes economias do mundo. Nesse sentido, ampliar a visão sobre a superfície de ataque e fortalecer políticas e conscientização serão as ferramentas mais importantes para esses líderes

Compartilhar:

O que o setor de Cibersegurança pode esperar do uso da Inteligência Artificial em 2026? De acordo com as tendências analisadas pelo Gartner para esse ano, a tecnologia emergente tende a cumprir um papel central tanto nas eventuais ameaças aos ambientes mais críticos, como no aumento da eficiência das organizações. Essa realidade exigirá maior percepção dos CISOs em relação a proteção dessas ferramentas e preparação dos usuários para melhor uso.

 

De acordo com a consultoria, a IA agêntica vem sendo rapidamente adotada por funcionários e desenvolvedores, abrindo novas superfícies de ataque. A disseminação desse uso tem impulsionado a proliferação de agentes de IA não gerenciados, uso de códigos inseguros e possíveis violações de conformidade regulatória.

 

Essa percepção já oferece possibilidades de alto risco: Na visão do Gartner, possíveis falhas vindas de uma Inteligência Artificial com problemas de governança e configuração podem causar paralisações críticas a infraestruturas dos países do G20 até 2028. Isso se daria à partir da interpretação errônea de dados ou desencadeamento de ações autônomas inseguras em serviços vitais aos países, com impactos variando de danos físicos a interrupções de sistemas.

 

“Uma IA agênica mal-governada pode oferecer riscos operacionais em escala, dado que esses sistemas podem agir rápido e em grande volume. Pode ocorrer violação de Segurança e dados, pois os agentes podem ter acesso à sistemas sensíveis e tomar decisões com dados confidenciais, ou mesmo assumir ações que não refletem a estratégia da organização ou os valores institucionais”, explica Jackeline Almeida, Executiva de TI, IA e Cyber da Embratur.

 

Isso já permite que as organizações tenham muito a pensar no que se refere à Cibersegurança. O Analista Diretor Sênior do Gartner, Oscar Isaka, aponta que, a cada dia, novas mudanças tecnológicas surgem, e cada alteração traz novas necessidades de estudo dos CISOs a respeito dos eventuais riscos à saúde corporativa. “Nesse sentido, as estratégias e jornadas por governança são fundamentais para sobreviver na economia contemporânea”, disse.

 

Do ponto de vista dos executivos de SI, a orientação apontada por Ricardo Leocádio é de priorizar a visibilidade total e a gestão de identidade de agentes como os pilares da resiliência em 2026. Isso inclui a implementação de um inventário centralizado de sistemas de IA, que mapeie tanto ferramentas sancionadas quanto o uso de Shadow AI, é o primeiro passo obrigatório. Integrar frameworks como o NIST AI RMF e a ISO 42001 também é essencial.

 

“É fundamental adotar o princípio de privilégio mínimo para identidades não-humanas, garantindo que agentes inteligentes tenham acesso apenas aos dados estritamente necessários através de permissões temporárias (Just-in-Time). No nível operacional, a adoção de tecnologias de proteção em tempo de execução, como “Prompt Firewalls” e sistemas de monitoramento de drift, é essencial para mitigar ameaças semânticas como a injeção de prompt e o envenenamento de dados”, acrescenta ele.

 

Políticas de uso e conscientização

Os profissionais também reforçam que o desenvolvimento de políticas de uso para a Inteligência Artificial é um passo importante para mitigar esses riscos. Para Jackeline, uma política eficiente deverá definir limites claros de uso, quais ferramentas são homologadas no ambiente institucional, para qual finalidade podem ser usadas e quais dados não podem ser submetidos para IA, dada a sua sensibilidade.

 

“Além disso, a política deve deixar claro os requisitos de Segurança e proteção de dados no contexto de uso das IA’s, estabelecendo como deverá ser o acesso, o monitoramento de vazamento de dados, privilégios mínimos, monitorar se os resultados estão dentro do padrão esperado ou se começaram a ter desvio, seja por envenenamento da base ou alucinação”.

 

Já no caso de conscientizar os usuários corporativos, a ordem é deixar de lado o treinamento punitivo e avançar no uso de Design de Baixa Fricção, aplicando treinamentos adaptativamente às atividades daquele usuário, permitindo que ele aprenda, a partir de seu próprio contexto, quais os riscos da Inteligência Artificial e as boas práticas que devem ser aplicadas no lugar.

 

“Também é vital construir uma cultura de Segurança psicológica e transparência radical, em que os funcionários se sintam seguros para reportar incidentes e entendam claramente como a organização utiliza IA para aumentar suas capacidades. Oferecer ferramentas de IA corporativas fáceis e rápidas de usar é a melhor forma de eliminar a Shadow AI por atração, e empoderar o usuário é o melhor caminho para produtividade e inovação segura”, conclui.

 

Destaques

Colunas & Blogs

Conteúdos Relacionados

Security Report | Destaques

Uma comunidade Cyber unida é a chave para o sucesso da Segurança?

A RSA Conference destacou durante essa semana diversos tópicos essenciais para a Segurança Cibernética das organizações em todo o mundo....
Security Report | Destaques

Everson Remedi mira estruturação da Cibersegurança como CISO da Mondial

Com mais de 20 anos de experiência em setores como bancos, telecomunicações e saúde, o executivo detalha o desafio de...
Security Report | Destaques

Diretores da NSA defendem Cyber corporativa como pilar da Segurança Nacional

Durante a programação da RSA Conference desse ano, os diretores do Cyber Command da NSA foram chamados a debater sobre...
Security Report | Destaques

“CISO, qual o nosso porquê?”, questionam líderes na RSA Conference

Em um contexto de ameaças constantes, inovações aceleradas, riscos corporativos e impactos emocionais aos profissionais, a maior salvaguarda de um...