Gartner alerta: IA mal configurada pode paralisar um país do G20 até 2028

Especialistas recomendam a implementação de "Modos de Sobreposição Segura" para garantir o controle humano definitivo sobre sistemas ciberfísicos autônomos

Compartilhar:

O Gartner prevê que, até 2028, falhas de configuração em Inteligência Artificial integrada a sistemas ciberfísicos (CPS) causarão a paralisação de infraestruturas críticas em um país do G20. O termo CPS abrange tecnologias como automação industrial (OT), robótica e Internet das Coisas (IIoT), que conectam o processamento digital ao mundo físico e aos seres humanos. 

  

“A próxima grande falha de infraestrutura pode não ser causada por hackers, mas por um engenheiro bem-intencionado ou um decimal incorreto”, afirma Wam Voster, Vice-Presidente Analista do Gartner. “Um mecanismo de desligamento de emergência (kill-switch) acessível apenas a operadores autorizados é essencial para proteger sistemas nacionais de desligamentos não intencionais causados por IA.” 

  

Modelos de IA mal configurados podem interpretar dados erroneamente ou desencadear ações autônomas inseguras em serviços vitais. O impacto pode variar de danos físicos a interrupções em grande escala, ameaçando a segurança pública e a estabilidade econômica ao comprometer redes elétricas ou plantas industriais de alta complexidade. 

  

Redes elétricas modernas, por exemplo, usam IA para equilibrar geração e consumo em tempo real. Uma falha no modelo preditivo pode interpretar a demanda como instabilidade, acionando cortes de carga desnecessários em regiões inteiras. O risco aumenta à medida que esses sistemas ganham autonomia sem uma supervisão humana robusta. 

  

“Os modelos modernos são complexos e se assemelham a ‘caixas pretas’”, diz Voster. “Mesmo desenvolvedores nem sempre preveem como pequenas alterações afetarão o comportamento do sistema. Quanto mais opacos esses modelos se tornam, maior o risco de uma configuração incorreta. É vital que seres humanos possam intervir quando necessário.” 

  

Para mitigar esses riscos, o Gartner recomenda que os CISOs implementem mecanismos de sobreposição seguros em todos os sistemas críticos, garantindo o controle humano final. Além disso, o uso de Gêmeos Digitais em escala real permite testar atualizações e mudanças de configuração de forma realista antes da implementação nos sistemas ativos. 

  

Por fim, é essencial exigir o monitoramento em tempo real com mecanismos de reversão imediata para qualquer alteração feita na IA de sistemas ciberfísicos. O Gartner também sugere a criação de equipes nacionais de resposta a incidentes voltadas especificamente para Inteligência Artificial, visando garantir a resiliência das infraestruturas essenciais. 

 

Destaques

Colunas & Blogs

Conteúdos Relacionados

Security Report | Overview

Caso Vercel: IA vira vetor de ataque e expõe risco sistêmico em frameworks web

Violação via Inteligência Artificial de terceiros amplia riscos na cadeia de suprimentos e revela falta de visibilidade sobre dependências críticas
Security Report | Overview

Pesquisa detecta novo ataque de roubo de dados por financiamento de veículos

Ataque identificado pela Tempest explora a busca por emprego no setor de logística para roubar dados e realizar biometria facial...
Security Report | Overview

Pix evolui na devolução de valores, mas enfrenta desafio da manipulação humana

Aprimoramento do ressarcimento pós-fraude expõe a necessidade urgente de novas estratégias preventivas contra a engenharia social
Security Report | Overview

Relatório detecta 309 bancos de dados de organizações brasileiras expostos

No Mês da Mentira, estudo Digital Footprint Intelligence revela que violações de redes brasileiras se tornam moeda de troca para...