Na abertura do Security Leaders, que acontece hoje (11) em Curitiba, especialistas colocaram a Inteligência Artificial agêntica no centro das discussões. Mas o que significa, na prática, conceder autonomia real para uma IA dentro de um ambiente corporativo? Como alertou Rui Oliveira, Gerente de SecOps do Grupo Boticário, muitas empresas já avançaram na automação, mas o desafio agora é outro. “Estamos falando de um próximo nível, em que a SI não apenas automatiza, mas delega à IA o poder de decisão e execução. E se um humano erra, o impacto de um agente mal treinado pode ser ainda mais grave.”
Essa transição demanda contexto, e muito. “Se até para o ser humano o contexto é essencial para tomar decisões, para a IA isso é ainda mais crítico”, destacou Rui Oliveira durante o painel de abertura.
Mais do que explorar seu potencial de automação, o foco da discussão no SL Curitiba esteve na autonomia crescente desses agentes e nos riscos embutidos nesse avanço, especialmente sob a ótica da Segurança da Informação.
Segundo projeções da Deloitte, até o fim de 2024, 25% das organizações já terão adotado algum nível de IA agêntica, com esse número saltando para 50% em 2027. O Gartner estima que um terço das aplicações corporativas utilizará esse modelo até 2028, permitindo que até 15% das decisões operacionais diárias sejam tomadas de forma autônoma.
Governança é palavra-chave
Para ter uma IA mais eficaz nas estratégias de Cibersegurança, os painelistas destacaram que é preciso enriquecer os dados e eventos monitorados pelos tradicionais SOCs, qualificando os alertas e garantindo trilhas de auditoria robustas.
José Luiz, Gerente de SI do Grupo Marista, reforçou esse ponto, lembrando que a eficácia da IA depende diretamente da qualidade das configurações e da integração entre as soluções de Segurança. “Estamos dando autonomia para agentes tomarem decisões que antes eram humanas. Mas se os dados estão incompletos ou mal estruturados, os riscos se multiplicam. Governança se torna palavra-chave.”
O conceito de governança apareceu como fio condutor em várias falas do painel. João Fábio de Oliveira, Gerente de SI do Grupo Madero, abordou o tema a partir de uma perspectiva organizacional: “Ao permitir que agentes tomem decisões, é necessário carimbar essa autonomia com alinhamento estratégico. Sem governança, não há segurança nem para o negócio, nem para a IA”, completa o executivo.
O consenso entre os painelistas é que a implementação da IA agêntica deve ser gradual, iniciando pela substituição de tarefas operacionais repetitivas e avançando conforme se ganha maturidade. Para isso, é necessário testar, validar e, sobretudo, compreender o real ganho para a Segurança; sem abrir mão do elemento humano.
“A IA não vem para substituir, mas para assistir. Dois anos atrás era o XDR que prometia resolver tudo. Agora, é a IA. Mas, no fim, ela é só mais uma peça do ecossistema”, concluiu João Oliveira, enfatizando que a tecnologia precisa estar a serviço da estratégia, e não o contrário.