Google se posiciona a favor da inserção de recursos de IA Generativa nos processos de proteção de nuvem. De acordo com executivos da empresa, o cenário de grande complexidade da SI exige que velhos processos sejam automatizados com recursos mais modernos de tecnologia
O Google Cloud promoveu hoje (13) o evento “Google Cloud Security Summit”, onde foram apresentados insights sobre proteção de ambientes cloud com o auxílio dos novos recursos de Large Language Model (LLM) desenvolvidos nos últimos anos. A empresa apresentou durante a abertura o cenário atual de risco e ameaças contra os dados armazenados na nuvem e como a Inteligência Artificial ser aplicada em nível estratégico.
Durante a apresentação, os especialistas em Cloud Security relembraram a função transformadora que o artigo “Attention is all you need”, publicado pelo Google Research em 2017, cumpriu na forma como o mercado de TI se relaciona com a IA. Ao abrir caminho para as máquinas entenderem determinados significados de palavras a depender do contexto, um novo conjunto de atividades complexas passou a ser automatizado.
“Desde o lançamento daquele paper, o Google tem trabalhado com uma série de usos das linguagens generativas, especialmente relacionando-as aos nossos serviços de buscadores, conversação direta via chatbots e mesmo tradução multilíngue ou criação de códigos. Recentemente, temos dado mais atenção aos usos que podemos fazer dessas inovações para proteger dados”, explicou Umesh Shankar, Gerente de Tecnologia de Segurança no Google Cloud.
Se a necessidade do momento para aplicação da IA é a Segurança, o mais eficiente será atuar dentro das soluções de armazenamento. Todavia, as dificuldades de Cloud Security se condensam cada vez mais com cenário de ameaças em constante evolução, além de dificuldades em manter os controles adequados de acesso e movimentação dentro desses ambientes.
De acordo com o estudo de ameaças à nuvem produzido pela Mediant e abordado durante as apresentações, o tempo necessário de reação a um ataque de malware antes que seus sistemas de nuvem sejam comprometidos tem reduzido ano a ano, chegando à marca de 16 dias em 2022. Entretanto, quando se considera especificamente o risco de ransomware, o tempo de reação necessário das empresas caiu para 9 dias.
“Essas descobertas são as menores desde o início das nossas medições em 2011. Vimos o tempo de resposta à uma atividade suspeita cair de um ano para pouco mais de uma semana. A única forma de reagir a esse tipo de ameaça tão eficiente exige que tenhamos todos os nossos controles no lugar e funcionando com o máximo de precisão e velocidade possíveis. As equipes de Cyber terão dificuldade em concretizar essa demanda sozinhos”, analisa Kerry Matre, Sr. Director na Mandiant Services & Solutions.
Aplicando a IA em Cyber Security
Assim, os avanços da IA Generativa, especificamente os LLM, oferecem condições de melhorar o trabalho dos Líderes de Segurança e suas equipes, segundo a visão da gigante de tecnologia. Esse avanço pode ser aplicando formas mais eficientes de gerenciar a proteção dos ambientes, bem como oferecer capacidades e expertises de IA para as pessoas ir além daquilo que elas fariam sozinhas.
Nessa perspectiva, o Vice-presidente de Cloud Security no Google Cloud, Sunil Potti, considera que ferramentas com linguagens generativas são capazes de atuar não somente na mitigação de ameaças, como também na redução dos trabalhos exaustivos dos profissionais de SI e ainda viabilizar a atuação mais técnica de colaboradores sem o conhecimento profundo do tema.
“A Inteligência Artificial Generativa é capaz de colocar a Cibersegurança à frente das ameaças ao operacionalizar em tempo real atividades de resposta, permitindo que os sistemas se defendam sozinhos. Isso possibilita a redução da carga de trabalho da SI, podendo focar seus esforços em ações mais críticas e proativas. Por fim, ela pode viabilizar a participação de uma gama maior de profissionais nas estratégicas de defesa, podendo cobrir necessidades técnicas de todas as classes de funcionários dentro da companhia, contribuindo efetivamente para a redução do gap de talentos e a formação de uma cultura sólida de Security First”, afirmou Potti.