Levantamento realizado pela Tenable aponta o auxílio da inteligência artificial na defesa a ataques virtuais e mostra como os infratores também estão utilizando esse recurso
Nos últimos meses, especialistas em cibersegurança aumentaram suas preocupações com a inteligência artificial, visto que tecnologias como ChatGPT demonstraram avanços impressionantes dentro da IA generativa. A principal equipe de pesquisadores da Tenable se engajou e analisou a fundo o modelo de linguagem (LLM – Large Language Model) da IA generativa, identificando possibilidades de ser utilizada para iniciativas de defesa e de ataque por parte de invasores.
Segundo mostra a pesquisa, com a habilidade de replicar respostas similares a humanos, a ferramenta traz perigos iminentes. À medida que os LLMs evoluem e são treinados com dados mais específicos para atender a casos de uso direcionados, é de se esperar que agentes mal-intencionados tirem proveito dessas tecnologias emergentes para o desenvolvimento de explorações e outros usos maléficos. O ChatGPT, por exemplo, pode ser utilizado por criminosos como um assistente de texto para criar e-mails de phishing e outras táticas de engenharia social, já que ele esconde fatores que apontam se o e-mail é um golpe, como a linguagem dissonante e erros gramaticais.
Embora os LLMs estejam produzindo trechos de código surpreendentemente precisos, ainda não chegam ao nível de desenvolvedores de malware experientes. Mesmo assim, com a velocidade vertiginosa dos avanços desses modelos, será apenas uma questão de tempo para que a ameaça de malware gerado por uma IA confiável seja percebida.
Um aliado à segurança da informação
Apesar do lado negativo, há diversas possibilidades para uso dessa tecnologia na segurança da informação e na proteção de dados: análise de logs, detecção de anomalias, recursos de triagem e resposta a incidentes — os defensores podem ganhar vantagem. Além do uso de LLMs como o ChatGPT para reduzir a carga de trabalho manual em tarefas de engenharia reversa e pesquisa de segurança, outra via em que a IA pode ser uma ferramenta importante para as equipes de desenvolvimento é a análise de código estático, a fim de identificar códigos que possam ser explorados.
Junto com detecção avançada de ameaças e inteligência de modelos de IA treinados, há diversos casos de uso para ajudar os defensores. Embora estejamos apenas no início da nossa jornada de implementação de IA em ferramentas para pesquisa de segurança, está evidente que os recursos exclusivos que esses LLMs oferecem continuarão a ter impactos profundos para invasores e defensores.
A equipe da Tenable, por exemplo, faz uso da IA para reduzir o trabalho manual, como em casos de caça a falhas (bug hunt) que requerem elevado conhecimento em segurança virtual e habilidades em programação. Além disso, a empresa também está utilizando ferramentas de IA para engenharia reversa, simplificar o processo de depuração (debugging), identificação de vulnerabilidades e configurações incorretas no gerenciamento de identidade e acesso (IAM) – está última, responsável pelo vazamento de 800 milhões de registros da nuvem somente no ano passado.
“A IA apresenta evolução extremamente acelerada e é fundamental que as empresas se antecipem e se defendam das estratégias que os cibercriminosos possam adotar. Nesse contexto, o estudo se mostra um conteúdo rico e necessário para corporações de todos os segmentos que querem aprimorar seu gerenciamento de riscos e vulnerabilidades”, diz Alexandre Sousa, diretor de Engenharia e Arquitetura de Cibersegurança da Tenable para América Latina.