O impacto das tecnologias baseadas em Inteligência Artificial tem assumido cada vez mais um protagonismo dentre as principais tendências. Isso ficou evidente com a recente explosão de recursos da ferramenta ChatGPT. Entretanto, o uso dessa tecnologia tem levantado questionamentos sobre até que ponto essas capacidades podem ajudar os usuários ou colocá-los em risco.
Entre essas descobertas, uma delas acendeu um alerta na comunidade de cibersegurança no mundo, quando se passou a ver a possibilidade de usar a máquina para produzir códigos capazes de atuar em ações maliciosas usando phishing. Em fóruns clandestinos sobre o tema, hackers já discutem métodos para direcionar a IA de forma a produzir e-mails maliciosos capazes de aplicar shells reversos nos alvos.
Um dos responsáveis por testar os usos perigosos do ChatGPT foi o Gerente de Engenharia de Segurança da Check Point Software Brasil, Fernando de Falchi. O especialista comentou em entrevista à Security Report que, embora essa aplicação ainda dependa de algum conhecimento técnico para que seja útil, o risco está em expandir as possibilidades de fraudes e ataques cibernéticos para cibercriminosos.
“O principal ponto é entregar um script pronto de execução de ação maliciosa para aqueles que possuem pouco conhecimento técnico. Isso abre uma janela muito além do comum, pois esses indivíduos não são capazes de escrever um código malicioso inteiro que lhe permita executar um ataque. Mas ele pode agora usar o ChatGPT para executar algumas ações que facilitem os seus fins”, comentou Falchi.
Até o momento, não há limitações para a plataforma de Inteligência Artificial. Qualquer dificuldade específica ficaria a cargo da quantidade de informações adicionadas na aplicação, o que a leva a tomar decisões nem sempre favoráveis ao cibercrime. Uma delas, cita o especialista, é o uso frequente de python nas respostas sobre códigos do ChatGPT, o que pode não ajudar tanto a depender do alvo do hacker.
Todavia, um dos medos é justamente limitar demais a ferramenta de forma que ela deixe de ser útil aos fins positivos que ela possua. Infelizmente, qualquer limitação que exista naturalmente ou que seja aplicada poderá ser descoberta pelos cibercriminosos que tratarão de usar essas informações ou mesmo vendê-las no futuro. Assim, Falchi aponta que o caminho para mitigar esses usos tem sido o bloqueio por geolocalização e a geração de IoCs para cada código gerado pelo ChatGPT.
“O que talvez possa ser feito é criar um IoC para todo código que for gerado pela máquina e compartilhar esse dado na rede das empresas de cibersegurança. Isso, é claro, vai exigir bastante raciocínio por trás desse trabalho de fazer a própria máquina entender que aquilo pode ser usado em ações maliciosas”, citou o Gerente de Engenharia de Segurança.
“Sobre a Geolocalização, isso permitiria a aplicação não ser executada por inteiro ou parcialmente, limitando o acesso a informações de uso malicioso em determinadas regiões do planeta. Mesmo assim, já existem conversas em fóruns sobre como burlar os sistemas de geolocalização do ChatGPT”.
ChatGPT para o bem
Apesar desses problemas, Fernando Falchi também ressaltou as aplicações positivas da funcionalidade, considerando que tanto o ChatGPT quanto qualquer outra tecnologia baseada em IA generativa chegaram para fincar raízes no mercado de dados. Então, se essa se tornar a nova realidade, é importante que todas as potencialidades positivas sejam cultivadas corretamente.
“Um grande exemplo de aplicação positiva está na educação. Há um grande potencial para o desenvolvimento do ensino, considerando que ele pode passar toda a informação disponível para um processo de aprendizagem. Além da produção de conteúdo em linhas gerais ou mesmo desenvolvimento de códigos não hostis”, citou o especialista.
Da mesma maneira que hackers podem conseguir criar estruturas de ataque, os profissionais da SI também serão capazes de criar suas próprias defesas. Segundo Falchi, isso se dará quando o mercado tiver condições de ver ações maliciosas realmente saindo de dentro da ferramenta, permitindo o mapeamento de códigos em prol da proteção dos dados.
“Se é possível criar um código malicioso para uso em uma ação de shell reverso, por exemplo, com toda a certeza esse código vai acabar sendo repetido na resposta para outras perguntas similares. Portanto, isso nos permitiria entender qual é esse código extraído do ChatGPT para mapeá-lo tal qual um artefato malicioso já conhecido: deixa de ser necessário fazer repetidas análises sobre o mesmo recurso se ele já tem um IoC rastreável”, conclui.