ChatGPT: herói ou vilão?

A aplicação de inteligência artificial lançada em versão beta tem gerado especulações sobre seus usos para o cibercrime. Segundo especialista estudioso da ferramenta, é necessário manter a atenção para as atividades da IA sem comprometer as boas práticas

Compartilhar:

O impacto das tecnologias baseadas em Inteligência Artificial tem assumido cada vez mais um protagonismo dentre as principais tendências. Isso ficou evidente com a recente explosão de recursos da ferramenta ChatGPT. Entretanto, o uso dessa tecnologia tem levantado questionamentos sobre até que ponto essas capacidades podem ajudar os usuários ou colocá-los em risco.

 

Entre essas descobertas, uma delas acendeu um alerta na comunidade de cibersegurança no mundo, quando se passou a ver a possibilidade de usar a máquina para produzir códigos capazes de atuar em ações maliciosas usando phishing. Em fóruns clandestinos sobre o tema, hackers já discutem métodos para direcionar a IA de forma a produzir e-mails maliciosos capazes de aplicar shells reversos nos alvos.

 

Um dos responsáveis por testar os usos perigosos do ChatGPT foi o Gerente de Engenharia de Segurança da Check Point Software Brasil, Fernando de Falchi. O especialista comentou em entrevista à Security Report que, embora essa aplicação ainda dependa de algum conhecimento técnico para que seja útil, o risco está em expandir as possibilidades de fraudes e ataques cibernéticos para cibercriminosos.

 

“O principal ponto é entregar um script pronto de execução de ação maliciosa para aqueles que possuem pouco conhecimento técnico. Isso abre uma janela muito além do comum, pois esses indivíduos não são capazes de escrever um código malicioso inteiro que lhe permita executar um ataque. Mas ele pode agora usar o ChatGPT para executar algumas ações que facilitem os seus fins”, comentou Falchi.

 

Até o momento, não há limitações para a plataforma de Inteligência Artificial. Qualquer dificuldade específica ficaria a cargo da quantidade de informações adicionadas na aplicação, o que a leva a tomar decisões nem sempre favoráveis ao cibercrime. Uma delas, cita o especialista, é o uso frequente de python nas respostas sobre códigos do ChatGPT, o que pode não ajudar tanto a depender do alvo do hacker.

 

Todavia, um dos medos é justamente limitar demais a ferramenta de forma que ela deixe de ser útil aos fins positivos que ela possua. Infelizmente, qualquer limitação que exista naturalmente ou que seja aplicada poderá ser descoberta pelos cibercriminosos que tratarão de usar essas informações ou mesmo vendê-las no futuro. Assim, Falchi aponta que o caminho para mitigar esses usos tem sido o bloqueio por geolocalização e a geração de IoCs para cada código gerado pelo ChatGPT.

 

“O que talvez possa ser feito é criar um IoC para todo código que for gerado pela máquina e compartilhar esse dado na rede das empresas de cibersegurança. Isso, é claro, vai exigir bastante raciocínio por trás desse trabalho de fazer a própria máquina entender que aquilo pode ser usado em ações maliciosas”, citou o Gerente de Engenharia de Segurança.

 

“Sobre a Geolocalização, isso permitiria a aplicação não ser executada por inteiro ou parcialmente, limitando o acesso a informações de uso malicioso em determinadas regiões do planeta. Mesmo assim, já existem conversas em fóruns sobre como burlar os sistemas de geolocalização do ChatGPT”.

 

ChatGPT para o bem

Apesar desses problemas, Fernando Falchi também ressaltou as aplicações positivas da funcionalidade, considerando que tanto o ChatGPT quanto qualquer outra tecnologia baseada em IA generativa chegaram para fincar raízes no mercado de dados. Então, se essa se tornar a nova realidade, é importante que todas as potencialidades positivas sejam cultivadas corretamente.

 

“Um grande exemplo de aplicação positiva está na educação. Há um grande potencial para o desenvolvimento do ensino, considerando que ele pode passar toda a informação disponível para um processo de aprendizagem. Além da produção de conteúdo em linhas gerais ou mesmo desenvolvimento de códigos não hostis”, citou o especialista.

 

Da mesma maneira que hackers podem conseguir criar estruturas de ataque, os profissionais da SI também serão capazes de criar suas próprias defesas. Segundo Falchi, isso se dará quando o mercado tiver condições de ver ações maliciosas realmente saindo de dentro da ferramenta, permitindo o mapeamento de códigos em prol da proteção dos dados.

 

“Se é possível criar um código malicioso para uso em uma ação de shell reverso, por exemplo, com toda a certeza esse código vai acabar sendo repetido na resposta para outras perguntas similares. Portanto, isso nos permitiria entender qual é esse código extraído do ChatGPT para mapeá-lo tal qual um artefato malicioso já conhecido: deixa de ser necessário fazer repetidas análises sobre o mesmo recurso se ele já tem um IoC rastreável”, conclui.

 

Conteúdos Relacionados

Security Report | Destaques

Polícia Federal prende suspeito de hackear autoridades de Segurança

Mandado foi cumprido no âmbito da operação Data Breach, que investiga invasões cibernéticas aos sistemas da própria PF e de...
Security Report | Destaques

74% das organizações possuem storages em nuvem expostos, alerta reporte

A informação foi registrada no mais recente estudo Cloud Risk Report, da Tenable, que também encontrou 84% das empresas com...
Security Report | Destaques

CISO sob os holofotes: o que falta para os líderes assumirem seu papel executivo?

Tanto as novas ameaças de Cibersegurança quanto a maior atenção dos boards sobre esse tema levaram os CISOs a preencherem...
Security Report | Destaques

Hospital da Criança de Brasília confirma paralisação por ataque hacker

Incidente teria se iniciado no último fim de semana, exigindo que a organização indisponibilizasse todos os sistemas e fornecesse os...