ChatGPT: herói ou vilão?

A aplicação de inteligência artificial lançada em versão beta tem gerado especulações sobre seus usos para o cibercrime. Segundo especialista estudioso da ferramenta, é necessário manter a atenção para as atividades da IA sem comprometer as boas práticas

Compartilhar:

O impacto das tecnologias baseadas em Inteligência Artificial tem assumido cada vez mais um protagonismo dentre as principais tendências. Isso ficou evidente com a recente explosão de recursos da ferramenta ChatGPT. Entretanto, o uso dessa tecnologia tem levantado questionamentos sobre até que ponto essas capacidades podem ajudar os usuários ou colocá-los em risco.

 

Entre essas descobertas, uma delas acendeu um alerta na comunidade de cibersegurança no mundo, quando se passou a ver a possibilidade de usar a máquina para produzir códigos capazes de atuar em ações maliciosas usando phishing. Em fóruns clandestinos sobre o tema, hackers já discutem métodos para direcionar a IA de forma a produzir e-mails maliciosos capazes de aplicar shells reversos nos alvos.

 

Um dos responsáveis por testar os usos perigosos do ChatGPT foi o Gerente de Engenharia de Segurança da Check Point Software Brasil, Fernando de Falchi. O especialista comentou em entrevista à Security Report que, embora essa aplicação ainda dependa de algum conhecimento técnico para que seja útil, o risco está em expandir as possibilidades de fraudes e ataques cibernéticos para cibercriminosos.

 

“O principal ponto é entregar um script pronto de execução de ação maliciosa para aqueles que possuem pouco conhecimento técnico. Isso abre uma janela muito além do comum, pois esses indivíduos não são capazes de escrever um código malicioso inteiro que lhe permita executar um ataque. Mas ele pode agora usar o ChatGPT para executar algumas ações que facilitem os seus fins”, comentou Falchi.

 

Até o momento, não há limitações para a plataforma de Inteligência Artificial. Qualquer dificuldade específica ficaria a cargo da quantidade de informações adicionadas na aplicação, o que a leva a tomar decisões nem sempre favoráveis ao cibercrime. Uma delas, cita o especialista, é o uso frequente de python nas respostas sobre códigos do ChatGPT, o que pode não ajudar tanto a depender do alvo do hacker.

 

Todavia, um dos medos é justamente limitar demais a ferramenta de forma que ela deixe de ser útil aos fins positivos que ela possua. Infelizmente, qualquer limitação que exista naturalmente ou que seja aplicada poderá ser descoberta pelos cibercriminosos que tratarão de usar essas informações ou mesmo vendê-las no futuro. Assim, Falchi aponta que o caminho para mitigar esses usos tem sido o bloqueio por geolocalização e a geração de IoCs para cada código gerado pelo ChatGPT.

 

“O que talvez possa ser feito é criar um IoC para todo código que for gerado pela máquina e compartilhar esse dado na rede das empresas de cibersegurança. Isso, é claro, vai exigir bastante raciocínio por trás desse trabalho de fazer a própria máquina entender que aquilo pode ser usado em ações maliciosas”, citou o Gerente de Engenharia de Segurança.

 

“Sobre a Geolocalização, isso permitiria a aplicação não ser executada por inteiro ou parcialmente, limitando o acesso a informações de uso malicioso em determinadas regiões do planeta. Mesmo assim, já existem conversas em fóruns sobre como burlar os sistemas de geolocalização do ChatGPT”.

 

ChatGPT para o bem

Apesar desses problemas, Fernando Falchi também ressaltou as aplicações positivas da funcionalidade, considerando que tanto o ChatGPT quanto qualquer outra tecnologia baseada em IA generativa chegaram para fincar raízes no mercado de dados. Então, se essa se tornar a nova realidade, é importante que todas as potencialidades positivas sejam cultivadas corretamente.

 

“Um grande exemplo de aplicação positiva está na educação. Há um grande potencial para o desenvolvimento do ensino, considerando que ele pode passar toda a informação disponível para um processo de aprendizagem. Além da produção de conteúdo em linhas gerais ou mesmo desenvolvimento de códigos não hostis”, citou o especialista.

 

Da mesma maneira que hackers podem conseguir criar estruturas de ataque, os profissionais da SI também serão capazes de criar suas próprias defesas. Segundo Falchi, isso se dará quando o mercado tiver condições de ver ações maliciosas realmente saindo de dentro da ferramenta, permitindo o mapeamento de códigos em prol da proteção dos dados.

 

“Se é possível criar um código malicioso para uso em uma ação de shell reverso, por exemplo, com toda a certeza esse código vai acabar sendo repetido na resposta para outras perguntas similares. Portanto, isso nos permitiria entender qual é esse código extraído do ChatGPT para mapeá-lo tal qual um artefato malicioso já conhecido: deixa de ser necessário fazer repetidas análises sobre o mesmo recurso se ele já tem um IoC rastreável”, conclui.

 

Destaques

Colunas & Blogs

Conteúdos Relacionados

Security Report | Destaques

IA X Cibersegurança: como o setor pode desmistificar a tecnologia?

Dado os diversos impactados gerados pela Inteligência Artificial nos negócios e na vida pessoal de todas as pessoas, pensar nos...
Security Report | Destaques

Mais de 100 empresas são afetadas por ataque hacker à Oracle, aponta Google

De acordo com as investigações, as campanhas de extorsão estão supostamente ligadas ao grupo CL0P, que pode ter explorado falhas...
Security Report | Destaques

Invasão por phishing gera prejuízo à Prefeitura de Ribeirão do Sul (SP)

Polícia Civil iniciou investigação para apurar o desvio de R$ 718 mil da Prefeitura, causado pelo comprometimento de credenciais no...
Security Report | Destaques

“Proteger acessos depende de Zero Trust, conscientização e tecnologia”, defende Líder de Cyber

O atual cenário de ameaças no Brasil reforça uma visão clara: as identidades se tornaram o principal vetor de acessos...