ChatGPT: herói ou vilão?

A aplicação de inteligência artificial lançada em versão beta tem gerado especulações sobre seus usos para o cibercrime. Segundo especialista estudioso da ferramenta, é necessário manter a atenção para as atividades da IA sem comprometer as boas práticas

Compartilhar:

O impacto das tecnologias baseadas em Inteligência Artificial tem assumido cada vez mais um protagonismo dentre as principais tendências. Isso ficou evidente com a recente explosão de recursos da ferramenta ChatGPT. Entretanto, o uso dessa tecnologia tem levantado questionamentos sobre até que ponto essas capacidades podem ajudar os usuários ou colocá-los em risco.

 

Entre essas descobertas, uma delas acendeu um alerta na comunidade de cibersegurança no mundo, quando se passou a ver a possibilidade de usar a máquina para produzir códigos capazes de atuar em ações maliciosas usando phishing. Em fóruns clandestinos sobre o tema, hackers já discutem métodos para direcionar a IA de forma a produzir e-mails maliciosos capazes de aplicar shells reversos nos alvos.

 

Um dos responsáveis por testar os usos perigosos do ChatGPT foi o Gerente de Engenharia de Segurança da Check Point Software Brasil, Fernando de Falchi. O especialista comentou em entrevista à Security Report que, embora essa aplicação ainda dependa de algum conhecimento técnico para que seja útil, o risco está em expandir as possibilidades de fraudes e ataques cibernéticos para cibercriminosos.

 

“O principal ponto é entregar um script pronto de execução de ação maliciosa para aqueles que possuem pouco conhecimento técnico. Isso abre uma janela muito além do comum, pois esses indivíduos não são capazes de escrever um código malicioso inteiro que lhe permita executar um ataque. Mas ele pode agora usar o ChatGPT para executar algumas ações que facilitem os seus fins”, comentou Falchi.

 

Até o momento, não há limitações para a plataforma de Inteligência Artificial. Qualquer dificuldade específica ficaria a cargo da quantidade de informações adicionadas na aplicação, o que a leva a tomar decisões nem sempre favoráveis ao cibercrime. Uma delas, cita o especialista, é o uso frequente de python nas respostas sobre códigos do ChatGPT, o que pode não ajudar tanto a depender do alvo do hacker.

 

Todavia, um dos medos é justamente limitar demais a ferramenta de forma que ela deixe de ser útil aos fins positivos que ela possua. Infelizmente, qualquer limitação que exista naturalmente ou que seja aplicada poderá ser descoberta pelos cibercriminosos que tratarão de usar essas informações ou mesmo vendê-las no futuro. Assim, Falchi aponta que o caminho para mitigar esses usos tem sido o bloqueio por geolocalização e a geração de IoCs para cada código gerado pelo ChatGPT.

 

“O que talvez possa ser feito é criar um IoC para todo código que for gerado pela máquina e compartilhar esse dado na rede das empresas de cibersegurança. Isso, é claro, vai exigir bastante raciocínio por trás desse trabalho de fazer a própria máquina entender que aquilo pode ser usado em ações maliciosas”, citou o Gerente de Engenharia de Segurança.

 

“Sobre a Geolocalização, isso permitiria a aplicação não ser executada por inteiro ou parcialmente, limitando o acesso a informações de uso malicioso em determinadas regiões do planeta. Mesmo assim, já existem conversas em fóruns sobre como burlar os sistemas de geolocalização do ChatGPT”.

 

ChatGPT para o bem

Apesar desses problemas, Fernando Falchi também ressaltou as aplicações positivas da funcionalidade, considerando que tanto o ChatGPT quanto qualquer outra tecnologia baseada em IA generativa chegaram para fincar raízes no mercado de dados. Então, se essa se tornar a nova realidade, é importante que todas as potencialidades positivas sejam cultivadas corretamente.

 

“Um grande exemplo de aplicação positiva está na educação. Há um grande potencial para o desenvolvimento do ensino, considerando que ele pode passar toda a informação disponível para um processo de aprendizagem. Além da produção de conteúdo em linhas gerais ou mesmo desenvolvimento de códigos não hostis”, citou o especialista.

 

Da mesma maneira que hackers podem conseguir criar estruturas de ataque, os profissionais da SI também serão capazes de criar suas próprias defesas. Segundo Falchi, isso se dará quando o mercado tiver condições de ver ações maliciosas realmente saindo de dentro da ferramenta, permitindo o mapeamento de códigos em prol da proteção dos dados.

 

“Se é possível criar um código malicioso para uso em uma ação de shell reverso, por exemplo, com toda a certeza esse código vai acabar sendo repetido na resposta para outras perguntas similares. Portanto, isso nos permitiria entender qual é esse código extraído do ChatGPT para mapeá-lo tal qual um artefato malicioso já conhecido: deixa de ser necessário fazer repetidas análises sobre o mesmo recurso se ele já tem um IoC rastreável”, conclui.

 

Conteúdos Relacionados

Security Report | Destaques

Cisco emite esclarecimento sobre suposto vazamento de dados

Publicações apontando um possível vazamento de dados anunciado em um fórum na Dark Web circularam durante essa semana. Em nota,...
Security Report | Destaques

Regulação da IA: CISOs e operadores do direito analisam Projeto de Lei

O Senado Federal aprovou a lei em plenário neste mês de dezembro, avançando com a possibilidade de estabelecer normas mais...
Security Report | Destaques

CISO no Board: o desafio de comunicar a linguagem da SI ao negócio

Como líderes de Cibersegurança podem ajustar seu discurso para estabelecer uma ponte efetiva com os conselheiros e influenciar decisões estratégicas
Security Report | Destaques

Unidas Aluguel de Carros identifica tentativa de invasão aos sistemas

Registros de que a companhia havia sido atacada por um ransomware começaram a circular nesta semana, quando grupos de monitoramento...