A Check Point Software alerta que, embora a IA seja adotada para ajudar no combate ao cibercrime e contra as ameaças cibernéticas, vários serviços de IA também estão disponíveis para atacantes. Esta é uma tendência de alto risco que tem transformado o mundo do crime organizado.
Quer criar uma imagem, saber mais sobre um tema interessante, escrever um artigo ou um texto para as redes sociais? Para estes exemplos, uma ferramenta de IA como o ChatGPT pode ajudar em tudo. Mas os cibercriminosos têm à sua disposição ferramentas inteligentes semelhantes. Estas ferramentas de IA utilizadas para o cibercrime podem criar ataques ainda mais eficazes e analisar mais facilmente as informações roubadas.
Os cibercriminosos têm a capacidade de empregar diversas tecnologias de IA para desenvolver e melhorar ameaças e estratégias de ataque. Ferramentas como FraudGPT, XXXGPT ou WolfGPT são exemplos de como a IA pode ser explorada para fins maliciosos.
“Estas ferramentas mostram que os cibercriminosos podem adaptar a IA para tornar os ataques mais eficazes, facilitando o roubo de dados das vítimas. É, portanto, necessário repensar as estratégias de segurança cibernética existentes e também analisar o quadro ético que rege o desenvolvimento e a utilização da IA”, adverte Oded Vanunu, head de Pesquisa de Vulnerabilidades da Check Point Software.
FraudGPT
O FraudGPT representa um marco no uso malicioso da tecnologia de IA, pois é uma plataforma pela qual se pode fazer uma assinatura, como qualquer outro serviço, e permite a criação de identidades falsas, e-mails de phishing eficazes, malware ou o uso de engenharia social para enganar os usuários. Tudo isso pode ser feito em um nível muito elevado, de modo que até mesmo pessoas com habilidades técnicas mínimas possam realizar ataques complexos.
XXXGPT
A ferramenta XXXGPT é popularmente utilizada por criminosos para gerar códigos RAT (Remote Access Trojans) que lhes permitem assumir remotamente o controle do dispositivo de uma vítima e roubar dados sensíveis sem serem detectados ou alterá-los silenciosamente. Também pode gerar spyware, ransomware, keyloggers e códigos especiais para ataques direcionados. Essa ferramenta multiuso também pode criar e distribuir todo tipo de desinformação ou material comprometedor projetado para chantagear e assediar as vítimas.
WolfGPT
O WolfGPT é conhecido por sua complexidade e arquitetura, baseada na linguagem de programação Python. Ele pode criar malware criptografado e campanhas de phishing convincentes. Além disso, permite a criação de um amplo arsenal de armas cibernéticas, incluindo botnets, cavalos de Troia de acesso remoto, keyloggers ou ferramentas para roubo de dados e de criptomoedas. Também é usado por cibercriminosos para criar códigos maliciosos direcionados a PDVs (Pontos de Vendas) e para ataques direcionados a caixas eletrônicos, ou para lavagem de dinheiro e identificação de vulnerabilidades em redes corporativas.
Cibersegurança e implicações éticas
O surgimento de modelos avançados de IA, como o FraudGPT, o XXXGPT e o WolfGPT, exige uma nova abordagem à segurança cibernética, uma vez que as defesas convencionais são insuficientes contra estas ameaças complexas e adaptáveis. Ao mesmo tempo, devem ser abordadas questões éticas relativas à responsabilidade dos criadores de IA e à forma de evitar a utilização indevida da IA em geral.
Ao entrar em uma era de IA em que a dupla utilização dessas tecnologias é cada vez mais evidente, é importante considerar algumas áreas:
Regulamentação e legislação: Introduzir leis e regulamentos sólidos destinados a controlar e supervisionar o desenvolvimento e a utilização das tecnologias de IA.
Educação: Aumentar a sensibilização do público para os riscos associados à IA e fornecer ferramentas e informações para proteção contra fraudes e abusos.
Tecnologia: Desenvolver sistemas e algoritmos de segurança avançados que possam detectar e paralisar serviços de IA perigosos.
Cooperação internacional: Colaboração entre governos, organizações internacionais e empresas de tecnologia para criar normas e protocolos globais para o desenvolvimento de uma IA segura.
“A utilização indevida dos serviços de IA é uma ameaça grave que não pode ser ignorada. É essencial que governos, órgãos reguladores e empresas de tecnologia trabalhem em conjunto para desenvolver e implementar medidas que reduzam a utilização indevida de tecnologias de IA”, conclui Oded Vanunu.