O Setor de Pesquisas de Ameaças da Trend Micro, líder global em segurança cibernética, alerta para o aumento significativo de ferramentas baseadas em IA disponíveis na chamada dark web. A comercialização de ferramentas de IA Generativa na deepweb está aumentando na mesma velocidade que cresce o uso da IA corporativa – e estão ficando cada dia mais baratas e acessíveis, permitindo que criminosos, independentemente do nível de habilidade, lancem ataques em larga escala com maior facilidade, enganando vítimas para fins de extorsão, roubo de identidade, fraude ou desinformação.
Detectar e derrotar métodos baseados em IA é essencial para melhorar o gerenciamento de risco da superfície de ataque das empresas e reduzir o risco digital para os consumidores. Em pesquisa recente da Trend Micro, 71% dos entrevistados expressaram opinião negativa sobre deepfakes, acreditando que um de seus principais usos são as fraudes. Um deepfake não detectado pode gerar impactos financeiros, perda de postos de trabalho, desafios jurídicos, danos à reputação da empresa, roubo de identidade e prejuízos à saúde mental e física.
Segundo os pesquisadores, apenas algumas semanas após a divulgação do relatório sobre IA Generativa, já se nota o surgimento de ferramentas mais sofisticadas de criação de deepfake. Os atores de ameaças estão proliferando ofertas de Modelos de Linguagem de Grande Escala (do inglês, Large Language Models ou LLMs), que usam algoritmo de aprendizado profundo e outras tecnologias de forma criminosa para aumentar o volume e a extensão de seu alcance.
Aplicativos chamados Deepfake AI, SwapFace e AvatarAI VideoCallSpoofer também foram disponibilizados. Se acreditarmos em seus anúncios, esses aplicativos poderiam substituir um rosto em um vídeo por um rosto totalmente diferente tirado de apenas uma ou algumas fotos, embora existam algumas diferenças importantes na forma como cada oferta funciona.
Enquanto o Deepfake AI suporta vídeos gravados, o SwapFace, por exemplo, é implementado como um filtro de vídeo ao vivo, oferecendo até suporte para ferramentas populares de streaming de vídeo, como o Open Broadcast Software (OBS). Esses bots são treinados especificamente com dados maliciosos, o que inclui código-fonte malicioso, métodos, técnicas e outras estratégias criminosas.
“A necessidade de tais recursos decorre do fato de que os LLMs comerciais são programados para se recusar a obedecer a uma solicitação se esta for considerada maliciosa. Além disso, os atacantes geralmente têm medo de acessar diretamente serviços como o ChatGPT por medo de serem rastreados e expostos”, explica Flávio Silva, especialista em segurança cibernética da Trend Micro.
Flávio ressalta, ainda, que os front-ends de Jailbreak-as-a-service podem, supostamente, contornar essa censura, já que envolvem as perguntas maliciosas do usuário em um prompt especial, projetado para enganar um LLM comercial e persuadi-lo a dar uma resposta não filtrada.
A demanda por LLMs criminais está crescendo lentamente, mas de forma constante. Antigos LLMs criminosos, como WormGPT e DarkBERT, relatados como descontinuados no ano passado, estão de volta à cena. O que vale destacar nas versões recentes de DarkBERT e WormGPT é que ambos são oferecidos como aplicativos com a opção de “kit Siri”. Presume-se que seja uma opção habilitada por voz, semelhante aos recém-lançados assistentes de IA Humane e Rabbit R1. Isso coincide, também, com o anúncio do recurso pela Apple, na próxima atualização do iPhone.