Cibercriminosos criam “gêmeos digitais” maliciosos para simular comportamento de vítimas

Relatório da Trend Micro alerta para o potencial de ameaça em que informações pessoais violadas/vazadas serão utilizadas para treinar um LLM, simulando o comportamento, a personalidade e o estilo de escrita de uma vítima/funcionário

Compartilhar:

Os ataques altamente personalizados e baseados em IA vão potencializar os golpes digitais e as fraudes de phishing em 2025, afetando as operações das empresas e a segurança dos usuários. É o que prevê o estudo “The Easy Way IN/OUT – Securing the Artificial Future”, da Trend Micro.

 

Além desse levantamento, a empresa destacou no relatório de Previsões de SI para 2025 um alerta para o potencial de “gêmeos digitais” maliciosos, em que informações pessoais violadas/vazadas serão utilizadas para treinar um LLM (Large Language Model), simulando o comportamento, a personalidade e o estilo de escrita de uma vítima/funcionário.

 

Quando implementados em deepfake, com vídeo e áudio combinados com dados biométricos comprometidos, podem ser usados para fraude de identidade ou para enganar um amigo, colega ou membro da família. O alerta da empresa chama atenção para ações maliciosas, onde criminosos vão continuar criando novas maneiras de explorar áreas vulneráveis, aumentando o risco à medida que as empresas expandem a superfície de ataque.

Deepfakes e IA também podem ser aplicados em ataques hiper personalizados em larga escala para:

1.Aprimorar golpes de Business Email Compromise (BEC), conhecidos como “Fraude do CEO” e de “Funcionários Fake”;

2.Identificar vítimas para o golpe “pig butchering” (“abate do porco”, em tradução livre), que é chamado assim por suas vítimas sofrerem forte manipulação emocional;

3.Atrair e seduzir essas vítimas antes de entregá-las a um operador humano, que pode conversar por meio do “filtro de personalidade” de um LLM;

4.Melhorar a coleta de informações de código aberto por adversários;

5.Desenvolver o pré-ataque para elevar as chances de sucesso do ataque;

6.Criar perfis fakes de mídia social que pareçam autênticos para espalhar desinformação e promover golpes em escala.

 

As empresas que adotarem IA amplamente em 2025 precisarão estar atentas, ainda, a ameaças como a exploração de vulnerabilidades e o sequestro de agentes de IA para manipulá-los com a intenção de promover ações prejudiciais ou não autorizadas. Também é um risco o vazamento não intencional de informações de IA Generativa assim como o consumo benigno ou mal-intencionado de recursos do sistema por agentes de IA levando à negação de serviço.

 

“A perspectiva de lucros cada vez mais altos motiva os cibercriminosos a desenvolverem ferramentas nefastas de IA Generativa. Sem falar que o uso crescente da IA amplia a necessidade de medidas de segurança robustas, para garantir às equipes de TI visibilidade de ponta a ponta”, ressalta Cesar Candido, diretor geral da Trend Micro Brasil.

Fora do mundo das ameaças de IA, o relatório destaca áreas adicionais de preocupação em 2025, incluindo vulnerabilidades como os bugs de gerenciamento e corrupção de memória, escapes de contêineres, ransomwares focados na nuvem, em dispositivos de IoT e em tecnologia de computação de borda.

Conteúdos Relacionados

Security Report | Overview

Aumento dos agentes de IA reforça demanda por Zero Trust, aponta estudo

Novo relatório Cyber Pulse, da Microsoft, alerta para riscos de Segurança com agentes de IA operando em 80% das empresas...
Security Report | Overview

72 minutos: Pesquisa mostra aceleração no crime digital

Relatório Global de 2026 revela que 25% dos ataques mais rápidos roubaram dados em 72 minutos e 87% das invasões...
Security Report | Overview

Dados e nuvem são os pilares da resiliência financeira em 2026?

Integração, governança e cloud híbrida sustentam as operações críticas do setor, conforme analisa especialista do mercado de SI
Security Report | Overview

Agronegócio sofreu quase 40 mil ciberataques em 2025, diz estudo

Levantamento da ISH Tecnologia revela pressão contínua em sistemas de campo e táticas de reconhecimento que buscam paralisar a produção