Os ataques altamente personalizados e baseados em IA vão potencializar os golpes digitais e as fraudes de phishing em 2025, afetando as operações das empresas e a segurança dos usuários. É o que prevê o estudo “The Easy Way IN/OUT – Securing the Artificial Future”, da Trend Micro.
Além desse levantamento, a empresa destacou no relatório de Previsões de SI para 2025 um alerta para o potencial de “gêmeos digitais” maliciosos, em que informações pessoais violadas/vazadas serão utilizadas para treinar um LLM (Large Language Model), simulando o comportamento, a personalidade e o estilo de escrita de uma vítima/funcionário.
Quando implementados em deepfake, com vídeo e áudio combinados com dados biométricos comprometidos, podem ser usados para fraude de identidade ou para enganar um amigo, colega ou membro da família. O alerta da empresa chama atenção para ações maliciosas, onde criminosos vão continuar criando novas maneiras de explorar áreas vulneráveis, aumentando o risco à medida que as empresas expandem a superfície de ataque.
Deepfakes e IA também podem ser aplicados em ataques hiper personalizados em larga escala para:
1.Aprimorar golpes de Business Email Compromise (BEC), conhecidos como “Fraude do CEO” e de “Funcionários Fake”;
2.Identificar vítimas para o golpe “pig butchering” (“abate do porco”, em tradução livre), que é chamado assim por suas vítimas sofrerem forte manipulação emocional;
3.Atrair e seduzir essas vítimas antes de entregá-las a um operador humano, que pode conversar por meio do “filtro de personalidade” de um LLM;
4.Melhorar a coleta de informações de código aberto por adversários;
5.Desenvolver o pré-ataque para elevar as chances de sucesso do ataque;
6.Criar perfis fakes de mídia social que pareçam autênticos para espalhar desinformação e promover golpes em escala.
As empresas que adotarem IA amplamente em 2025 precisarão estar atentas, ainda, a ameaças como a exploração de vulnerabilidades e o sequestro de agentes de IA para manipulá-los com a intenção de promover ações prejudiciais ou não autorizadas. Também é um risco o vazamento não intencional de informações de IA Generativa assim como o consumo benigno ou mal-intencionado de recursos do sistema por agentes de IA levando à negação de serviço.
“A perspectiva de lucros cada vez mais altos motiva os cibercriminosos a desenvolverem ferramentas nefastas de IA Generativa. Sem falar que o uso crescente da IA amplia a necessidade de medidas de segurança robustas, para garantir às equipes de TI visibilidade de ponta a ponta”, ressalta Cesar Candido, diretor geral da Trend Micro Brasil.
Fora do mundo das ameaças de IA, o relatório destaca áreas adicionais de preocupação em 2025, incluindo vulnerabilidades como os bugs de gerenciamento e corrupção de memória, escapes de contêineres, ransomwares focados na nuvem, em dispositivos de IoT e em tecnologia de computação de borda.