Golpes com deepfakes geram prejuízo de U$35 milhões, mostra estudo

Especialistas afirmam que o avanço da automação torna as deepfakes ainda mais preocupantes. Sistemas de telefonia movidos por IA, são capazes de imitar qualquer voz, em qualquer idioma, em múltiplas conversas simultaneamente, sem a necessidade de um operador humano.

Compartilhar:

O Relatório de Segurança em IA 2025, publicado pela Check Point Research aponta que a tecnologia de deepfakes alcançou um novo patamar de maturidade, combinando realismo, automação e ampla disseminação em fóruns da dark web e marketplaces clandestinos. Os pesquisadores apontam no relatório que mais de US$ 35 milhões em perdas foram atribuídos a fraudes envolvendo vídeos deepfakes em apenas dois casos de grande repercussão no Reino Unido e no Canadá.

 

A pesquisa reforçou que em um cenário em que a linha entre realidade e ficção digital se dissolve, os ataques baseados em deepfakes estão mais comuns, personalizados e eficazes, colocando em risco desde usuários individuais até grandes corporações. Ferramentas de voz geradas por IA já são amplamente utilizadas em golpes de sextorsão, personificação de CEOs e sequestros falsos,  como no caso registrado na Itália, onde criminosos se passaram pelo Ministro da Defesa em uma chamada ao vivo para extorquir contatos de alto perfil.

 

Especialistas afirmam que o avanço da automação torna essa ameaça ainda mais preocupante. Sistemas de telefonia movidos por IA, com preço médio de US$ 20 mil, são capazes de imitar qualquer voz, em qualquer idioma, em múltiplas conversas simultaneamente, sem a necessidade de um operador humano. Essas soluções já estão sendo comercializadas abertamente na dark web e marketplaces do Telegram.

 

A evolução da ameaça: do estático ao autônomo

 

Os pesquisadores da Check Point Software delinearam ainda um “Espectro de Maturidade da Deepfake”, destacando como a IA generativa evoluiu da criação de conteúdo estático e que, em breve, alcançará agentes autônomos que conduzem conversas ao vivo por vídeo com alvos desavisados.

Atualmente, as ferramentas maliciosas mais avançadas são impulsionadas por LLMs (Grandes Modelos de Linguagem) como DeepSeek e Gemini, e por modelos personalizados como WormGPT e GhostGPT. Além de criar conteúdo, essas IAs conseguem adaptar tom e linguagem com base nas respostas das vítimas, conduzindo conversas dinâmicas com alto nível de sofisticação.

 

 

Deepfakes acessíveis: a democratização do cibercrime

 

Segundo a análise, o acesso a essas tecnologias não está mais restrito a grupos de elite do cibercrime. Já que qualquer ator mal-intencionado, mesmo com pouca habilidade técnica, pode adquirir ferramentas eficazes. Para os especialistas, o cibercrime terceirizou a criatividade para as máquinas e mesmo atacantes com poucos recursos conseguem lançar operações sofisticadas em larga escala.

 

Conteúdos Relacionados

Security Report | Overview

Banco Central reforça regulamentação após ataques cibernéticos e fraudes financeiras

Após casos de ataques cibernéticos e fraudes, o BC estabelece novas normas, que limitam operações e impõem novas exigências de...
Security Report | Overview

Incidente na AWS reforça importância da continuidade de negócios?

Relatório ressalta falha recente que interrompe operações globais e evidencia importância de planos de contingência
Security Report | Overview

Brasil assina Convenção da ONU contra o cibercrime

O tratado provê base normativa para a tipificação de crimes cibernéticos, inclusive o abuso sexual infantil por meio digital. A...
Security Report | Overview

Alerta: golpe de compartilhamento de tela que circula na Europa pode ser aplicado no Brasil

Relatório explica esquema que explora função pouco usada do aplicativo de mensagens