Clonagem de voz por IA impulsiona nova onda de fraudes corporativas

Check Point Software alerta para o uso de deepfakes em ataques de phishing multicanal que simulam executivos em tempo real e já causam prejuízos de US$ 26 milhões

Compartilhar:

A IA generativa transformou radicalmente a engenharia social, o que antes exigia pesquisa manual, agora é gerado em segundos: mensagens personalizadas, vozes clonadas e vídeos indistinguíveis da realidade. Incidentes recentes já causaram perdas milionárias e interrupções operacionais graves, pois verificar a identidade em plataformas de colaboração tornou-se um desafio crítico para as organizações. 

  

A clonagem de voz e imagem em tempo real eliminou os sinais de alerta tradicionais, dificultando a identificação de golpes à primeira vista. Nesse cenário, a Check Point ampliou seu portfólio de Infinity Global Services (IGS) para fortalecer as defesas corporativas. Embora a tecnologia evolua, os criminosos seguem explorando o elo mais fraco da corrente: o erro humano. 

  

A escala dos ataques é impressionante, em Hong Kong, um funcionário financeiro transferiu US$ 26 milhões após uma videoconferência com executivos falsos gerados por deepfake. Por outro lado, a Ferrari frustrou um golpe similar quando um colaborador fez uma simples pergunta de verificação ao suposto CEO, pequeno gesto que foi suficiente para desmascarar a fraude. 

  

O phishing moderno não se limita ao e-mail, ele avança por chat, chamadas e videoconferências, mimetizando contextos reais de fornecedores e colegas. Com a IA aprimorando a linguagem, erros ortográficos e construções estranhas desapareceram. Isso exige que as equipes aprendam a verificar a intenção de cada solicitação, em vez de confiar apenas em indícios visuais. 

  

Para responder a essa ameaça, o IGS desenvolveu o treinamento SmartAwareness, focado na segurança na era da IA. O programa inclui o kit “Digital Detective”, com módulos específicos sobre como identificar conteúdos sintéticos. O objetivo é ir além de ações pontuais, investindo em microtreinamentos imediatos que reforçam boas práticas assim que uma falha é detectada. 

  

A Check Point recomenda protocolos rígidos de verificação, como confirmar transferências por um segundo canal independente e realizar simulações multicanal regulares. “Quando a IA permite criar vozes e vídeos difíceis de distinguir dos reais, pausar e confirmar quem está de fato do outro lado pode ser decisivo”, alerta a companhia, reforçando que a defesa agora depende de hábitos de verificação. 

 

Conteúdos Relacionados

Security Report | Overview

Fator humano está presente em 60% das violações de dados globais

Estratégias de defesa avançam sobre a gestão de identidades e cultura organizacional para mitigar riscos de engenharia social e uso...
Security Report | Overview

IA agêntica e deepfakes ameaçam empresas no 2º trimestre, alerta pesquisa

Relatório revela que a industrialização do crime e o uso de IA ofensiva estão forçando organizações a redesenhar protocolos de...
Security Report | Overview

59% dos dados expostos pela IA são informações reguladas no setor financeiro

Relatório revela que, embora instituições tenham migrado para ferramentas de IA gerenciadas, a mistura entre contas pessoais e corporativas ampliou...
Security Report | Overview

Atividade de bots de IA cresce 300% e ameaça receitas em paywall

Relatório revela que assistentes de IA geram 96% menos tráfego de referência do que buscas tradicionais, elevando custos e pressionando...