A IA generativa transformou radicalmente a engenharia social, o que antes exigia pesquisa manual, agora é gerado em segundos: mensagens personalizadas, vozes clonadas e vídeos indistinguíveis da realidade. Incidentes recentes já causaram perdas milionárias e interrupções operacionais graves, pois verificar a identidade em plataformas de colaboração tornou-se um desafio crítico para as organizações.
A clonagem de voz e imagem em tempo real eliminou os sinais de alerta tradicionais, dificultando a identificação de golpes à primeira vista. Nesse cenário, a Check Point ampliou seu portfólio de Infinity Global Services (IGS) para fortalecer as defesas corporativas. Embora a tecnologia evolua, os criminosos seguem explorando o elo mais fraco da corrente: o erro humano.
A escala dos ataques é impressionante, em Hong Kong, um funcionário financeiro transferiu US$ 26 milhões após uma videoconferência com executivos falsos gerados por deepfake. Por outro lado, a Ferrari frustrou um golpe similar quando um colaborador fez uma simples pergunta de verificação ao suposto CEO, pequeno gesto que foi suficiente para desmascarar a fraude.
O phishing moderno não se limita ao e-mail, ele avança por chat, chamadas e videoconferências, mimetizando contextos reais de fornecedores e colegas. Com a IA aprimorando a linguagem, erros ortográficos e construções estranhas desapareceram. Isso exige que as equipes aprendam a verificar a intenção de cada solicitação, em vez de confiar apenas em indícios visuais.
Para responder a essa ameaça, o IGS desenvolveu o treinamento SmartAwareness, focado na segurança na era da IA. O programa inclui o kit “Digital Detective”, com módulos específicos sobre como identificar conteúdos sintéticos. O objetivo é ir além de ações pontuais, investindo em microtreinamentos imediatos que reforçam boas práticas assim que uma falha é detectada.
A Check Point recomenda protocolos rígidos de verificação, como confirmar transferências por um segundo canal independente e realizar simulações multicanal regulares. “Quando a IA permite criar vozes e vídeos difíceis de distinguir dos reais, pausar e confirmar quem está de fato do outro lado pode ser decisivo”, alerta a companhia, reforçando que a defesa agora depende de hábitos de verificação.