A rápida integração de ferramentas de IA no ambiente corporativo tem criado novas superfícies de exposição e a maioria dos brasileiros não está preparada para lidar com elas. Segundo o Teste Nacional de Privacidade 2025, da NordVPN, 89% dos profissionais no país não compreendem os riscos de privacidade ao utilizar soluções como ChatGPT, Copilot e outras plataformas generativas no trabalho. O uso espontâneo dessas ferramentas tem levado funcionários a inserir dados sensíveis de clientes, estratégias internas e informações pessoais sem avaliar destino, armazenamento ou uso desses conteúdos para treinamentos de modelos.
O problema ultrapassa o ambiente corporativo. A NordVPN aponta que 45% dos brasileiros não conseguem identificar golpes baseados em IA, incluindo deepfakes, clonagem de voz e vídeos hiper-realistas capazes de imitar movimentos humanos com precisão. A sofisticação desses ataques aumenta o impacto financeiro: quase metade das vítimas globais relatou perdas monetárias, e 20% perderam mais de US$ 100.
A empresa alerta que a IA democratizou o cibercrime, eliminando barreiras técnicas para criar phishing convincente, sites falsos e conteúdos sintéticos. A expectativa é que ataques automatizados por IA estejam entre os principais vetores de risco em 2026.
Entre as recomendações da NordVPN, destacam‑se: evitar inserir dados sensíveis em ferramentas generativas; conhecer as políticas de uso de IA das empresas; desconfiar de chamadas inesperadas mesmo com vozes familiares; validar pedidos sensíveis por outro canal; e manter ferramentas de segurança e softwares atualizados.