Gartner: agentes de IA reduzirão em 50% o tempo para explorar exposições até 2027

Agentes de IA irão explorar cada vez mais autenticações fracas, automatizando o roubo de credenciais e comprometendo os canais de comunicação de autenticação

Compartilhar:

De acordo com o Gartner, Inc., até 2027, os agentes de Inteligência Artificial (IA) reduzirão em 50% o tempo necessário para explorar as exposições de contas. Os agentes de IA irão viabilizar a automação de mais etapas na apropriação de contas, desde a engenharia social baseada em vozes falsas (deepfake) até a automação de ponta a ponta de abuso de credenciais de usuários.

 

O Vice-Presidente e Analista do Gartner, Jeremy D’Hoinne afirmou que o Account Takeover (ATO), que é a apropriação de contas ainda é um dos vetores de ataques recorrentes. Já que suas credenciais de autentificação não são fortes suficientes, ou seja, as senhas podem ser coletas de diversas maneiras como violação de dados, phishing e malware.

 

“Os invasores, então, utilizam bots para automatizar uma série de tentativas de login em diversos serviços, na esperança de que as credenciais tenham sido reutilizadas em várias plataformas”, concluiu D’Hoinne. Por isso, a previsão do especialista para o futuro da cibersegurança são os produtos web, aplicativos, APIs (Interface de Programação de Aplicativos) e canais de voz para detectar, monitorar e classificar interações envolvendo agentes de IA.  

 

Aumento dos ataques de engenharia social

Além da apropriação de contas, a engenharia social habilitada por tecnologia representará uma ameaça significativa à segurança cibernética corporativa. O Gartner prevê que, até 2028, 40% dos ataques de engenharia social terão como alvo tanto executivos, quanto a força de trabalho em geral. Os atacantes agora estão combinando táticas de engenharia social com técnicas de realidade falsa, como deepfake de áudio e vídeo, para enganar funcionários durante chamadas.

 

O analista sênior do Gartner, Manuel Acosta afirmou que as empresas precisarão adotar medidas  para acompanhar as mudanças no mercado, inclusive em relação aos cibercriminosos. Ele reforçou que os mesmos terão que adaptar procedimentos de trabalho para se tornarem mais resistentes aos ataques, principalmente os que criam uma realidade falsa. “Educar os funcionários sobre o cenário de ameaças em evolução, com treinamentos específicos para engenharia social com deepfakes, é uma etapa fundamental”, complementou Acosta. 

 

Destaques

Colunas & Blogs

Conteúdos Relacionados

Security Report | Overview

Dia das Mães: Riscos de deepfakes e pagamentos urgentes são pontos de atenção na data

Especialista em prevenção a crimes financeiros detalha cuidados essenciais para garantir que o gesto de carinho não termine em prejuízo
Security Report | Overview

Novo ransomware impede recuperação de dados mesmo após pagamento, detecta pesquisa

Análise mostra que malware destrói arquivos críticos de forma irreversível, apresenta falhas em todas as versões e escala ataques por...
Security Report | Overview

Estudo aponta aumento de riscos e custos de incidentes em APIs ligados à IA

Adoção acelerada de Inteligência Artificial sem testes adequados deixa organizações vulneráveis a ataques, com prejuízo médio de US$ 700 mil...
Security Report | Overview

Mercado de apostas online expõe brasileiros a golpes de phishing e falsificação de marca

Pesquisa revela que 70% das maiores plataformas de apostas no Brasil não bloqueiam e-mails fraudulentos ativamente