30% das empresas desconfiarão da autenticação de identidade isolada, afirma Gartner

O aumento de incidentes contra identidade usando deepfakes gerados por IA farão com que as empresas percam confiança nas ferramentas isoladas de autenticação. Assim, o Gartner orienta que os CISOs e líderes de Segurança garantam uma visão ampla sobre os riscos enfrentados e as respostas planejadas para eles

Compartilhar:

O Gartner prevê que até 2026 os ataques que utilizam Deepfakes geradas por Inteligência Artificial (IA) para criar falsas biometrias faciais farão com que 30% das empresas deixem de considerar essas soluções de verificação e autenticação de identidade como confiáveis quando usadas isoladamente.

 

“Na última década, ocorreram vários pontos de interferência nos domínios da Inteligência Artificial que permitem a criação de imagens sintéticas. A Deepfake é um tipo de tecnologia que pode ser usada para criar vídeos falsos, geralmente com o objetivo de enganar as pessoas. Estas imagens geradas artificialmente de rostos de pessoas reais podem ser utilizadas por indivíduos mal-intencionados para minar a autenticação biométrica ou torná-la ineficiente”, afirma Akif Khan, Vice-Presidente e Analista do Gartner.

 

“Como resultado, as empresas podem começar a questionar a confiança das soluções de verificação e autenticação de identidade, uma vez que não poderão dizer se o rosto que está sendo verificado é de uma pessoa real ou não.”

 

Os processos de verificação e autenticação de identidade usando biometria facial hoje dependem da detecção de ataques de apresentação (PAD) para avaliar a vivacidade do usuário. “Os padrões e processos de teste atuais para definir e avaliar mecanismos PAD não cobrem ataques de injeção digital usando Deepfakes geradas por IA que atualmente podem ser criadas”, disse Khan.

 

Segundo pesquisa do Gartner, os ataques de apresentação são o vetor mais comum, mas os ataques de injeção aumentaram 200% em 2023. Prevenir tais ataques exigirá uma combinação de PAD, detecção de ataques de injeção (IAD) e inspeção de imagens.

 

Combinação contra Deepfakes

Para ajudar as empresas a se protegerem contra as falsificações geradas com Inteligência Artificial para além da biometria facial, os CISOs e líderes de gestão de riscos devem escolher fornecedores que possam demonstrar suas capacidades e um plano que vai além das normas atuais, assim como comprovar que estão monitorando, classificando e quantificando esses novos tipos de ataques.

 

“As empresas devem começar a definir uma linha de base mínima de controles, trabalhando com fornecedores que investiram especificamente na atenuação das mais recentes ameaças baseadas em Deepfake, utilizando a detecção de ataques de injeção em conjunto com a inspeção de imagens”, afirma Khan.

 

Uma vez definida a estratégia e estabelecida a linha de base, os CISOs e os líderes de gestão de riscos devem incluir sinais adicionais de reconhecimento, como a identificação de dispositivos e a análise comportamental, para aumentar a detecção de eventuais ataques e riscos aos processos de verificação de identidade.

 

Acima de tudo, os líderes de segurança e de gestão de riscos responsáveis pela administração de identidades e acessos devem tomar medidas para mitigar os riscos de ataques de Deepfake orientadas por Inteligência Artificial, selecionando tecnologias que possam provar a presença humana genuína e implementando medidas adicionais para evitar a apropriação de contas.

Conteúdos Relacionados

Security Report | Overview

Caso Vercel: IA vira vetor de ataque e expõe risco sistêmico em frameworks web

Violação via Inteligência Artificial de terceiros amplia riscos na cadeia de suprimentos e revela falta de visibilidade sobre dependências críticas
Security Report | Overview

Pesquisa detecta novo ataque de roubo de dados por financiamento de veículos

Ataque identificado pela Tempest explora a busca por emprego no setor de logística para roubar dados e realizar biometria facial...
Security Report | Overview

Pix evolui na devolução de valores, mas enfrenta desafio da manipulação humana

Aprimoramento do ressarcimento pós-fraude expõe a necessidade urgente de novas estratégias preventivas contra a engenharia social
Security Report | Overview

Relatório detecta 309 bancos de dados de organizações brasileiras expostos

No Mês da Mentira, estudo Digital Footprint Intelligence revela que violações de redes brasileiras se tornam moeda de troca para...