Avanço das deepfakes movimenta indústria em favor da detecção com IA embarcada

Segundo pesquisa da Kaspersky, o número de golpes por fake news de produções digitais teve um aumento de 900% em um ano

Compartilhar:

Segundo dados da Kaspersky, o número de vídeos utilizando golpes por deepfake online teve um aumento de 900% em um ano. Apesar de divertido e capaz de aumentar as possibilidades de criação de conteúdos, essa tecnologia também tem o potencial de causar danos significativos, desde desinformação até ataques à reputação, uma vez que ela consegue clonar a imagem ou a voz de alguém.

 

Entre empresas ou até mesmo no dia a dia de pessoas físicas, o uso dos deepfakes para fraudes também é algo que preocupa. Por isso, as companhias estão buscando cada vez mais soluções eficientes para evitar as fraudes utilizando o método. Para Marcelo Peixoto, CEO da Minds Digital, a autenticação por voz se apresenta como uma solução promissora para combater esses golpes.

 

“A partir da tecnologia de anti-spoofing, a IA consegue determinar se o conteúdo é de uma voz natural ou sintética, sabendo diferenciar suas características únicas e se ela é humana ou produzida artificialmente. Com a tecnologia unida à ciência de dados nós conseguimos altos níveis de acurácia, para autenticar clientes em 1 segundo, gerando uma fricção mínima na experiência do cliente”, afirma o executivo.
Diante desse cenário, o CEO da Minds Digital listou diversos mitos e verdades sobre deepfakes. O primeiro ponto é que a tecnologia nem sempre é fácil de detectar. Embora existam avanços constantes na identificação, especialmente por meio de métodos baseados em inteligência artificial, como análise de padrões e reconhecimento de anomalias, os criadores também estão constantemente refinando suas técnicas para torná-los mais convincentes e indetectáveis.

 

Além disso, embora casos de vídeos e músicas utilizando imagens e vozes de artistas sejam conhecidos, a tecnologia é usada para diversos propósitos, incluindo sátira política, paródias, e até mesmo fins maliciosos, como golpes de phishing ou contra a reputação de pessoas. Outro objetivo pode ser a desinformação: A capacidade de criar vídeos convincentes de eventos fictícios ou declarações falsas pode ser explorada para espalhar fake news e manipular a opinião pública.

Os avanços na inteligência artificial, especialmente em redes neurais e aprendizado profundo, continuam a melhorar a qualidade e a autenticidade dos deepfakes. Devido a isso, pesquisadores e empresas estão investindo em ferramentas de detecção e autenticação do conteúdo digital. Por mais que existam preocupações sobre o uso de tecnologias avançadas, sempre é possível determinar se algum conteúdo é sintético. Afinal, da mesma forma que a tecnologia evolui para a criação do conteúdo, ela evolui na detecção desses indícios que se trata de um conteúdo falso.

 

O uso não consensual de deepfakes pode violar a privacidade das pessoas e causar danos à reputação. Muitos países estão considerando ou implementando legislações para lidar com o uso inadequado de deepfakes, como aqui no Brasil, foi recentemente aprovado o Plano Nacional de Cibersegurança.

Conteúdos Relacionados

Security Report | Overview

IA na nuvem pode ser vulnerável a falhas críticas e riscos de segurança, aponta relatório

Relatório da Tenable revela que combinações inseguras entre IA e nuvem expõem dados sensíveis a vulnerabilidades críticas, erros de configuração...
Security Report | Overview

Cibercrime explora morte do Papa para disseminar campanhas falsas

Cibercriminosos lançam diversos tipos de campanhas, começando por aquelas de desinformação em plataformas de mídia social para i atrás de...
Security Report | Overview

Quando o mundo desliga: a ilusão da segurança na era digital

Em um mundo onde a conectividade é vital, a preparação para falhas sistêmicas não é uma opção, mas é uma...
Security Report | Overview

Ataques de ransomware registram aumento de 110% em relação à 2024

Os ataques baseados em sequestro de dados tiveram um aumento de 110% em relação ao mesmo período no ano passado;...