Manipulação digital nas eleições: como a IA aumenta os riscos de desinformação

Especialista alerta para o uso crescente das deepfakes nas eleições de 2024 e destaca a importância de identificar fraudes digitais para proteger a democracia

Compartilhar:

Em outubro deste ano, as eleições municipais ocorrerão em todo o Brasil, momento em que os eleitores escolherão o candidato ideal. Até lá, a população precisa estar atenta para possíveis golpes envolvendo deepfakes, um método utilizado para criar imagens, vídeos e áudios falsos que podem parecer realistas.

 

A pesquisa intitulada “Como o Brasileiro se Informa?”, divulgada pelo Valor Econômico e realizada pela Fundamento Análises, uma unidade do Fundamento Grupo de Comunicação especializada em business intelligence, revelou a preocupação dos brasileiros com a geração de deepfakes usando recursos de Inteligência Artificial (IA) durante as eleições de 2024. Segundo o levantamento, 86% dos entrevistados afirmam estar preocupados com a manipulação de fotos ou vídeos falsos de candidatos. Destes, 88% se preocupam com áudios adulterados, e outros 88% com a criação de sites e posts falsificados.

 

Segundo Wanderson Castilho, perito em crimes digitais e CEO da Enetsec, além da população, as deepfakes podem se tornar o principal desafio para os próprios candidatos. Castilho explica que, devido à evolução tecnológica sem precedentes e ao acesso à tecnologia cada vez mais acessível, é possível criar vídeos, áudios e imagens extremamente realistas.

 

Ele ressalta ser necessário estar sempre alerta para vídeos e fotos manipulados. “As deepfakes são ameaças constantes, e os consumidores da internet precisam conseguir identificar possíveis fraudes”, completa. Ainda segundo o levantamento do Valor Econômico, 42% dos entrevistados disseram já ter recebido alguma notícia falsa manipulada por IA. “Essas imagens e vídeos fraudulentos podem enganar os eleitores e promover falsas informações, colocando em risco a democracia e a integridade dos resultados das campanhas, desinformando os eleitores, difamando candidatos ou até mesmo manipulando resultados”, explica Castilho.

 

Identificar deepfakes e conteúdos manipulados é uma área de pesquisa que tem buscado se aprimorar com o tempo, utilizando diferentes técnicas e ferramentas. Segundo Castilho, a análise forense digital, por exemplo, pode detectar anomalias visuais e auditivas, como iluminação inconsistente, artefatos visuais e outros detalhes. “Além disso, as ferramentas forenses examinam os metadados de arquivos de imagem, vídeo e áudio para identificar inconsistências que possam indicar manipulação, como dados de compressão atípicos ou mudanças de formato”, acrescenta.

 

Castilho também ressalta que as empresas podem conscientizar seus colaboradores internos sobre os perigos das deepfakes, estimulando a busca por conhecimento mesmo em um ecossistema vasto como a internet, sendo esta a melhor solução para prevenir que mais pessoas sejam vítimas de fraudes ao longo dos anos. “É muito importante ter um olhar crítico antes de compartilhar qualquer vídeo ou foto na internet. Caso receba algum conteúdo suspeito, mesmo que reforce seu ponto de vista, pare e assista inúmeras vezes, em todas as velocidades, para ficar mais fácil constatar imperfeições”, pontua.

 

Abaixo, o profissional acrescenta um checklist que pode ajudar:

 

• Escute bem os áudiosEmbora o maior objetivo dos vídeos falsos sejam as imagens, os áudios podem revelar falhas. Veja se há ruídos, se a voz está abatida, e se os movimentos físicos estão alinhados à boca do interlocutor;

 

• Observe os movimentos dos olhos e da boca: Apesar da tecnologia estar cada vez mais sofisticada, as expressões ainda dizem muito em vídeos falsos, onde existe um padrão de movimentos robóticos. Para identificar, amplie a imagem do vídeo e observe se os lábios estão mal sincronizados com as falas, nariz desalinhado do queixo, se existem piscadas em excesso, ou nenhuma piscada, em um conteúdo deepfake os movimentos são pouco naturais;

 

• Se atente às emoções: Certifique-se que as emoções estão bem precisas, e se os movimentos condizem com o que está sendo dito;

 

• Observe as cores: Se no vídeo tem cenas muito claras, principalmente ao redor da boca é um grande indicativo. Mudanças repentinas no tom de pele, ou na própria cena também são sinais que você está diante de um vídeo falso;

 

• Qualidade: A qualidade da imagem também vale observar, os vídeos com muito desfoque e pouca nitidez também podem ser falsos;

 

• Veja o vídeo em tela maior: Com uma resolução maior, as chances das falhas passarem despercebidas são menores.

Conteúdos Relacionados

Security Report | Destaques

Cisco emite esclarecimento sobre suposto vazamento de dados

Publicações apontando um possível vazamento de dados anunciado em um fórum na Dark Web circularam durante essa semana. Em nota,...
Security Report | Destaques

Regulação da IA: CISOs e operadores do direito analisam Projeto de Lei

O Senado Federal aprovou a lei em plenário neste mês de dezembro, avançando com a possibilidade de estabelecer normas mais...
Security Report | Destaques

CISO no Board: o desafio de comunicar a linguagem da SI ao negócio

Como líderes de Cibersegurança podem ajustar seu discurso para estabelecer uma ponte efetiva com os conselheiros e influenciar decisões estratégicas
Security Report | Destaques

Unidas Aluguel de Carros identifica tentativa de invasão aos sistemas

Registros de que a companhia havia sido atacada por um ransomware começaram a circular nesta semana, quando grupos de monitoramento...