Manipulação digital nas eleições: como a IA aumenta os riscos de desinformação

Especialista alerta para o uso crescente das deepfakes nas eleições de 2024 e destaca a importância de identificar fraudes digitais para proteger a democracia

Compartilhar:

Em outubro deste ano, as eleições municipais ocorrerão em todo o Brasil, momento em que os eleitores escolherão o candidato ideal. Até lá, a população precisa estar atenta para possíveis golpes envolvendo deepfakes, um método utilizado para criar imagens, vídeos e áudios falsos que podem parecer realistas.

 

A pesquisa intitulada “Como o Brasileiro se Informa?”, divulgada pelo Valor Econômico e realizada pela Fundamento Análises, uma unidade do Fundamento Grupo de Comunicação especializada em business intelligence, revelou a preocupação dos brasileiros com a geração de deepfakes usando recursos de Inteligência Artificial (IA) durante as eleições de 2024. Segundo o levantamento, 86% dos entrevistados afirmam estar preocupados com a manipulação de fotos ou vídeos falsos de candidatos. Destes, 88% se preocupam com áudios adulterados, e outros 88% com a criação de sites e posts falsificados.

 

Segundo Wanderson Castilho, perito em crimes digitais e CEO da Enetsec, além da população, as deepfakes podem se tornar o principal desafio para os próprios candidatos. Castilho explica que, devido à evolução tecnológica sem precedentes e ao acesso à tecnologia cada vez mais acessível, é possível criar vídeos, áudios e imagens extremamente realistas.

 

Ele ressalta ser necessário estar sempre alerta para vídeos e fotos manipulados. “As deepfakes são ameaças constantes, e os consumidores da internet precisam conseguir identificar possíveis fraudes”, completa. Ainda segundo o levantamento do Valor Econômico, 42% dos entrevistados disseram já ter recebido alguma notícia falsa manipulada por IA. “Essas imagens e vídeos fraudulentos podem enganar os eleitores e promover falsas informações, colocando em risco a democracia e a integridade dos resultados das campanhas, desinformando os eleitores, difamando candidatos ou até mesmo manipulando resultados”, explica Castilho.

 

Identificar deepfakes e conteúdos manipulados é uma área de pesquisa que tem buscado se aprimorar com o tempo, utilizando diferentes técnicas e ferramentas. Segundo Castilho, a análise forense digital, por exemplo, pode detectar anomalias visuais e auditivas, como iluminação inconsistente, artefatos visuais e outros detalhes. “Além disso, as ferramentas forenses examinam os metadados de arquivos de imagem, vídeo e áudio para identificar inconsistências que possam indicar manipulação, como dados de compressão atípicos ou mudanças de formato”, acrescenta.

 

Castilho também ressalta que as empresas podem conscientizar seus colaboradores internos sobre os perigos das deepfakes, estimulando a busca por conhecimento mesmo em um ecossistema vasto como a internet, sendo esta a melhor solução para prevenir que mais pessoas sejam vítimas de fraudes ao longo dos anos. “É muito importante ter um olhar crítico antes de compartilhar qualquer vídeo ou foto na internet. Caso receba algum conteúdo suspeito, mesmo que reforce seu ponto de vista, pare e assista inúmeras vezes, em todas as velocidades, para ficar mais fácil constatar imperfeições”, pontua.

 

Abaixo, o profissional acrescenta um checklist que pode ajudar:

 

• Escute bem os áudiosEmbora o maior objetivo dos vídeos falsos sejam as imagens, os áudios podem revelar falhas. Veja se há ruídos, se a voz está abatida, e se os movimentos físicos estão alinhados à boca do interlocutor;

 

• Observe os movimentos dos olhos e da boca: Apesar da tecnologia estar cada vez mais sofisticada, as expressões ainda dizem muito em vídeos falsos, onde existe um padrão de movimentos robóticos. Para identificar, amplie a imagem do vídeo e observe se os lábios estão mal sincronizados com as falas, nariz desalinhado do queixo, se existem piscadas em excesso, ou nenhuma piscada, em um conteúdo deepfake os movimentos são pouco naturais;

 

• Se atente às emoções: Certifique-se que as emoções estão bem precisas, e se os movimentos condizem com o que está sendo dito;

 

• Observe as cores: Se no vídeo tem cenas muito claras, principalmente ao redor da boca é um grande indicativo. Mudanças repentinas no tom de pele, ou na própria cena também são sinais que você está diante de um vídeo falso;

 

• Qualidade: A qualidade da imagem também vale observar, os vídeos com muito desfoque e pouca nitidez também podem ser falsos;

 

• Veja o vídeo em tela maior: Com uma resolução maior, as chances das falhas passarem despercebidas são menores.

Conteúdos Relacionados

Security Report | Destaques

Parceria de Segurança deve valorizar o papel do CISO na empresa, diz CEO da Netglobe

Novas parcerias no mercado de Cibersegurança têm buscado alinhar com os próprios CISOs as melhores estratégias para expandir o Security...
Security Report | Destaques

Fortinet confirma acesso indevido às informações internas

A vendor apresentou novos detalhes sobre ocorrência em nota endereçada ao mercado e grande público, reafirmando que nenhum cliente foi...
Security Report | Destaques

Security Leaders Fortaleza: IA & SI, liderança, maturidade e fator humano estão em destaque

A programação 100% presencial do evento contará com presença de líderes locais em painéis de debate, visando discutir as principais...
Security Report | Destaques

Segurança otimizada de Nuvem: Como equilibrar custos e proteção eficiente?

Um dos principais desafios do gerenciamento de ambientes de nuvem é controlar os custos sem comprometer a eficiência da operação....