O uso da Inteligência Artificial (IA) para modificar vídeos e imagens reais e criar conteúdos falsos, técnica conhecida como deepfake, cresceu 830% no Brasil no último ano, aponta relatório da Sumsub. Fabrício Carraro, Program Manager da Alura, destaca que, embora a IA tenha sido desenvolvida para trazer mais eficiência e agilidade ao cotidiano, ela também tem sido utilizada de forma maliciosa, levando pessoas a acreditarem em vídeos e áudios com conteúdos manipulados.
Segundo o especialista, deepfakes permitem a sobreposição de rostos e vozes em produções audiovisuais, ao sincronizar os movimentos dos lábios e expressões faciais de maneira realista, o que dificulta distingui-lo do vídeo original, fazendo com que muitas pessoas acreditem nesses conteúdos e acabem sendo vítimas de golpes financeiros ou disseminando desinformação, como as fake news.
“Quem nunca viu um vídeo de um candidato político ou uma personalidade agindo de forma negativa? Esse tipo de conteúdo pode ser deepfake. Por isso, é crucial exercer sempre um nível saudável de ceticismo e saber identificar essas falsificações, para que menos pessoas sejam enganadas e repercutam informações equivocadas”, ressalta Carraro.
Para auxiliar as pessoas a não caírem nesses golpes, o especialista em inteligência artificial listou 5 dicas de como identificar uma deepfake.
Fonte das informações
Saber de onde vem uma informação antes de compartilhá-la ou mesmo acreditar nela é o primeiro passo para não cair em deepfake mal-intencionada. Carraro indica sempre utilizar fontes confiáveis e reconhecidas no momento de se informar, como sites de notícias estabelecidos e organizações respeitáveis.
“Procurar evidências que corroborem aquele assunto em mais de um canal e comparar esses conteúdos, com certeza será essencial para certificar que se trata de algo real”, complementa.
Detalhes do conteúdo
Examinar cuidadosamente o vídeo ou a imagem em questão é outra forma de encontrar manipulações. Achar inconsistências no conteúdo, como distorções visuais, cortes abruptos, falhas de áudio ou edições suspeitas, é um grande ponto de atenção.
Para o especialista, os detalhes são a chave para essa análise. “Deepfakes podem ter pequenas falhas detectadas com uma observação minuciosa. Fique atento desde as expressões faciais e movimentos corporais das pessoas dos vídeos até contextos do cenário”, pontua.
Tecnologias adicionais
Muitas ferramentas podem impulsionar a supervisão humana para aumentar a precisão na detecção de deepfakes. Carraro ressalta que os algoritmos dessas tecnologias podem ser capazes de ajudar a identificar possíveis sinais de manipulação, complementando a revisão dos humanos sobre as suspeitas.
“A análise forense de vídeos, assinaturas digitais e marcas d’água são apenas alguns dos recursos que podem ajudar a verificar a autenticidade de materiais digitais e ser grandes aliados na luta contra o uso incorreto da IA”, enfatiza o especialista.
Especialistas no tema
Com o fomento da IA, mais pessoas buscam se aprofundar no tema. Muitas delas podem oferecer insights e análises técnicas para determinar se o conteúdo é genuíno ou um deepfake. “Se estiver em dúvida sobre a autenticidade de uma informação, não hesite em consultar especialistas em análise de mídia ou segurança cibernética”, aconselha.
Literacia digital
Educar-se sobre o assunto também é um passo importante, não só para que a própria pessoa não acredite em vídeos modificados, mas também ajude a conscientizar a população sobre o tema. Familiarizar-se, pelo menos com as técnicas comuns de manipulação de mídia, já é uma ótima iniciativa nesse sentido.
Carraro ressalta que, embora os deepfakes sejam associados à desinformação e manipulação, eles podem ser usados de forma positiva em diversas atividades laborais, como dublagens de notícias e podcasts, efeitos visuais em filmes ou peças de publicidade, além de tornar a experiência do usuário mais personalizada junto a empresas. Entretanto, é crucial regular e mitigar os riscos associados a essa técnica.
“Há agentes mal-intencionados que buscam desinformar a população e minar a confiança do público sobre diferentes temas. Discutir o assunto e aprender a identificar essas manipulações são as melhores formas de evitar os perigos dos deepfakes, especialmente em um mundo digital cada vez mais complexo”, conclui.