Por Leidivino Natal da Silva*
Verificar a fonte da informação é a maior recomendação para lidar com deepfakes. Conteúdos gerados por IA evoluem na velocidade da tecnologia e ainda estamos aprendendo sobre como são criados e disseminados. O realismo atrelado ao seu mau uso pode gerar sérias consequências e danos irreversíveis e, por isso, pessoas e companhias buscam medidas para se protegerem e minimizarem os danos do compartilhamento de imagens falsas.
Para identificar o uso criminoso da inteligência artificial, algumas recomendações são fundamentais para entender e compreender como pessoas ou grupos usam este recurso para praticar fraudes dos mais variados tipos. Como saber se uma notícia é falsa, ou um perfil é falso, ou uma voz é falsa? O importante é checar quem é o dono da informação e sempre consultar a fonte. Assim como as fake news, também bastante presente nesta era digital, as deepfakes são uma ameaça em todo mundo, com números que crescem exponencialmente. De acordo com estudo inédito da DeepMind, unidade de IA do Google, deepfakes representam 27% dos casos de uso criminoso de IA, superando ataques cibernéticos.
Neste contexto, vale um olhar atento ao conteúdo produzido por meio de inteligência artificial, tecnologia que se expandiu de forma expressiva nos últimos anos. Com o uso da IA, tudo ficou fácil e rápido. A IA faz uma engenharia social e pode ser utilizada para adulterar fotos e vídeos postados nas redes sociais. Portanto, a partir do momento que há uma fonte de informação de domínio público de uma determinada pessoa, é possível manipular esse material.
Para lidar com os riscos e saber a real autenticidade destes conteúdos, alguns cuidados são essenciais, tanto com imagem quanto voz. Uma sugestão é, na hora de tirar uma foto, evite clicá-la de frente e tire de lado. Em relação à recriação de vozes, muito cuidado na forma de falar e usar sempre uma linguagem mais formal, não tão coloquial, pois contribui para minimizar esse problema.
Aplicativo de mensagens é um dos canais favoritos para a tentativa de fraude. É possível se proteger com algumas recomendações dessa prática, que se tornou comum nos últimos anos. O pedido de dinheiro por um áudio ou uma voz gravada, por exemplo, vai ser de um celular que não está registrado na agenda de contatos. Uma dica é orientar familiares a ligarem para terem certeza de que aquilo é um ato criminoso.
Outra coisa importante é como essas tecnologias podem avançar com segurança. Hoje, da mesma forma que temos a IA para criar as deepfakes, temos IA para verificar se aquele material foi criado por inteligência artificial e, eventualmente, manipulado, recriado ou usado indevidamente. Conseguimos checar tecnologia versus tecnologia, IA versus IA, para fazer essa verificação e avaliar sua veracidade. São infindáveis possibilidades e a regulação e o uso ético são mobilizações que já vemos acontecer em alguns lugares do mundo. O fato é que a tecnologia foi criada para facilitar e agilizar, e não para desenvolver uma deepfake.
É um tema muito novo, tudo é muito incipiente e estamos todos aprendendo. Por mais que sejam muitos os esforços das plataformas de redes sociais alertar ou remover esse tipo de conteúdo, distinguir o que é verdadeiro e o que é falso ainda é um desafio. É uma tecnologia que muda numa velocidade muito grande; usá-la de forma consciente pode minimizar os riscos que sua má utilização é capaz de proporcionar.
Da mesma forma que a IA veio para facilitar o dia a dia das pessoas e corporações, gerar mais eficiência e produtividade, a tecnologia pode ser utilizada de maneira indevida, impulsionado a sofisticação dos golpes e a geração de conteúdo sem consentimento. O cenário é desafiador e, certamente, teremos de nos adaptar a esse novo momento da tecnologia para que a IA não se torne inimiga da própria IA.
*Leidivino Natal da Silva é CEO de Stefanini Cyber