As denúncias de crimes cibernéticos no Brasil subiram 28,4% em 2025, com 87.689 novas queixas registradas pela SaferNet, de acordo com a organização, parte significativa desse aumento está ligada ao uso de ferramentas de Inteligência Artificial (IA) generativa, utilizadas para produzir conteúdos falsos com alto realismo. O avanço tecnológico tem facilitado a criação de materiais que simulam a realidade de forma cada vez mais sofisticada.
Os chamados deepfakes, como manipulações de imagem, vídeo ou áudio sem consentimento, são o ponto central da preocupação. “O nível de realismo chegou a um ponto em que a própria pessoa passa a duvidar da memória, isso muda completamente a forma como a prova é analisada e como o direito precisa responder a esse tipo de situação”, afirma a advogada Maria Eduarda Amaral, especialista em direito digital.
O impacto é crítico entre crianças e adolescentes: a SaferNet identificou ao menos 16 casos de deepfakes sexuais em escolas de 10 estados, envolvendo 72 vítimas e 57 agressores menores de idade. A organização alerta que os números podem ser maiores devido à subnotificação, mesmo sem o uso de imagens reais, conteúdos que simulam nudez via IA configuram violações graves de privacidade e de direitos de imagem.
“Não importa se a imagem foi criada por IA, se ela remete claramente a uma pessoa real, já existe um potencial de violação de direito de imagem. A responsabilidade recai sobre quem cria e, principalmente, sobre quem utiliza esse conteúdo”, aponta Amaral. Além do desafio técnico, o país enfrenta uma lacuna de monitoramento, sem dados oficiais consolidados sobre a incidência desses crimes ou do andamento das investigações.
Rastrear esses casos é complexo devido ao uso de plataformas estrangeiras ou anonimização, segundo a especialista, “isso não elimina a responsabilidade. O que vemos agora é um aumento na judicialização, justamente porque os impactos estão ficando mais evidentes”. A tendência é que a pressão por regulamentação cresça, já que ferramentas de IA são treinadas com dados da internet, ampliando o risco de reproduções indevidas.
O cenário também exige a adaptação de conceitos jurídicos, como o estelionato sexual, para o ambiente digital. “No ambiente digital, isso pode ocorrer quando alguém interage ou consome conteúdo acreditando se tratar de uma pessoa real, quando, na verdade, está diante de uma simulação criada por inteligência artificial”, afirma a advogada. A discussão indica o uso de estruturas tradicionais para responder a comportamentos digitais inéditos.