Aumento de 28% em cibercrimes no Brasil e avanço da IA acende alerta sobre deepfakes

Uso de IA generativa para criar conteúdos falsos desafia autoridades e expõe lacunas na identificação de responsáveis e dados oficiais

Compartilhar:

As denúncias de crimes cibernéticos no Brasil subiram 28,4% em 2025, com 87.689 novas queixas registradas pela SaferNet, de acordo com a organização, parte significativa desse aumento está ligada ao uso de ferramentas de Inteligência Artificial (IA) generativa, utilizadas para produzir conteúdos falsos com alto realismo. O avanço tecnológico tem facilitado a criação de materiais que simulam a realidade de forma cada vez mais sofisticada. 

  

Os chamados deepfakes, como manipulações de imagem, vídeo ou áudio sem consentimento, são o ponto central da preocupação. “O nível de realismo chegou a um ponto em que a própria pessoa passa a duvidar da memória, isso muda completamente a forma como a prova é analisada e como o direito precisa responder a esse tipo de situação”, afirma a advogada Maria Eduarda Amaral, especialista em direito digital. 

  

O impacto é crítico entre crianças e adolescentes: a SaferNet identificou ao menos 16 casos de deepfakes sexuais em escolas de 10 estados, envolvendo 72 vítimas e 57 agressores menores de idade. A organização alerta que os números podem ser maiores devido à subnotificação, mesmo sem o uso de imagens reais, conteúdos que simulam nudez via IA configuram violações graves de privacidade e de direitos de imagem. 

  

“Não importa se a imagem foi criada por IA, se ela remete claramente a uma pessoa real, já existe um potencial de violação de direito de imagem. A responsabilidade recai sobre quem cria e, principalmente, sobre quem utiliza esse conteúdo”, aponta Amaral. Além do desafio técnico, o país enfrenta uma lacuna de monitoramento, sem dados oficiais consolidados sobre a incidência desses crimes ou do andamento das investigações. 

  

Rastrear esses casos é complexo devido ao uso de plataformas estrangeiras ou anonimização, segundo a especialista, “isso não elimina a responsabilidade. O que vemos agora é um aumento na judicialização, justamente porque os impactos estão ficando mais evidentes”. A tendência é que a pressão por regulamentação cresça, já que ferramentas de IA são treinadas com dados da internet, ampliando o risco de reproduções indevidas. 

  

O cenário também exige a adaptação de conceitos jurídicos, como o estelionato sexual, para o ambiente digital. “No ambiente digital, isso pode ocorrer quando alguém interage ou consome conteúdo acreditando se tratar de uma pessoa real, quando, na verdade, está diante de uma simulação criada por inteligência artificial”, afirma a advogada. A discussão indica o uso de estruturas tradicionais para responder a comportamentos digitais inéditos. 

 

Destaques

Colunas & Blogs

Conteúdos Relacionados

Security Report | Overview

Cadeia de suprimentos: Mais de um terço das grandes empresas já foram impactadas

Estudo da Kaspersky revela que a dependência de fornecedores expande a superfície de ataque no Brasil, figurando como um dos...
Security Report | Overview

Golpe do “CPF irregular” usa site falso da Receita Federal para enganar contribuintes

Levantamento revela fraude que explora o período do Imposto de Renda para induzir pagamentos via PIX sob falsa promessa de...
Security Report | Overview

Paradoxo do Pishing: marcas conhecidas são a principal porta de entrada para cibercriminosos

Relatório aponta que Microsoft, Apple e Google lideram o ranking de falsificações, somando quase metade das tentativas de roubo de...
Security Report | Overview

Aumento nos ataques ampliaram busca por centros operacionais de SI, diz estudo