Ministro do STF defende flexibilização do Marco Civil da Internet

Na visão de Luís Roberto Barroso, objetivo é enquadrar as Big Techs por conteúdos que incitam crimes, terrorismo e pornografia infantil. Para ele, as plataformas têm o dever de identificar e remover postagens antes de uma ação da Justiça

Compartilhar:

Durante a conferência da Organização das Nações Unidas para Educação, Ciência e Cultura, Unesco, realizada nesta semana em Paris, o Ministro do Supremo Tribunal Federal, Luís Roberto Barroso, defendeu a flexibilização do Marco Civil da Internet para casos de incitação a crimes, terrorismo e pornografia infantil.

 

O Marco Civil, de 2014, é a lei que regula a internet no país e determina que as empresas só podem ser responsabilizadas civilmente por conteúdos de terceiros se não cumprirem ordens judiciais de remoção. Para o Ministro, as Big Techs devem usar todos os meios possíveis para identificar e remover esse tipo de conteúdo antes de uma ação da Justiça.

 

Barroso afirmou também que a responsabilidade das plataformas por conteúdo de terceiros deve ser razoável e proporcional. Em casos de violação de direitos como compartilhamento de fotos íntimas ou direitos autorais, as empresas devem remover o conteúdo após notificação das partes interessadas. Se o fato ocorrer em áreas de penumbra onde já há um grau de dúvida, a remoção será obrigatória após uma primeira ordem judicial.

 

“A minha posição não mudou, foram os tempos que mudaram e temos hoje uma série de ameaças novas na esfera digital, como ataques à democracia e ao sistema eleitoral e extremismo”, disse Barroso à Folha de S.Paulo.

 

Na visão de Matheus Puppe, sócio da área de TMT, Privacidade & Proteção de Dados do Maneira Advogados, a regulação do mercado digital é inevitável. “Entretanto, jogar a responsabilidade totalmente nas Big Techs é injusto e um potencial atraso no mercado”, pontua. Para ele, é preciso que haja um equilíbrio entre atuação e legislação, pois as empresas não podem se tornar impérios solitários onde tudo é possível.

 

“Defendo a ideia de autorregulação e autofiscalização interna. Hoje, já vemos alguns mecanismos de remoção de conteúdo, como denúncias dos usuários à posts ilegais ou prejudiciais, por exemplo. Não temos que criar a responsabilidade, mas estabelecer os procedimentos e requisitos necessários, bem como potenciais sanções, como acontece na lei anticorrupção e na LGPD”, completa Puppe.

 

Márcio Chaves, sócio da área de Direito Digital do escritório Almeida Advogados, acredita que a obrigatoriedade de remoção de conteúdos impõe esforços com desenvolvimento de tecnologias, treinamentos e impactos financeiros, além de afetar o princípio da neutralidade da rede. “Mas isso não significa que não possa haver uma obrigação de cooperação na identificação e remoção de conteúdos que sejam demonstrados como violadores das leis”, conclui.

 

*Com informações da Folha de S.Paulo 

Conteúdos Relacionados

Security Report | Destaques

Ecogen amplia proteção de ambientes OT para garantir transição energética limpa

Empresa de geração e transmissão de eletricidade por meios sustentáveis tinha como demanda preservar a continuidade do negócio a partir...
Security Report | Destaques

Luiz Firmino assume como CISO Global da FEMSA e lidera estratégia de SI em 18 países

Após seis anos no México e quatro promoções internas, o executivo brasileiro assume a liderança global de Segurança da Informação...
Security Report | Destaques

Adversários evasivos impulsionados por IA desafiam modelo tradicional de detecção

A CrowdStrike apontou, em análise aprofundada do Global Threat Report deste ano com gestores brasileiros de Cibersegurança, que o uso...
Security Report | Destaques

Como o Grupo Globo reestruturou sua defesa cibernética para proteger o futuro do conteúdo

Em parceria com a Proofpoint, gigante de mídia reduz tempo de investigação de incidentes de dias para minutos e torna...