Ministro do STF defende flexibilização do Marco Civil da Internet

Na visão de Luís Roberto Barroso, objetivo é enquadrar as Big Techs por conteúdos que incitam crimes, terrorismo e pornografia infantil. Para ele, as plataformas têm o dever de identificar e remover postagens antes de uma ação da Justiça

Compartilhar:

Durante a conferência da Organização das Nações Unidas para Educação, Ciência e Cultura, Unesco, realizada nesta semana em Paris, o Ministro do Supremo Tribunal Federal, Luís Roberto Barroso, defendeu a flexibilização do Marco Civil da Internet para casos de incitação a crimes, terrorismo e pornografia infantil.

 

O Marco Civil, de 2014, é a lei que regula a internet no país e determina que as empresas só podem ser responsabilizadas civilmente por conteúdos de terceiros se não cumprirem ordens judiciais de remoção. Para o Ministro, as Big Techs devem usar todos os meios possíveis para identificar e remover esse tipo de conteúdo antes de uma ação da Justiça.

 

Barroso afirmou também que a responsabilidade das plataformas por conteúdo de terceiros deve ser razoável e proporcional. Em casos de violação de direitos como compartilhamento de fotos íntimas ou direitos autorais, as empresas devem remover o conteúdo após notificação das partes interessadas. Se o fato ocorrer em áreas de penumbra onde já há um grau de dúvida, a remoção será obrigatória após uma primeira ordem judicial.

 

“A minha posição não mudou, foram os tempos que mudaram e temos hoje uma série de ameaças novas na esfera digital, como ataques à democracia e ao sistema eleitoral e extremismo”, disse Barroso à Folha de S.Paulo.

 

Na visão de Matheus Puppe, sócio da área de TMT, Privacidade & Proteção de Dados do Maneira Advogados, a regulação do mercado digital é inevitável. “Entretanto, jogar a responsabilidade totalmente nas Big Techs é injusto e um potencial atraso no mercado”, pontua. Para ele, é preciso que haja um equilíbrio entre atuação e legislação, pois as empresas não podem se tornar impérios solitários onde tudo é possível.

 

“Defendo a ideia de autorregulação e autofiscalização interna. Hoje, já vemos alguns mecanismos de remoção de conteúdo, como denúncias dos usuários à posts ilegais ou prejudiciais, por exemplo. Não temos que criar a responsabilidade, mas estabelecer os procedimentos e requisitos necessários, bem como potenciais sanções, como acontece na lei anticorrupção e na LGPD”, completa Puppe.

 

Márcio Chaves, sócio da área de Direito Digital do escritório Almeida Advogados, acredita que a obrigatoriedade de remoção de conteúdos impõe esforços com desenvolvimento de tecnologias, treinamentos e impactos financeiros, além de afetar o princípio da neutralidade da rede. “Mas isso não significa que não possa haver uma obrigação de cooperação na identificação e remoção de conteúdos que sejam demonstrados como violadores das leis”, conclui.

 

*Com informações da Folha de S.Paulo 

Conteúdos Relacionados

Security Report | Destaques

Cisco emite esclarecimento sobre suposto vazamento de dados

Publicações apontando um possível vazamento de dados anunciado em um fórum na Dark Web circularam durante essa semana. Em nota,...
Security Report | Destaques

Regulação da IA: CISOs e operadores do direito analisam Projeto de Lei

O Senado Federal aprovou a lei em plenário neste mês de dezembro, avançando com a possibilidade de estabelecer normas mais...
Security Report | Destaques

CISO no Board: o desafio de comunicar a linguagem da SI ao negócio

Como líderes de Cibersegurança podem ajustar seu discurso para estabelecer uma ponte efetiva com os conselheiros e influenciar decisões estratégicas
Security Report | Destaques

Unidas Aluguel de Carros identifica tentativa de invasão aos sistemas

Registros de que a companhia havia sido atacada por um ransomware começaram a circular nesta semana, quando grupos de monitoramento...