Ministro do STF defende flexibilização do Marco Civil da Internet

Na visão de Luís Roberto Barroso, objetivo é enquadrar as Big Techs por conteúdos que incitam crimes, terrorismo e pornografia infantil. Para ele, as plataformas têm o dever de identificar e remover postagens antes de uma ação da Justiça

Compartilhar:

Durante a conferência da Organização das Nações Unidas para Educação, Ciência e Cultura, Unesco, realizada nesta semana em Paris, o Ministro do Supremo Tribunal Federal, Luís Roberto Barroso, defendeu a flexibilização do Marco Civil da Internet para casos de incitação a crimes, terrorismo e pornografia infantil.

 

O Marco Civil, de 2014, é a lei que regula a internet no país e determina que as empresas só podem ser responsabilizadas civilmente por conteúdos de terceiros se não cumprirem ordens judiciais de remoção. Para o Ministro, as Big Techs devem usar todos os meios possíveis para identificar e remover esse tipo de conteúdo antes de uma ação da Justiça.

 

Barroso afirmou também que a responsabilidade das plataformas por conteúdo de terceiros deve ser razoável e proporcional. Em casos de violação de direitos como compartilhamento de fotos íntimas ou direitos autorais, as empresas devem remover o conteúdo após notificação das partes interessadas. Se o fato ocorrer em áreas de penumbra onde já há um grau de dúvida, a remoção será obrigatória após uma primeira ordem judicial.

 

“A minha posição não mudou, foram os tempos que mudaram e temos hoje uma série de ameaças novas na esfera digital, como ataques à democracia e ao sistema eleitoral e extremismo”, disse Barroso à Folha de S.Paulo.

 

Na visão de Matheus Puppe, sócio da área de TMT, Privacidade & Proteção de Dados do Maneira Advogados, a regulação do mercado digital é inevitável. “Entretanto, jogar a responsabilidade totalmente nas Big Techs é injusto e um potencial atraso no mercado”, pontua. Para ele, é preciso que haja um equilíbrio entre atuação e legislação, pois as empresas não podem se tornar impérios solitários onde tudo é possível.

 

“Defendo a ideia de autorregulação e autofiscalização interna. Hoje, já vemos alguns mecanismos de remoção de conteúdo, como denúncias dos usuários à posts ilegais ou prejudiciais, por exemplo. Não temos que criar a responsabilidade, mas estabelecer os procedimentos e requisitos necessários, bem como potenciais sanções, como acontece na lei anticorrupção e na LGPD”, completa Puppe.

 

Márcio Chaves, sócio da área de Direito Digital do escritório Almeida Advogados, acredita que a obrigatoriedade de remoção de conteúdos impõe esforços com desenvolvimento de tecnologias, treinamentos e impactos financeiros, além de afetar o princípio da neutralidade da rede. “Mas isso não significa que não possa haver uma obrigação de cooperação na identificação e remoção de conteúdos que sejam demonstrados como violadores das leis”, conclui.

 

*Com informações da Folha de S.Paulo 

Destaques

Colunas & Blogs

Conteúdos Relacionados

Security Report | Destaques

ATUALIZADO: Linha do tempo destaca ataques mais recentes

Painel de incidentes foi atualizado com os casos envolvendo a Polícia Federal, a Toyota Brasil, o Sistema de Administração Financeira...
Security Report | Destaques

Novos highlights da RSA: Da Soberania à solidariedade Digital

Fernando Galdino, diretor de Portfólio & Estratégia da SEK, fala à Security Report sobre os pontos mais importantes debatidos na...
Security Report | Destaques

CISOs buscam ocupar novos espaços na empresa

Já é demanda antiga do setor de Cyber alcançar um grau de relevância maior nas organizações, mas agora, com o...
Security Report | Destaques

Polícia abre investigação contra esquema de golpes cibernéticos

A operação se deu essa semana na cidade de Imperatriz, no Maranhão, segundo informou nota divulgada pela corporação. As primeiras...