Ministro do STF defende flexibilização do Marco Civil da Internet

Na visão de Luís Roberto Barroso, objetivo é enquadrar as Big Techs por conteúdos que incitam crimes, terrorismo e pornografia infantil. Para ele, as plataformas têm o dever de identificar e remover postagens antes de uma ação da Justiça

Compartilhar:

Durante a conferência da Organização das Nações Unidas para Educação, Ciência e Cultura, Unesco, realizada nesta semana em Paris, o Ministro do Supremo Tribunal Federal, Luís Roberto Barroso, defendeu a flexibilização do Marco Civil da Internet para casos de incitação a crimes, terrorismo e pornografia infantil.

 

O Marco Civil, de 2014, é a lei que regula a internet no país e determina que as empresas só podem ser responsabilizadas civilmente por conteúdos de terceiros se não cumprirem ordens judiciais de remoção. Para o Ministro, as Big Techs devem usar todos os meios possíveis para identificar e remover esse tipo de conteúdo antes de uma ação da Justiça.

 

Barroso afirmou também que a responsabilidade das plataformas por conteúdo de terceiros deve ser razoável e proporcional. Em casos de violação de direitos como compartilhamento de fotos íntimas ou direitos autorais, as empresas devem remover o conteúdo após notificação das partes interessadas. Se o fato ocorrer em áreas de penumbra onde já há um grau de dúvida, a remoção será obrigatória após uma primeira ordem judicial.

 

“A minha posição não mudou, foram os tempos que mudaram e temos hoje uma série de ameaças novas na esfera digital, como ataques à democracia e ao sistema eleitoral e extremismo”, disse Barroso à Folha de S.Paulo.

 

Na visão de Matheus Puppe, sócio da área de TMT, Privacidade & Proteção de Dados do Maneira Advogados, a regulação do mercado digital é inevitável. “Entretanto, jogar a responsabilidade totalmente nas Big Techs é injusto e um potencial atraso no mercado”, pontua. Para ele, é preciso que haja um equilíbrio entre atuação e legislação, pois as empresas não podem se tornar impérios solitários onde tudo é possível.

 

“Defendo a ideia de autorregulação e autofiscalização interna. Hoje, já vemos alguns mecanismos de remoção de conteúdo, como denúncias dos usuários à posts ilegais ou prejudiciais, por exemplo. Não temos que criar a responsabilidade, mas estabelecer os procedimentos e requisitos necessários, bem como potenciais sanções, como acontece na lei anticorrupção e na LGPD”, completa Puppe.

 

Márcio Chaves, sócio da área de Direito Digital do escritório Almeida Advogados, acredita que a obrigatoriedade de remoção de conteúdos impõe esforços com desenvolvimento de tecnologias, treinamentos e impactos financeiros, além de afetar o princípio da neutralidade da rede. “Mas isso não significa que não possa haver uma obrigação de cooperação na identificação e remoção de conteúdos que sejam demonstrados como violadores das leis”, conclui.

 

*Com informações da Folha de S.Paulo 

Destaques

Colunas & Blogs

Conteúdos Relacionados

Security Report | Destaques

Da IA ao Fator Humano: Security Leaders Nacional amplia insights dos times de SI

A edição Nacional do SL se encerrou na última semana depois de levar ao seu palco quatro Keynotes, doze Painéis...
Security Report | Destaques

Riscos em TI passam por cultura da empresa e saúde mental

O Keynote de encerramento Security Leaders Nacional destacou como ambientes corporativos tóxicos e a pressão sobre profissionais de TI comprometem...
Security Report | Destaques

Tecnologia elimina riscos antes que eles virem incidentes

Durante o Security Leaders Nacional, a Elopar destacou como o mapeamento de ativos e a gestão centralizada de ameaças fortaleceram...
Security Report | Destaques

Ciberataque à JLR gera prejuízo de quase 2 bilhões de libras à economia britânica

Ataque cibernético à Jaguar Land Rover gera perda de  R$ 14 bilhões ao Reino Unido; Monitor de ciberataques e incidentes...