Ministro do STF defende flexibilização do Marco Civil da Internet

Na visão de Luís Roberto Barroso, objetivo é enquadrar as Big Techs por conteúdos que incitam crimes, terrorismo e pornografia infantil. Para ele, as plataformas têm o dever de identificar e remover postagens antes de uma ação da Justiça

Compartilhar:

Durante a conferência da Organização das Nações Unidas para Educação, Ciência e Cultura, Unesco, realizada nesta semana em Paris, o Ministro do Supremo Tribunal Federal, Luís Roberto Barroso, defendeu a flexibilização do Marco Civil da Internet para casos de incitação a crimes, terrorismo e pornografia infantil.

 

O Marco Civil, de 2014, é a lei que regula a internet no país e determina que as empresas só podem ser responsabilizadas civilmente por conteúdos de terceiros se não cumprirem ordens judiciais de remoção. Para o Ministro, as Big Techs devem usar todos os meios possíveis para identificar e remover esse tipo de conteúdo antes de uma ação da Justiça.

 

Barroso afirmou também que a responsabilidade das plataformas por conteúdo de terceiros deve ser razoável e proporcional. Em casos de violação de direitos como compartilhamento de fotos íntimas ou direitos autorais, as empresas devem remover o conteúdo após notificação das partes interessadas. Se o fato ocorrer em áreas de penumbra onde já há um grau de dúvida, a remoção será obrigatória após uma primeira ordem judicial.

 

“A minha posição não mudou, foram os tempos que mudaram e temos hoje uma série de ameaças novas na esfera digital, como ataques à democracia e ao sistema eleitoral e extremismo”, disse Barroso à Folha de S.Paulo.

 

Na visão de Matheus Puppe, sócio da área de TMT, Privacidade & Proteção de Dados do Maneira Advogados, a regulação do mercado digital é inevitável. “Entretanto, jogar a responsabilidade totalmente nas Big Techs é injusto e um potencial atraso no mercado”, pontua. Para ele, é preciso que haja um equilíbrio entre atuação e legislação, pois as empresas não podem se tornar impérios solitários onde tudo é possível.

 

“Defendo a ideia de autorregulação e autofiscalização interna. Hoje, já vemos alguns mecanismos de remoção de conteúdo, como denúncias dos usuários à posts ilegais ou prejudiciais, por exemplo. Não temos que criar a responsabilidade, mas estabelecer os procedimentos e requisitos necessários, bem como potenciais sanções, como acontece na lei anticorrupção e na LGPD”, completa Puppe.

 

Márcio Chaves, sócio da área de Direito Digital do escritório Almeida Advogados, acredita que a obrigatoriedade de remoção de conteúdos impõe esforços com desenvolvimento de tecnologias, treinamentos e impactos financeiros, além de afetar o princípio da neutralidade da rede. “Mas isso não significa que não possa haver uma obrigação de cooperação na identificação e remoção de conteúdos que sejam demonstrados como violadores das leis”, conclui.

 

*Com informações da Folha de S.Paulo 

Conteúdos Relacionados

Security Report | Destaques

Polícia de Goiás prende suspeitos de movimentar R$ 164 milhões em fraudes na Dark Web

As autoridades do estado goiano cumpriram nessa semana 41 mandados de prisão temporária, 43 de busca e apreensão e oficializaram...
Security Report | Destaques

ATUALIZADO: Painel de incidentes destaca ocorrências mais recentes

O Painel de Ataques foi atualizado com os casos de incidentes e seus desdobramentos, envolvendo organizações como as prefeituras de...
Security Report | Destaques

IA Agêntica: Oportunidade ou fonte de risco para a SI?

Pesquisa “State of IT 2025”, da Salesforce, mostra que 75% dos líderes brasileiros planejam usar agentes de IA neste ano,...
Security Report | Destaques

IA Agêntica: Oportunidade ou fonte de risco para a SI?

Pesquisa “State of IT 2025”, da Salesforce, mostra que 75% dos líderes brasileiros planejam usar agentes de IA neste ano,...