Entenda julgamento do STF sobre Marco Civil da Internet e regulação das redes
Corte analisa responsabilidade de plataformas em remover conteúdo nocivo sem decisão judicial
Patrícia Campos Mello Renata Galf Cézar Feitoza
São Paulo e Brasília
O STF (Supremo Tribunal Federal) retoma nesta quinta-feira (28) a análise de casos envolvendo o Marco Civil da Internet e a possibilidade de responsabilização de plataformas de redes sociais por conteúdos de terceiros.
A corte iniciou a análise na quarta-feira (27) e ouviu apenas as sustentações orais dos advogados. Agora, devem falar os demais representantes de entidades inscritas no processo. Em seguida, os ministros começam a votar.
A expectativa é que o Supremo promova mudanças na regulação da atividade digital semelhantes ao que vinha sendo discutido no Congresso Nacional no âmbito do PL das Fake News, que acabou travado.
Entenda o debate sobre o Marco Civil da Internet e a regulação das redes sociais no Supremo:
Qual o debate sobre a regulação das redes sociais?
O STF iniciou o julgamento de casos que questionam trechos do Marco Civil e a possibilidade de responsabilização das plataformas por conteúdos publicados por terceiros, como seus usuários; o presidente da corte, ministro Luís Roberto Barroso, diz que a análise ocorre após a demora do Legislativo em regular o tema.
O que é o Marco Civil da Internet?
É uma lei com direitos e deveres para o uso da internet no país. O artigo 19 do marco, o principal a ser discutido pela corte, isenta as plataformas de responsabilidade por danos gerados pelo conteúdo de terceiros, ou seja, elas só estão sujeitas a pagar uma indenização, por exemplo, se não atenderem a uma ordem judicial de remoção.
Qual a discussão sobre esse artigo?
À época, a regra foi aprovada com a preocupação de assegurar a liberdade de expressão. Uma das justificativas é que as redes seriam estimuladas a remover conteúdos legítimos com o receio de serem responsabilizadas; por outro lado, críticos dizem que a regra desincentiva as empresas a combater conteúdo nocivo.
O que o Supremo tem sinalizado sobre o assunto?
Sob reserva, membros do STF afirmam que o caminho mais provável a ser adotado é a definição de que as redes possuem o “dever de cuidado” —quando as plataformas devem remover conteúdos criminosos sem a necessidade de decisão judicial.
O que tem impactado a análise do caso?
A atual tensão política no país tem influenciado o discurso dos magistrados ao se manifestar sobre o Marco Civil e a regulação das redes sociais. Após a série de conteúdos falsos sobre as urnas eletrônicas, os ataques golpistas de 8 de janeiro e o recente atentado a bomba na praça dos Três Poderes, o Supremo vê o caso como prioritário.
Há alguma proposta no Legislativo sobre o assunto?
O Congresso discutia até 9 de abril o PL das Fake News, que também estabelecia o dever de cuidado às plataformas; ele ficou travado na Câmara dos Deputados após oposição das big techs e ameaças a congressistas. O presidente da Casa, Arthur Lira (PP-AL), decidiu que o texto seria rediscutido do zero, mas os debates até agora não foram iniciados.
Como a regulação das redes funciona em outros países?
Estados Unidos
A legislação imuniza as plataformas por conteúdos de terceiros, e também não responsabiliza as empresas caso o conteúdo seja removido em boa-fé; o texto foi criado para evitar que as redes sociais fossem processadas por qualquer conteúdo postado. Agora, projetos e ações na Justiça discutem ampliar a responsabilidade das plataformas.
União Europeia
O conjunto de leis do bloco estabelece que as redes só podem ser responsabilizadas por conteúdo de terceiros se souberem da existência dele e não remover, ou seja, só é necessário retirar a publicação, por exemplo, se receber uma denúncia de um usuário e não agir. Ainda, há uma série de obrigações que devem ser cumpridas pelas plataformas, como relatórios de transparência, e demonstração de conteúdos danosos removidos.Reino Unido
Uma proposta aprovada em outubro de 2023 define que as plataformas terão o “dever de cuidado” de remover conteúdo ilegal mesmo antes de receberem denúncias; as empresas precisam garantir que seus próprios termos de uso são aplicados, e os usuários têm o direito de recorrer das decisões de moderação.
Fonte: Folha de São Paulo