Barroso diz que STF julga responsabilidade de plataformas após Congresso não legislar

‘O tribunal aguardou por um período bastante razoável’, afirma presidente da corte, durante sessão

Ana Pompeu

Brasília

O presidente do STF (Supremo Tribunal Federal), Luís Roberto Barroso, disse que a corte julga trechos do Marco Civil da Internet após o Congresso não legislar sobre o tema. O julgamento de um conjunto de ações, que debatem, dentre outros tópicos, a possibilidade de responsabilização de plataformas de redes sociais por conteúdos de terceiros, teve início nesta quarta-feira (27).

“O tribunal aguardou por um período bastante razoável a sobrevinda de legislação por parte do Legislativo e, não ocorrendo, chegou a hora de decidirmos esta matéria”, disse.

Até o momento, o plenário ouviu apenas as sustentações orais dos advogados. Na quinta (28), a sessão deve ser retomada com os demais representantes de entidades inscritas no processo e, em seguida, têm início os votos dos ministros.

A expectativa é que o Supremo promova mudanças no Marco Civil da Internet semelhantes ao que vinha sendo discutido no Congresso Nacional no âmbito de um projeto de lei sobre regulamentação das redes sociais.

Relatado pelo deputado Orlando Silva (PC do B-SP), o chamado PL das Fake News acabou travado na Câmara, em 2023, por oposição das big techs e ameaças a parlamentares.

Em abril, o presidente da Casa, Arthur Lira (PP-AL), decidiu pela criação de um grupo de trabalho para discutir uma nova proposta. Dessa forma, o processo de discussão em torno da regulamentação das redes sociais recomeçará praticamente do zero, com a construção de uma nova proposta.

O tribunal tem na pauta várias ações ligadas a temas de internet e com impacto na atuação de gigantes do setor. O tema chegou a ter data definida anteriormente, mas foi retirado de pauta por pedido da Câmara do Deputados para que aguardasse a votação do PL das Fake News.

Na sessão do STF, José Rollemberg Leite, em nome do Facebook, defendeu a constitucionalidade do artigo 19 pelos princípios da vedação de censura e da liberdade de expressão. Ainda, de acordo com ele, a empresa age no sentido do aumento da segurança e da integridade.

“Há um enorme esforço de autorregulação das plataformas no sentido de agir com segurança e integridade. Existem regras, termos de uso robustos contra pedofilia, violência e discurso de ódio. Há investimentos anuais bilionários em dólares em tecnologia e inteligência artificial voltados a esse propósito”, disse.

De acordo com o advogado, em 2023, o Facebook removeu 208 milhões de postagens dessa natureza. Ainda, ele disse que, atualmente, o maior volume de judicialização em face dos serviços é para a reinclusão de conteúdos removidos, o que refletiria a eficácia desse sistema.

“Conceitos abertos como fake news, desinformação, crimes contra a honra ou postagens manifestamente ilegais incentivariam remoções excessivas e levariam, aí sim, a uma judicialização excessiva”, disse Rollemberg Leite.

Pelo Google, o advogado Eduardo Mendonça afirmou que é uma visão maniqueísta de que as plataformas têm causado o ódio presente na sociedade.

“A internet permite que cada pessoa se manifeste de forma direta. Embora seja muitas vezes emancipador, também pode ser mais incômodo, colocar em evidência momentos de dissenso e de ressentimentos, mas não é de forma alguma menos democrático por isso. Tratar a internet como um estorvo seria um grande erro”, afirmou.

Segundo ele, em 2023, o YouTube retirou da plataforma no Brasil 1,7 milhão de vídeos por violação por suas políticas que, em grande medida, estão compatíveis com a legislação local. No mesmo período, a mesma plataforma foi alvo de 614 ordens judiciais, não necessariamente de remoções.

“Não existe uma inércia que seja parte do modelo de negócios das plataformas. Nem faria sentido que existisse, seja pela pressão de autoridades seja porque a maioria dos usuários não tem interesse, repudia esse tipo de conteúdo”, disse.

Outro argumento de Mendonça é de que a definição sobre quando um conteúdo deve ser removido é muitas vezes controverso mesmo no Judiciário, com decisões tomadas por pequenas margens de votos nos tribunais.

“Nenhum país democrático adota uma lógica de responsabilização objetiva das plataformas que não seria nem viável nem compatível com a lógica de vedação à censura”, afirmou o representante do Google.

De forma pouco usual, os ministros aproveitaram para fazer perguntas aos advogados e se queixar da existência de perfis falsos em nomes deles.

“É tão óbvio que o perfil não é meu. Porque o perfil é só me criticando. Seria algo surrealista. E a plataforma, para retirar, tem que notificar, e não retira. A dificuldade de você provar que não é você é muito mais difícil do que a abertura falsa de um perfil”, afirmou o ministro Alexandre de Moraes.

O tema passou por idas e vindas na tramitação na corte. A solução dos casos pode impactar o modo como as redes sociais fazem moderação de conteúdo, tendo como pano de fundo tanto a inação do Congresso em legislar sobre o tema quanto os ataques golpistas do 8 de janeiro.

A partir de discursos dos próprios ministros, a expectativa é que a corte usará o julgamento para estabelecer balizas sobre como as redes devem atuar, além de decidir se a regra atual —que isenta plataformas de responsabilidade por conteúdos de terceiros— é ou não constitucional. Se a falta de ação do Congresso para aprovar novas regras já era criticada ao longo do mandato do ex-presidente Jair Bolsonaro (PL), frente à desinformação sobre a pandemia e os ataques contra as instituições, o 8 de janeiro que foi fortemente mobilizado pelas redes— deu fôlego ao discurso dos ministros por regulação.


Fonte: Folha de São Paulo

Traduzir »