Barroso abre divergência em julgamento sobre redes no STF, e Mendonça pede vista
Ministro mantém parcialmente necessidade de decisão judicial para responsabilizar plataformas; retomada da análise pela corte só deve ocorrer em 2025
Brasília e São Paulo
O presidente do STF (Supremo Tribunal Federal), Luís Roberto Barroso, defendeu nesta quarta-feira (18) que a atual regra sobre responsabilidade das plataformas de rede sociais seja declarada apenas parcialmente inconstitucional.
O tribunal debateu a constitucionalidade do artigo 19 do Marco Civil da Internet. Ele prevê que as big techs só possam ser responsabilizadas por publicações de terceiros, pagando indenizações, se não agirem após decisão judicial, com exceção de casos de violação de direitos autorais e imagens de nudez não consentidas.
Para Barroso, o artigo 19 é insuficiente para o cenário atual, que demandaria regulação, mas não deve ser derrubado por completo. Ele defendeu que, em casos de ofensas e crimes contra a honra, a necessidade de decisão judicial prévia deve continuar valendo.
Com isso, o presidente do STF abriu divergência em relação aos dois recursos relatados pelos ministros Dias Toffoli e Luiz Fux, que votaram pela inconstitucionalidade completa da regra atual.
A discussão foi interrompida depois de seu voto com o pedido de vista (mais tempo para análise) de André Mendonça. Assim, o julgamento só deve ser retomado em 2025. Esta é a penúltima sessão do ano.
Mendonça afirmou desejar refletir mais sobre o aspecto da questão da honra. Para ele, deve haver uma diferenciação entre pessoas privadas e agentes públicos.
Acusar alguém de ditador para uma pessoa comum talvez seja extremamente injusto, mas, para um político, talvez faça parte do debate público, e democracia se fortalece pelas críticas públicas”, disse.
A divergência aberta por Barroso sobre crimes contra honra gerou diversas intervenções de outros ministros, em especial de Alexandre de Moraes, Flávio Dino e Luiz Fux, que fizeram discursos na linha da necessidade de coibir a repetição desse tipo de ofensa nas redes sociais.
Para Barroso, a responsabilização apenas após descumprimento de ordem judicial nesses casos é fundamental para proteger a da liberdade de expressão. E destacou que esse requisito vale apenas para condenação da plataforma, não do autor do insulto.
O Marco Civil da internet é uma lei de 2014 que estabelece direitos e deveres para o uso da internet no país. À época, o artigo 19 foi aprovado sob o argumento de assegurar a liberdade de expressão. O objetivo era evitar que as redes removessem conteúdos em excesso por medo de serem responsabilizadas.
Para Barroso, o artigo se mostrou insuficiente para a proteção de direitos fundamentais e mesmo para a democracia.
“Ainda não se tinha a dimensão em 2014 do que viria adiante e da magnitude do impacto negativo que a desinformação traria para a sociedade”, disse.
Ele propôs que a regra prevista no artigo 21 do Marco Civil, que hoje vale apenas para conteúdo de nudez não consentida, deveria passar a valer para qualquer conteúdo criminoso, com exceção das ofensas contra honra, e para perfis falsos.
Com isso, a partir de uma notificação extrajudicial de um usuário, a plataforma já estaria sujeita a responsabilização, caso não removesse algo que o Judiciário mais tarde entenda que era crime.
Já no caso de anúncios ou postagens impulsionadas mediante pagamento, a responsabilização ocorreria independentemente de notificação —o ministro entende que, nesse caso, a plataforma tem conhecimento do conteúdo desde que aprovou a sua circulação.
Outra divergência de Barroso foi quanto à possibilidade de as plataformas se eximirem de culpa se comprovarem terem agido adequadamente após notificação. Toffoli havia defendido o que, no jargão jurídico, é chamado de “responsabilidade objetiva” —quando cabe punição independentemente de culpa.
Barroso propôs ainda que, em caso de conteúdos considerados de uma “zona cinzenta”, ou seja de dúvida razoável quanto a serem ou não crime, as plataformas também não seriam responsabilizadas.
Para além dessas regras relacionadas a conteúdos específicos, ele também trouxe em seu voto propostas de um “dever de cuidado” para big techs, que poderiam ser responsabilizadas por falhas sistêmicas na moderação.
As empresas devem, pela visão dele, produzir relatórios nos quais demonstrem as ações tomadas contra a disseminação de conteúdos que chamou de “gravemente nocivos”, como violência sexual contra crianças, tráfico de pessoas, terrorismo e golpe de Estado.
Ele defendeu ainda, assim como tinha feito Toffoli, a criação de novas obrigações para as plataformas, entre elas a elaboração de relatórios de transparência, como ocorre na regulação da União Europeia.
Diante da ausência de um órgão regulador para fazer o monitoramento das medidas, Barroso disse que esses documentos ficariam públicos e poderiam ser usados pelo Ministério Público para embasar eventuais ações de danos morais coletivos.
Nesse ponto, ele discordou de Toffoli, que tinha proposto a criação de um departamento no CNJ (Conselho Nacional de Justiça) para acompanhamento.
Assim como havia dito na sessão inaugural do julgamento, Barroso repetiu que o Supremo não está legislando. Segundo ele, o tema demanda decisão até que haja norma legal a respeito.
“Enquanto não há lei, precisamos definir um regime jurídico para isso”, disse. “Nós temos o papel de julgar aquilo que se apresenta ao Poder Judiciário, estabelecendo nós mesmos o critério que vai pautar as decisões, até que o Congresso atue.”
Em contraposição a Toffoli, ele também afirmou que não institui obrigação adicional para marketplaces — categoria de plataformas como Mercado Livre, Shopee e Amazon.
Fonte: Folha de São Paulo