Moderação de conteúdo deve coexistir com regulação estatal
Para especialistas, isto seria necessário para garantir liberdade de expressão e evitar discursos de ódio
Além de provocar discussões acaloradas nas redes sociais e ser alvo de uma proposta no Legislativo, a moderação de conteúdo pelas plataformas é objeto de discussão também no Judiciário. O principal debate é se as redes sociais deveriam ter essa prerrogativa e quais seriam os limites da autonomia delas nesse campo – em jogo, há a liberdade de expressão e o combate à desinformação e ao discurso de ódio.
Nesta semana, a Casa JOTA, com patrocínio do Google, está discutindo conflitos atuais para liberdade de expressão em uma série de eventos. Nesta quinta-feira (11/11), foi a vez de debater “Moderação de conteúdo por plataformas: a discussão jurídica“. Na sexta-feira, a partir das 10 horas, ocorrerá o encerramento, com o webinar “Limites territoriais da jurisdição na internet“.
Para receber informações e conteúdos exclusivos sobre os eventos da Casa JOTA, faça o cadastro.
Embora não exista legislação específica disciplinado a moderação de conteúdo, outras normas já existentes tocam, com algumas limitações, nas preocupações em relação à prática. Seriam os casos do Marco Civil da Internet, da Lei Geral de Proteção de Dados Pessoais (LGPD) e do Código de Defesa do Consumidor.
“As plataformas são responsáveis por evitar uso ilícito. Depende delas também promover um grau de segurança mínimo. Por isso, o próprio WhatsApp processou empresas que fizeram disparos em massa de propaganda eleitoral, que seria um abuso”, afirmou Flávia Lefèvre, sócia do escritório Flávia Lefèvre Advogados Associados, em São Paulo.
Na perspectiva dela, os provedores de aplicação seriam corresponsáveis pela disseminação de conteúdo indevido, por isso a moderação viria no sentido também de fazer frente a isso. “As empresas que operam as redes sociais têm estimulado o fluxo de conteúdos inflamatórios, que tem mais engajamento, tendo em vista seus modelos de negócios, dependentes de acessos para manter publicidade. Assim, a crise de desinformação tem sua origem não só na atuação de grupos coordenados, mas também por aspectos econômicos”, avaliou.
Nesse sentido, seria fundamental haver regulação estatal para evitar discurso de ódio e desinformação e preservar liberdade de expressão. “A plataforma tem o direito de moderação, porém isso não pode permitir que os provedores abusem do seu poder de controladores de fluxo de informação e acabem bloqueando conteúdos sem justificativa plausível”, opinou Lefèvre, que também se disse contrária ao banimento de contas.
Ela também ponderou que, apesar de as empresas poderem determinar os próprios termos de uso, se as cláusulas forem abusivas podem ser contestadas na Justiça. A advogada Nicole Moreira, sócia escritório Mattos Filho, tem visão um pouco distinta: “Historicamente, todo coletivo tem direito de estabelecer regras de convivência, seguindo valores dos seus associados. Não podemos esquecer que as redes sociais são geridas por empresas privadas”, disse.
Assim, ela avaliou que a discussão deveria estar centrada nos parâmetros para a moderação, e não se ela deveria ser permitida ou não. “No Judiciário, há decisões de todos os tipos, mas a maioria tem prestigiado o direito de aplicar as próprias regras de remoção”, afirmou. Para Moreira, a autorregulação pelas plataformas seria a melhor solução, e não necessariamente uma ferramenta legislativa.
A opção não é bem vista por Lefèvre: “A autoregulação tem nos levado a resultados complicados, como nas eleições de 2016 nos Estados Unidos, a campanha do Brexit ou o escândalo da Cambridge Analytics, em que se demonstrou ter havido uso indevido do impulsionamento”.
Para Mariana Valente, diretora da organização Internet Lab, a autoregulação não é viável, mas há formas de buscar um meio termo, como opções de sandbox regulatório. “Quando olhamos só para dois extremos, se deve ou não pode moderar, esquecemos das questões que estão no meio da discussão e o que está em jogo”, afirmou.
Além disso, ela entende que, além de ser permitida pelo sistema jurídico brasileiro, a moderação pode funcionar para garantir o amplo debate e, assim, a liberdade de expressão. “A liberdade de expressão não é dada. É preciso garantir que as pessoas possam se manifestar com segurança”, disse.
Além de a disseminação de conteúdos abusivos, com discurso de ódio, violência explícita e abusos, poder afastar muitos grupos, que deixam de poder se expressar, há ainda confronto com direitos fundamentais. Valente citou a garantia internacional de as mulheres terem uma vida livre de violência, que é ratificada pelo Brasil. “Ambiente tóxicos significam que as mulheres não conseguirão se manifestar. Percebemos uma desproporção em relação aos ataques que as mulheres candidatas a eleições sofrem e comparação com homens”, exemplificou.
Fonte: JOTA