Big techs fazem ofensiva em meio a julgamento no STF que afeta redes

Dona do Facebook e Google divulgam posicionamentos sobre Marco Civil da Internet e defendem políticas de moderação

Renata Galf

São Paulo

Às vésperas da retomada do julgamento que envolve a responsabilidade civil das redes sociais pelo STF (Supremo Tribunal Federal), duas das principais big techs, Google e Meta, divulgaram posicionamentos sobre a regra que está em debate na corte e defenderam o trabalho de moderação de conteúdo que já é realizado por elas.

Cada uma das empresas é parte nas duas diferentes ações que pautam o debate do Supremo sobre o assunto, que teve início na semana passada e terá, nesta quarta-feira (4), sua terceira sessão.

De um lado, as notas demonstram a tentativa de rebater a linha de argumentação de que nada fazem, como foi apregoado por parte dos ministros e representantes que falaram nos dois primeiros dias de sessões. Nenhuma das duas notas, porém, cita o julgamento diretamente.

De outro, sinalizam entender que o cenário sobre a mesa é o de que haverá algum tipo de alteração da regra atualmente em vigor pelo Supremo, ao mesmo tempo em que defendem a importância do modelo atual demarcado pelo artigo 19 do Marco Civil da Internet.

Isso ocorre em um momento em que não há clareza ainda de qual lado tomará o ministro Dias Toffoli, relator de uma das ações que discutem a responsabilidade civil das empresas de internet, e que adotou tom pesado contra as big techs ao longo do início de seu voto na quinta-feira passada (28).

Além disso, houve mudança de posição do governo, que deixou de defender um caminho intermediário pelo Supremo e se manifestou pela derrubada da regra atual, algo que teria um impacto maior para as empresas. Ainda que a linha de interpretação proposta pela AGU (Advocacia-Geral da União) no processo já criasse amplas exceções ao regime vigente hoje.

Os dois dias de julgamento foram marcados por comentários críticos às redes. Um dos mais vocais foi proferido pelo ministros Alexandre de Moraes, que afirmou que os ataques golpistas de 8 de janeiro de 2023 demonstraram a falência do sistema de autorregulação das plataformas.

As empresas, por sua vez, defendem a moderação de conteúdo que realizam de modo proativo e apontam dados buscando mostrar que atuam em grande escala.

A Meta diz que “não há inércia” da empresa contra conteúdos nocivos, “ao contrário do que tem se ouvido no debate público”. E aponta que removeu, de modo proativo, 2,9 milhões de conteúdos de suas plataformas durante o período eleitoral por violação de suas políticas.

Já o Google afirma que “remove, com eficiência e em larga escala, conteúdos em violação às regras de cada uma de suas plataformas” e que “são centenas de milhões de conteúdos removidos por ano pela própria empresa”.

Ainda que seja um fato que as empresas atuam para aplicar suas próprias regras, a falta de transparência sobre o funcionamento das diferentes plataformas é apontada como um obstáculo para compreensão do quão significativos são os números apresentados por elas em seus diferentes relatórios.

Segundo o artigo 19 do Marco Civil, tratados por Toffoli como uma “imunidade” para as plataformas, elas só estão sujeitas a pagar indenização por algo postado por terceiros se, após uma decisão judicial ordenando a retirada, mantiverem o conteúdo no ar.

O posicionamento do Google critica uma posição mais extrema, dizendo que “abolir regras que separam a responsabilidade civil das plataformas e dos usuários não contribuirá para o fim da circulação de conteúdos indesejados na internet”.

Ao mesmo tempo, diz que o Marco Civil “pode e deve ser aprimorado, desde que se estabeleçam garantias procedimentais e critérios que evitem insegurança jurídica e o incentivo à censura”.

Já a nota da Meta defende a importância do Marco Civil, ao mesmo tempo em que admite que “o debate sobre atualização das regras da internet é importante, inclusive quanto ao artigo 19”.

A regra em vigor teria como intuito proteger a liberdade de expressão e evitar a censura, na medida que não incentivaria as empresas a removerem conteúdos por receio de serem processadas. Ela não impede, por outro lado, que as plataformas apliquem suas próprias regras para removerem conteúdos. Tampouco, porém, criam estímulos para que atuem.

Enquanto uma decisão afirmando que o artigo 19 é constitucional manteria o cenário como está, a declaração de sua inconstitucionalidade o derrubaria, levando o Brasil ao cenário pré-2014. Uma linha intermediária seria a “interpretação conforme a Constituição”, em que o artigo é mantido, mas ganha nova interpretação pelo Supremo.

Da parte das empresas, uma das principais preocupações, como deixaram claro os advogados que fizeram as sustentações orais em nome do Google e Facebook, é restringir a amplitude de eventual caminho intermediário.

Atualmente o regime do Marco Civil da Internet já possui mecanismos de exceção, no caso, para violação a direitos autorais e conteúdo de nudez não consentida. Um caminho intermediário pelo Supremo prevendo a ampliação deste rol seria para as big techs um caminho defendido como de menor insegurança jurídica.

Ambos defenderam a constitucionalidade do artigo 19. Apontaram, porém, em linhas gerais, que eventual caminho intermediário deveria prever a necessidade de notificação para que as empresas pudessem ser responsabilizadas.

E defenderam ainda rol temático mais restritivo, prevendo crimes como exploração sexual infantil, terrorismo, racismo, e os crimes de abolição violenta do Estado democrático de Direito e de golpe de Estado.

Conceitos vistos como mais abertos como desinformação e crimes contra a honra, por outro lado, são vistos como sinais vermelhos. O TikTok, por sua vez, organizou um evento em conjunto com o Instituto Vero nesta terça (3) em Brasília sobre segurança digital de menores de idade. Segundo a Folha apurou, entretanto, a informação é que a data não tem relação com o julgamento. A questão envolvendo crianças nas redes é um dos aspectos mobilizados no julgamento no Supremo.


Fonte: Folha de São Paulo

Traduzir »