STF vira "xerife das fake news" enquanto Brasil não cria leis específicas
Sem lei específica, decisões da Corte em casos como os de Monark, Carla Zambelli e Allan dos Santos podem criar base para legislação futura
O Brasil quer regular com mais propriedade diferentes abusos de liberdade de expressão nas redes sociais. Uma eventual aprovação da PL das Fake News (2630/2020) no Legislativo e o início de uma votação do Supremo Tribunal Federal (STF) sobre o Marco Civil da Internet (Lei n° 12.965) surgiram como duas novidades nesse sentido.
Mas, como ambos os debates se encontram em um tipo de "limbo", ministros da Suprema Corte baseiam-se em interpretações de leis existentes para ordenar o ambiente digital. Assim, criam uma jurisprudência que pode servir como "plano B" até que surjam leis definitivas sobre o assunto. E isso ocorre em um momento delicado, em que a regulamentação do espaço digital é debatida em escala global.
Esse é o caso do influenciador Bruno Aiub, conhecido como Monark, que entrou com um recurso no STF para tentar reverter a decisão do ministro Alexandre de Moraes, no dia 13 de junho, que bloqueou seus perfis nas redes sociais.
O TSE (Tribunal Superior Eleitoral) levou este caso ao STF após identificar, por meio do seu setor de combate à desinformação, que Monark fez declarações levantando dúvidas sobre o processo eleitoral. Agora, o pedido da defesa do cocriador do podcast Flow — hoje afastado do programa — é que o magistrado reconsidere o bloqueio ou envie o recurso para julgamento no plenário da Corte.
O status do PL das Fake News e do Marco Civil
Em abril, o Projeto de Lei 2630/20, conhecido como PL das Fake News, entrou na pauta de votação. Esta começou em maio, mas o próprio relator do projeto, o deputado federal Orlando Silva (PCdoB-SP), pediu ao presidente da Câmara, Arthur Lira (PP-AL), para retirar da pauta.
A decisão dele veio após uma série de ataques e críticas ao projeto de lei, vindo tanto da oposição quanto de empresas de tecnologia como Google e Telegram. Houve especulações de que o texto previa censura a conteúdo religioso — o que Silva negou. Ele estaria reescrevendo o PL para contemplar sugestões que permitam a sua aprovação no Legislativo.
No caso do Marco Civil da Internet, o STF remarcou a análise dos processos sobre pontos da lei, aprovada em 2014, para a segunda quinzena de junho. Isso se deu a pedido dos relatores das ações, os ministros Dias Toffoli e Luiz Fux. No entanto, não houve até o momento uma nova data para pôr o assunto em pauta novamente.
A Corte tem em mãos quatro ações que discutem a regulação das redes sociais. Duas delas são de maior atenção por tratarem da constitucionalidade do artigo 19 do Marco Civil. Ele estabelece que big techs como Google, Meta (proprietária do Instagram e Facebook) e TikTok só podem ser responsabilizadas por conteúdos de terceiros se não tomarem providências após ordem judicial.
Um dos casos com Dias Toffoli refere-se à criação de um perfil falso que foi usado para criar desavenças familiares. A verdadeira pessoa, que teve o perfil falso criado em seu nome, disse que o Facebook não agiu para remover o perfil. Ela levou à Justiça, que não lhe deu ganho de caso com base no artigo 19. Após recurso, ela teve o pedido atendido e o artigo foi declarado inconstitucional. Isso fez a Meta levar o caso ao STF.
As outras duas ações a serem julgadas pelos ministros questionam se apps de mensagens — como Telegram e WhatsApp — podem ser suspensos caso não cumpram uma decisão da Justiça. Em resumo, trazem para empresas que fornecem as plataformas mais responsabilidades, em vez de deixá-las apenas com os usuários que postam os conteúdos.
Casos recentes de abusos
O caso de Monark não foi o único em que o STF foi mais assertivo nos últimos anos. Em novembro do ano passado, as redes sociais da deputada Carla Zambelli (PL-SP) foram removidas do ar durante uma investigação por atos antidemocráticos. Na ocasião, a parlamentar postou mensagens parabenizando os caminhoneiros pelas paralisações.
Outra situação semelhante é ainda mais antiga: em outubro de 2021, por decisão do ministro Alexandre de Moraes, os perfis do canal “Terça Livre”, do blogueiro Allan dos Santos, foram bloqueados. A decisão fazia parte do inquérito das “milícias digitais”, que apurava supostos ataques de bolsonaristas contra a democracia. O magistrado determinou a prisão preventiva de Santos.
Além de políticos e influenciadores, anônimos colaboram há anos com o crescimento da desinformação e de discursos de ódio na internet. Isso vem trazendo cada vez mais consequências trágicas, de mortes na pandemia de covid-19 à propagação de injúrias e organizações de ataques violentos a escolas, como os que ocorreram em Vila Sônia (SP) e Blumenau (SC) neste ano.
Um recente estudo mostrou que as vacinas aplicadas na pandemia de covid eram o principal alvo de notícias falsas sobre a doença, correspondendo a 19,8% do conteúdo. O levantamento foi conduzido pela pesquisadora da Fundação Oswaldo Cruz (Fiocruz) Claudia Galhardi em parceria com o Núcleo de Pesquisa em Jornalismo e Comunicação da Universidade Federal do Piauí (UFPI).
Para a análise, os cientistas se basearam em 253 notícias falsas relacionadas à doença, disseminadas em redes sociais, sites e aplicativos de mensagens entre 26 de março de 2020 e 31 de março de 2021.
O mesmo aconteceu durante o período eleitoral no ano passado. O TSE recebeu 21.012 denúncias de desinformação nas redes sociais de junho a outubro de 2022. Destas, 2.368 foram sobre disparos de mensagens em massa, e 15.016, de perfis de usuários com indícios de comportamento inautêntico — isto é, robôs (bots) que simulam comportamentos humanos em texto.
Que falta faz (mais) regulamentação sobre conteúdo na web?
A advogada especialista em direito digital e chefe de tecnologia da DataLegal, Camila Studart, disse ao Byte que a ausência de legislação específica, por si só, não impede que decisões judiciais sejam tomadas com base na interpretação das normas existentes. Ainda assim, essas leis podem ser contestadas pelas pessoas envolvidas nos vereditos.
“Contudo, a falta de legislação específica torna qualquer decisão judicial mais complexa e passível de ataque”, afirmou.
Caso uma nova lei seja aprovada, seja pelo PL 2630 ou outros projetos em tramitação, o que valerá para julgar casos como o de Monark, Zambelli e outros será a legislação a partir do momento em que ela seja promulgada, e não mais as decisões anteriores do STF.
Além disso, “quando uma nova lei promulgada tornar a jurisprudência anterior incompatível com a nova lei, a nova lei [em vigor] prevalecerá”, explicou Studart.
Se houver incompatibilidade, por exemplo, a advogada explica que os tribunais podem “revisar ou reverter uma jurisprudência estabelecida anteriormente” para a aplicação da nova lei.
Matheus Puppe, especialista em proteção de dados do Maneira Advogados, explicou que os réus por conteúdo nocivo na web podem recorrer à Justiça para reverter as decisões. No entanto, a falta de uma lei própria sobre isso pode não ser uma justificativa forte o suficiente para dar a eles ganhos de causa.
Afinal, as decisões do STF geralmente são baseadas em princípios constitucionais já estabelecidos, como liberdade de expressão, direito à privacidade e direito à dignidade.
“Enquanto não houver uma conclusão definitiva, a jurisprudência, enquanto conjunto de decisões e interpretações das leis, serve de orientação para casos futuros, preenchendo lacunas até que haja uma legislação específica”, disse.
O debate da regulamentação das redes
Ainda que o Marco Civil tivesse estabelecido, há nove anos, princípios, garantias, direitos e deveres para uso da internet, especialistas acreditam que a lei estava contextualizada em um momento social que não é o atual.
Além do PL 2630, há outro em tramitação no Congresso sobre o tema. O PL 2582/2023 quer estruturar o Sistema Brasileiro de Defesa da Liberdade de Expressão e Combate Integrado à Prática de Atos Ilegais na Internet. Na prática, quer definir mais direitos e deveres aos provedores e usuários de internet. O projeto aguarda despacho do presidente da Câmara dos Deputados.
Embora com origens distintas, os principais objetivos das duas propostas são obter uma moderação mais rígida contra discursos de ódio, desinformação, golpismo estrutural e redefinir limites da liberdade de expressão na internet.
Para Puppe, independentemente do resultado, a urgência em aprovar uma lei que promova segurança jurídica e confiabilidade aos ambientes públicos da internet é inegável.
Segundo ele, a ressalva é que essa lei não pode ser uma cópia de outros países, pois cada um possui suas próprias realidades. “É essencial que as leis e decisões respeitem os princípios democráticos e garantam a liberdade de expressão e os direitos dos usuários”, avaliou.
O Byte procurou o Supremo Tribunal Federal para comentar as decisões e os impactos em uma possível legislação. Até o momento da publicação desta reportagem, não houve retorno.
* Com Estadão Conteúdo e Redação Terra