Regulação da web "esfria" e dá tempo para big techs se blindarem
PL das Fake News saiu de pauta e STF adiou votações sobre moderação de conteúdo e Marco Civil; empresas são maiores beneficiadas da situação
O Brasil está testemunhando um intenso debate sobre a responsabilidade das gigantes da tecnologia na moderação de conteúdo na internet. No entanto, após a retirada do PL das Fake News da pauta e o adiamento do julgamento do Marco Civil da Internet, a discussão parece ter esfriado — para o alívio das empresas, segundo especialistas ouvidos pelo Byte.
Uma reportagem do Estadão revelou que a Meta e o Google realizaram uma intensa operação de pressão em Brasília contra o projeto de lei. A influência exercida por essas empresas nos gabinetes levou a pelo menos 33 deputados a mudarem de posição entre a aprovação do requerimento de urgência, em 19 de abril, e a retirada da pauta, em 2 de maio.
No cenário público, o Google e o app de mensagens Telegram enviaram conteúdos aos usuários com argumentos contrários à lei que seria votada. Essas empresas alegam não ser contra a regulação, mas discordam das questões em jogo.
No Judiciário, o Supremo Tribunal Federal (STF) chegou a ensaiar, entre maio e junho, a retomada do julgamento de ações relacionadas ao Marco Civil da Internet, que regula o ambiente digital no Brasil, mas tudo isso também foi retirado da pauta.
"É uma discussão sobre custo", diz Alexandre Pacheco, doutor em política tecnológica e professor da FGV (Fundação Getulio Vargas). As mudanças que estavam sendo discutidas são, na visão do especialista, tecnicamente possíveis para as big techs. Entretanto, seriam economicamente inviáveis.
"As empresas foram muito bem sucedidas em ferramentas de filtragem de conteúdos de pornografia infantil e direitos autorais, por exemplo. São filtros que têm eficácia muito boa, mas, quando expandimos isso para 'conteúdo nocivo', estamos falando de uma infinidade de assuntos", diz.
Relembre campanha contra o projeto de lei das Fake News
O PL 2630, apelidado de PL das Fake News, é de autoria do senador Alessandro Vieira (PSDB-SE). Ele apresentou o texto ao Senado em maio de 2020, e tem como relator o deputado federal Orlando Silva (PCdoB-SP).
Ele ficou parado até a base aliada de Lula agir e acelerar o projeto com o apoio do presidente da Câmara, Arthur Lira (PP-AL), e de membros do STF após os atos golpistas de 8 de janeiro de 2023 e os ataques violentos em escolas de São Paulo e Blumenau em março e abril deste ano. Entretanto, enfrentou forte oposição das gigantes da tecnologia e de parlamentares ligados a Jair Bolsonaro (PL).
O Google exibiu em sua página inicial, para todos os usuários, uma mensagem de alerta contra o projeto. Os internautas que clicavam no link eram direcionados a um artigo de opinião do diretor de relações governamentais e políticas públicas do Google Brasil, Marcelo Lacerda, que acusava o PL de "aumentar a confusão entre o que é verdade e mentira no Brasil".
O Telegram também aderiu à campanha e divulgou um manifesto com críticas à proposta. A mensagem chamava-a de "desnecessária" e afirmava que ela "concede poderes de censura ao governo".
Como resultado, a tentativa de votação do PL na Câmara foi adiada por receio de derrota. Orlando Silva também afirmou que pretendia incluir mais sugestões externas ao seu parecer. Agora, com o recesso dos parlamentares a menos de um mês e pautas como a CPI das ONGs, a CPI do 8 de Janeiro, o arcabouço fiscal e a reforma tributária dominando o debate, a discussão parece ter ficado em segundo plano.
No início de maio, o ministro do STF Alexandre de Moraes abriu um inquérito, a pedido da Procuradoria-Geral da República (PGR), sobre os diretores do Google e do Telegram devido às campanhas contra o PL das Fake News. Segundo a Folha de São Paulo, um relatório enviado a Moraes mostra que o Google gastou R$ 2 milhões em anúncios contra o projeto.
O que o PL das Fake News mudaria para as empresas
- Entidade fiscalizadora: a proposta inicial previa a criação de um órgão de fiscalização das plataformas digitais. No entanto, a versão mais recente excluiu essa criação, temendo restrições ao debate;
- Dever de cuidado: as grandes empresas de tecnologia seriam obrigadas a trabalhar diligentemente para prevenir ilegalidades e aprimorar o combate à disseminação de conteúdos ilegais de usuários;
- Responsabilização pela publicidade: o PL prevê a responsabilização solidária das plataformas com usuários por conteúdos distribuídos por meio de publicidade. Atualmente, apenas o usuário que produz conteúdo ilegal pode ser penalizado;
- Transparência e relatórios: os provedores deveriam compartilhar relatórios semestrais de transparência, informando em português os procedimentos de moderação de conteúdo;
- Restrição ao disparo em massa: os aplicativos teriam que limitar a distribuição massiva de conteúdos e mídias, além de desligar automaticamente a inclusão em grupos e listas de transmissão;
- Remuneração de conteúdo jornalístico: o PL sugere que as big techs devem remunerar os veículos jornalísticos pelas postagens que produzem e alimentam as plataformas, como forma de combater as fake news. Além disso, proibiria a remoção de todos os links de veículos como retaliação por não concordarem em pagar.
Marco Civil passou raspando no STF
Após o início de maio em que o PL das Fake News teve a sua votação adiada, foi a vez de as atenções se voltarem para votações no Supremo Tribunal Federal (STF) que traziam à tona casos relevantes relacionados à regulação do ambiente digital brasileiro.
O recurso extraordinário (RE) 1037396 discute a constitucionalidade do artigo 19 do Marco Civil da Internet. Ele sugere uma responsabilidade aos apps e plataformas por conteúdos nocivos gerados pelas pessoas que as usarem. A ação foi movida por uma dona de casa do interior de São Paulo, que busca indenização do Facebook devido a um perfil falso criado em seu nome.
Como está hoje, o artigo 19 do Marco Civil diz que as empresas só podem ser responsabilizados quando descumprirem uma ordem judicial para a remoção do conteúdo nocivo em suas plataformas.
Se o STF declarasse que o texto é inconstitucional, recairia sobre as redes sociais o dever de fazer uma moderação constante e prévia. Assim, assumiriam a responsabilidade pelos conteúdos antes mesmo de uma ordem judicial ser recebida.
O RE 1057258, também aborda a moderação de conteúdo, mas refere-se a fatos ocorridos antes da promulgação do Marco Civil da Internet. Ele envolve uma professora de Minas Gerais que foi alvo de ofensas em uma comunidade no extinto Orkut.
Há ainda a Ação Direta de Inconstitucionalidade (ADI) 5527 e a Arguição de Descumprimento de Preceito Fundamental (ADPF) 403, movidas por causa de vereditos de diferentes tribunais brasileiros que ordenaram a suspensão do WhatsApp após a plataforma se negar a cumprir outras decisões judiciais no Brasil.
"Se há monetização, há responsabilização", diz Patricia Peck, advogada especialista em direito digital e sócia da Peck Advogados.
Ela entende que, em um eventual julgamento das ações que afetam o Marco Civil, empresas poderiam amargar decisões da Corte que aumentassem o seu dever perante a soceidade.
"Tendo em vista declarações recentes dos Ministros na imprensa e teor da audiência pública realizada, a corte parece estar inclinada a ocupar a lacuna que a mudança da realidade e do modelo de negócios ocasionou", comenta.
O ministro Gilmar Mendes chegou a afirmar publicamente que defendia a modernização da legislação. "O regime jurídico do Marco Civil da internet, embora tenha sido inegavelmente importante para preservação da liberdade de expressão online, precisa ser urgentemente revisto", disse em evento, no dia 13 de maio. “É preciso um meio do caminho entre liberdade total das plataformas e controle estatal.”
Os julgamentos do STF sobre as quatro ações envolvendo o Marco Civil eram esperados para a segunda quinzena de junho, mas não aconteceram.
Quem deve decidir?
"A porta de entrada para essas definições tem que ser as plataformas, e não o Judiciário", diz Rony Vainzof, coordenador da pós-graduação em Direito Digital da Escola Paulista de Direito.
Para ele, o maior problema em deixar discussões complexas centradas no governo é a falta de clareza sobre os processos internos das plataformas: métodos, dados e modelos adotados no chamado "devido processo informacional".
"Há de se exigir que plataformas publicizem regras de moderação de comportamento. A partir daí, podemos pesquisar sobre isso, estimularmos novos debates e avaliar se existem plataformas que não combatem discurso de ódio", pontua.
Nina Santos, coordenadora-geral do Desinformante, projeto de combate à desinformação no Brasil, também entende que o STF não deve, em um cenário ideal, ser o ponto de partida para um novo momento regulatório.
Ela defende, por outro lado, a volta da pauta para o Legislativo. "Precisamos sair da excepcionalidade e entrar na ordinariedade. O uso da internet é ordinário, usamos todos os dias, então não precisamos ficar pautados por decisões extraordinárias. Precisamos de algo estrutural", diz.
A melhor chance para o Brasil conseguir algum avanço na pauta, sugere Santos, seria a retomada das discussões em torno do PL 2630. "Por não ter sido votado, não ajuda. Há um enfraquecimento da pauta. Não é facil conseguir espaço para o tema de regulação de plataformas, mas, hoje, é o caminho mais forte, que pode construir algo melhor e mais duradouro", defende.
Google quer evitar regulação "perversa"
Na última terça-feira (27), durante o evento Google for Brasil 2023, o presidente do Google Brasil, Fabio Coelho, afirmou que a empresa quer evitar uma legislação "aparentemente boa", mas que possa vir a ser "perversa" para todos.
Em coletiva de imprensa durante o evento anual Google for Brasil, o executivo disse que a empresa não é contra a regulação das plataformas digitais e que está em diálogo com as autoridades brasileiras para discutir o tema.
Ele ressaltou que a empresa está em discussões com autoridades brasileiras, incluindo a Agência Nacional de Telecomunicações (Anatel) e o relator do PL, Orlando Silva, para definir uma regulação benéfica para todos.
O que dizem as outras empresas
Procurada pelo Byte, a Meta afirmou que seus posicionamentos sobre a discussão estavam em uma publicação no blog da companhia.
De acordo com o texto, a declaração de inconstitucionalidade do Artigo 19 representa um risco, pois poderia resultar em uma remoção excessiva de conteúdos subjetivos pelas plataformas, visando mitigar riscos jurídicos.
Isso, diz a empresa, poderia levar à exclusão de conteúdos críticos, essenciais para o debate público e a democracia, mesmo que não violem as leis locais ou as regras das plataformas. Essa situação comprometeria a liberdade de expressão e poderia tornar a internet no Brasil menos dinâmica e inovadora, segundo a Meta.
No Canadá, Google e Meta recentemente reagiram à aprovação de uma lei que regulamenta pagamentos de plataformas ao jornalismo e retiraram do se seus serviços links de notícias do país.
Procurado, o app Telegram não respondeu à reportagem até o momento de sua publicação. A mensagem disparada em maio, em seu canal oficial na plataforma, dizia que o Brasil estava prestes a aprovar uma lei que ameaçará a liberdade de expressão.
O texto enfatizou que a democracia estava sob ataque e afirma que o PL das Fake News concederia poder de censura ao governo. O Telegram argumentou que a proposta transferirá para os aplicativos o poder de decidir quais conteúdos são "ilegais", em vez de deixar essa responsabilidade para os tribunais.
No dia seguinte à postagem, o ministro do STF Alexandre de Moraes deu uma hora para o Telegram apagar a mensagem contra o PL, sob o argumento de que ela trazia "flagrante e ilícita desinformação atentatória ao Congresso Nacional, ao Poder Judiciário, ao estado de direito e à democracia brasileira". A ordem foi atendida pelo aplicativo.