Big techs fazem investida contra julgamento do STF sobre responsabilização das redes
Google e Meta, big techs alvo de duas ações na Corte que discutem o Marco Civil da Internet, publicaram comunicados defendendo as práticas de moderação já realizadas
Com a retomada do julgamento no Supremo Tribunal Federal (STF) sobre a responsabilização das big techs por conteúdos publicados pelos usuários no Brasil, as gigantes de tecnologia Google e Meta se posicionaram publicamente sobre a discussão e tentativa de avanço na legislação brasileira.
Apesar de não citarem diretamente o julgamento retomado na tarde desta quarta-feira, 4, as empresas afirmaram que já fazem um trabalho "eficiente" e "permanente" na remoção de conteúdos nocivos e que consideram o debate sobre o Marco Civil da Internet importante. O Google acrescentou a ressalva de que discussão deve garantir que não haja "insegurança jurídica" e "incentivo à censura".
O debate na Corte gira em torno da constitucionalidade do artigo 19 do Marco Civil, que estabelece as regras gerais para o funcionamento da internet no País, elaborado em 2014. Ele prevê que as plataformas só podem ser responsabilizadas pelos conteúdos publicados por terceiros em caso de deixarem de cumprir uma ordem judicial específica de remoção daquele conteúdo.
No comunicado emitido pela Meta, que apresenta um relatório com dados da moderação e outras ações realizadas para "proteger a integridade" das eleições municipais deste ano, a empresa afirma que "o debate sobre a atualização das regras da internet é importante" e cita que o artigo em discussão já responsabiliza os provedores, "privilegiando a liberdade de expressão".
Já o Google afirma que "abolir regras que separam responsabilidade civil das plataformas e dos usuários não contribuirá para o fim da circulação de conteúdos indesejados na internet". A nota diz que, apesar dos esforços da empresa, as "boas práticas de moderação" não são suficientes, portanto, como manda a legislação, o Poder Judiciário atua nesses casos "traçando a fronteira entre discursos ilícitos e críticas legítimas".
As duas big techs são alvos das ações que chegaram ao Supremo em 2017 e estão sendo julgadas desde a última quarta-feira, 27, com relatoria dos ministros Dias Toffoli e Luiz Fux. Apesar de somente Toffoli já ter se pronunciado com a leitura parcial de seu voto, ele e outros ministros já sinalizaram que devem sugerir mudanças nas normas em vigor.
Moraes falou sobre os ataques golpistas do 8 de Janeiro para fazer críticas às redes sociais por permitirem a circulação de publicações antidemocráticas, enquanto Cármen Lúcia citou o recente atentado a bomba em frente à Corte, destacando que havia postagens do autor antecipando a ação nas redes sociais.
Leia o comunicado da Meta
[...] Como os números abaixo sobre moderação de conteúdo atestam, não há inércia da Meta para detectar e agir sobre conteúdos nocivos, ao contrário do que tem se ouvido no debate público. Além disso, nosso modelo de negócios não prospera em um ambiente online tóxico: os anunciantes não querem ver suas marcas vinculadas a conteúdos nocivos.
Queremos ser claros: não toleramos violência e outros comportamentos nocivos em nossos serviços. E não agimos sobre esses tipos de conteúdos somente quando recebemos ordens judiciais, pelo contrário.
O trabalho para garantir a integridade das nossas plataformas é permanente. No período eleitoral entre agosto e outubro deste ano, removemos mais de 2,9 milhões de conteúdos no Facebook, Instagram e Threads no Brasil por violação de nossas políticas de bullying e assédio, discurso de ódio e violência e incitação. [...]
O debate sobre atualização das regras da internet é importante, inclusive quanto ao artigo 19 do Marco Civil da Internet. A regra estabelece um sistema de responsabilização dos provedores de aplicação sobre conteúdos postados por terceiros privilegiando a liberdade de expressão, ao mesmo tempo permitindo que as plataformas moderem os conteúdos postados nelas. [...]
Leia a nota do Google
"Abolir regras que separam a responsabilidade civil das plataformas e dos usuários não contribuirá para o fim da circulação de conteúdos indesejados na internet. O Marco Civil da Internet pode e deve ser aprimorado, desde que se estabeleçam garantias procedimentais e critérios que evitem insegurança jurídica e o incentivo à censura.
O Google remove, com eficiência e em larga escala, conteúdos em violação às regras de cada uma de suas plataformas. São centenas de milhões de conteúdos removidos por ano pela própria empresa, em linha com as regras públicas de cada produto.
Entretanto, boas práticas de moderação de conteúdo por empresas privadas são incapazes de lidar com todos os conteúdos controversos, na variedade e complexidade com que eles se apresentam na internet, refletindo a complexidade da própria sociedade. A atuação judicial nesses casos é um dos pontos mais importantes do Marco Civil da Internet, que reconhece a atribuição do Poder Judiciário para atuar nessas situações e traçar a fronteira entre discursos ilícitos e críticas legítimas."