Meta possui estrutura para proteger jovens e não fez o suficiente, diz ex-funcionário
Em denúncia, Arturo Béjar citou a morte de Molly Russell "enquanto sofria de depressão e efeitos negativos do conteúdo online"
Um ex-funcionário da Meta — empresa proprietária do Instagram, Facebook e Threads — afirmou em depoimento que a companhia não fez o suficiente para proteger crianças e adolescentes nas redes sociais. Segundo Arturo Béjar, ex-engenheiro sênior e consultor da empresa, a Meta já possui infraestrutura para proteger os jovens de conteúdos nocivos.
O ex-funcionário testemunhou perante o Congresso dos EUA no ano passado, detalhando sua experiência na empresa.
Em sua denúncia, Béjar citou o caso da morte de Molly Russell, a estudante britânica, de 14 anos, foi morta por “um ato de automutilação enquanto sofria de depressão e efeitos negativos do conteúdo online”, concluiu um inquérito apresentado no Reino Unido em 2022.
A menina suicidou-se em 2017 após ver conteúdos nocivos relacionados com suicídio, automutilação, depressão e ansiedade no Instagram e no Pinterest.
Béjar tem se reunido esta semana com políticos, reguladores e ativistas no Reino Unido, incluindo o pai de Molly, Ian Russell.
Para o denunciante, se a empresa tivesse aprendido as lições com a morte de Molly e do inquérito subsequente, teria criado uma experiência mais segura para os usuários jovens.
De acordo com uma pesquisa realizada por Béjar sobre usuários do Instagram, 8,4% dos jovens de 13 a 15 anos viram alguém se mutilar ou ameaçar se mutilar na última semana.
“Se tivessem aprendido as lições de Molly Russell, criariam um produto seguro para jovens de 13 a 15 anos, onde na última semana um em cada 12 viu alguém se machucar ou ameaçar fazê-lo. E onde a grande maioria deles se sente apoiada quando se deparam com conteúdo de automutilação”, disse Béjar ao jornal The Guardian.
Ele disse que Mark Zuckerberg, dono da Meta, tem as ferramentas à sua disposição para tornar o Instagram, em particular, mais seguro para os adolescentes, mas a empresa optou por não fazer essas alterações.
“Ou eles precisam de um executivo-chefe diferente ou precisam que ele acorde amanhã de manhã e diga: ‘Esse tipo de conteúdo não é permitido na plataforma’, porque eles já têm a infraestrutura e as ferramentas para que isso [conteúdo] seja impossível de se encontrar".
As responsabilidades de Béjar como diretor de engenharia incluíam ferramentas de segurança infantil e ajudar as crianças a lidar com conteúdos nocivos, como material de bullying.
Após deixar a empresa como engenheiro sênior em 2015, ele retornou como consultor em 2019 por um período de dois anos, onde conduziu uma pesquisa que mostrava que uma em cada oito crianças de 13 a 15 anos no Instagram havia recebido investidas sexuais indesejadas, enquanto uma em cada cinco foram vítimas de bullying na plataforma e 8% visualizaram conteúdo de automutilação.
O ex- funcionário da Meta pediu à empresa que estabeleça normas para a redução de conteúdo prejudicial.
Béjar continua monitorando o Instagram e afirma que o conteúdo prejudicial – incluindo material de automutilação – permanece no aplicativo, bem como evidências claras de usuários menores de idade. O Instagram tem limite de idade mínimo de 13 anos.
Um porta-voz da Meta disse ao The Guardian que “todos os dias, inúmeras pessoas dentro e fora da Meta trabalham para ajudar a manter os jovens seguros online. Trabalhando com pais e especialistas, introduzimos mais de 30 ferramentas e recursos para apoiar os adolescentes e as suas famílias a terem experiências online seguras e positivas. Todo esse trabalho continua.”
A Meta cita ainda inúmeras iniciativas de segurança, incluindo a configuração automática de contas de menores de 16 anos para o modo privado quando eles entram no Instagram, restringindo os adultos de enviar mensagens privadas a adolescentes que não os seguem e permitindo que os usuários do Instagram denunciem intimidação, assédio e violência sexual.