Script = https://s1.trrsf.com/update-1731943257/fe/zaz-ui-t360/_js/transition.min.js
PUBLICIDADE

Nova medida de segurança no Instagram vai borrar fotos explícitas para menores

Para proteger crianças e adolescentes contra exploração e golpes, plataforma vai implementar uma nova restrição de imagens explícitas

11 abr 2024 - 10h55
(atualizado às 11h06)
Compartilhar
Exibir comentários
Resumo
A Meta anunciou que vai implementar um recurso de segurança no Instagram para proteger menores de idade, habilitado automaticamente para usuários adolescentes e, com notificação, para adultos. O recurso será lançado nas próximas semanas e implementado globalmente nos próximos meses.
Meta reforça segurança de menores de idade com novo recurso no Instagram
Meta reforça segurança de menores de idade com novo recurso no Instagram
Foto: Freepik

A Meta anunciou nesta quinta-feira (11) que vai lançar um novo recurso de segurança no Instagram para proteger menores de idade que usam o aplicativo. Agora, a plataforma vai borrar imagens de nudez em mensagens, como um esforço para evitar abusos e golpes sexuais.

O recurso será habilitado automaticamente para usuários adolescentes do Instagram, identificados pela informação de aniversário em suas contas. Usuários adultos vão receber uma notificação a respeito da novidade, na tentativa de incentivá-los a ativar a configuração.

Esses esforços respondem às críticas de longo prazo que existem tanto no Instagram, como no Facebook, sobre como as plataformas podem ser danosas aos usuários mais jovens.

Nesse ponto, isso vai de situações prejudiciais à saúde mental e a imagem corporal das crianças, até apoiar pais abusivos e criar um "mercado para predadores em busca de crianças".

De acordo com o jornal The Wall Street Journal, o novo recurso será testado nas próximas semanas. É esperado que a implementação global seja feita nos próximos meses. 

7 dicas para garantir a segurança do seu Instagram 7 dicas para garantir a segurança do seu Instagram

Segundo a Meta, o recurso usa machine learning para analisar se uma imagem enviada por mensagens diretas do Instagram contém nudez, e que a empresa não terá acesso a essas imagens a menos que tenham sido denunciadas.

A partir do momento que a proteção estiver habilitada, quem receber uma nude pelo aplicativo verá uma mensagem que diz para não se sentir pressionado a responder, juntamente com opções para bloquear e denunciar o remetente. 

"Este recurso é projetado não apenas para proteger as pessoas de verem nudez indesejada em suas mensagens diretas, mas também para protegê-las de golpistas que podem enviar nudes para enganar as pessoas a enviar suas próprias imagens em troca", disse a Meta em seu anúncio.

Na outra ponta, usuários que tentarem enviar uma mensagem direta contendo nudez também receberão um aviso a respeito dos riscos desse tipo de compartilhamento. Outra mensagem também aparecerá, tentando desencorajar usuários que tentarem encaminhar um nude que receberam.

Essa não é a primeira vez que a Meta entra com alguma nova configuração para proteger menores de idade em suas plataformas. Em fevereiro de 2023, a empresa apoiou uma ferramenta para remover imagens sexualmente explícitas de menores online e também restringiu o acesso a tópicos prejudiciais como suicídio, automutilação e distúrbios alimentares no início deste ano.

Fonte: Redação Byte
Compartilhar
TAGS
Publicidade
Seu Terra












Publicidade