Apple vai checar iPhones à distância para verificar imagens de abuso sexual infantil

A Apple anunciou que implementará um sistema para analisar iPhones dos Estados Unidos em busca de imagens de abuso sexual infantil; críticos temem que sistema possa ser usado também para cercear liberdades individuais.

6 ago 2021 - 12h17
A Apple diz que a tecnologia será capaz de detectar versões editadas, mas semelhantes, das imagens originais de abuso sexual infantil
A Apple diz que a tecnologia será capaz de detectar versões editadas, mas semelhantes, das imagens originais de abuso sexual infantil
Foto: Getty Images / BBC News Brasil

A Apple anunciou que vai colocar em uso um sistema para localizar material de abuso sexual infantil (identificado pela sigla CSAM, em inglês) em dispositivos de clientes dos Estados Unidos.

Antes de uma imagem ser armazenada no iCloud, a tecnologia irá procurar correspondências com material de abuso sexual infantil já conhecidos.

Publicidade

Assim, se uma correspondência for encontrada, um revisor humano avaliará o caso e relatará o usuário às autoridades, segundo disse a Apple.

Isso levantou, no entanto, preocupações com a privacidade - de que a tecnologia possa ser expandida para rastrear telefones em busca de conteúdo proibido ou mesmo discurso político. Especialistas temem que a tecnologia possa ser usada por governos autoritários para espionar seus cidadãos.

A Apple disse que as novas versões do iOS e iPadOS - que serão lançadas ainda este ano - terão "novos aplicativos de criptografia para ajudar a limitar a propagação do material de abuso sexual infantil online, ao mesmo tempo em que foram projetadas para a privacidade do usuário".

O sistema funciona comparando imagens a um banco de dados de imagens de abuso sexual infantil conhecidas compilado pelo Centro Nacional para Crianças Desaparecidas e Exploradas dos EUA e outras organizações de segurança infantil.

Publicidade

Essas imagens são traduzidas em "hashes", códigos numéricos que podem ser "combinados" com uma imagem em um dispositivo Apple.

A Apple diz que a tecnologia também será capaz de detectar versões editadas, mas semelhantes, das imagens originais.

O novo sistema funciona comparando imagens a um banco de dados de imagens de abuso sexual infantil conhecido
Foto: PA Media / BBC News Brasil

'Alto nível de precisão'

"Antes que uma imagem seja armazenada nas fotos do iCloud, um processo de correspondência no dispositivo é executado para essa imagem em relação ao material de abuso sexual infantil conhecido", disse a Apple.

A empresa afirmou que o sistema tem "um nível extremamente alto de precisão e garante menos de uma chance em um trilhão por ano de sinalizar incorretamente uma determinada conta".

Além disso, a Apple diz que revisará manualmente cada relatório para confirmar se há uma correspondência. Em seguida, pode tomar medidas para desativar a conta de um usuário e relatar às autoridades.

Publicidade

A empresa diz que a nova tecnologia oferece benefícios de privacidade "significativos" em relação às técnicas existentes - já que a Apple só fica sabendo das fotos dos usuários se eles tiverem uma coleção de material de abuso sexual infantil conhecido em sua conta do iCloud.

Alguns especialistas em privacidade expressaram preocupações.

"Independentemente de quais sejam os planos de longo prazo da Apple, eles enviaram um sinal muito claro. Em sua opinião (muito influente), é seguro construir sistemas que examinam os telefones dos usuários em busca de conteúdo proibido", disse Matthew Green, pesquisador de segurança da Johns Hopkins University, nos Estados Unidos.

"Se eles estão certos ou errados nesse ponto, pouco importa. Isso quebrará a barreira - os governos exigirão isso de todos."

BBC News Brasil - Todos os direitos reservados. É proibido todo tipo de reprodução sem autorização escrita da BBC News Brasil.
Fique por dentro das principais notícias
Ativar notificações