Fotos de crianças brasileiras são usadas sem autorização para treinar IA, diz relatório
Foram encontradas 170 fotos de crianças de estados como Alagoas, Bahia, Ceará, entre outros — nem todas as fotos do conjunto foram revisadas
A Human Rights Watch divulgou, nesta segunda-feira (10), uma pesquisa alarmante sobre o uso não autorizado de fotos de crianças brasileiras para treinar ferramentas de inteligência artificial (IA).
Segundo o relatório, imagens retiradas da web estão sendo transformadas em um conjunto de dados chamado LAION-5B, usado por empresas para desenvolver suas tecnologias de IA. Essas fotos são frequentemente utilizadas para criar deepfakes maliciosos, expondo crianças a riscos significativos de exploração e danos.
“As crianças não deveriam ter de viver com medo de que suas fotografias possam ser roubadas e utilizadas como armas contra elas”, afirmou Hye Jung Han, investigadora dos direitos da criança e de tecnologia da Human Rights Watch, em comunicado à imprensa.
A pesquisa
A análise revelou que o LAION-5B contém links para fotos identificáveis de crianças brasileiras, com informações pessoais facilmente rastreáveis, incluindo nomes e localizações precisas. Em uma foto, por exemplo, são revelados os nomes de duas irmãs e o local do hospital onde uma delas nasceu.
Foram encontradas 170 fotos de crianças de estados como Alagoas, Bahia, Ceará, entre outros, mas este número representa uma pequena fração do total, já que menos de 0,0001% das 5,85 bilhões de imagens do conjunto de dados foi revisado. As fotos incluem momentos íntimos, desde bebês recém-nascidos até adolescentes em festividades escolares.
A HRW destacou que os modelos de IA treinados com esses dados podem vazar informações privadas, reproduzindo fotos e criando clones digitais convincentes das crianças, muitas vezes utilizados para criar imagens explícitas e deepfakes.
A LAION, responsável pelo conjunto de dados, comprometeu-se a remover as fotos, mas argumentou que a responsabilidade de proteger essas imagens deve ser das crianças e seus tutores.
O relatório enfatiza a necessidade urgente de políticas para proteger os dados das crianças contra o uso indevido pela IA.
“Proteger agora a privacidade dos dados das crianças será útil para moldar o desenvolvimento desta tecnologia numa tecnologia que promove, em vez de violar, os direitos das crianças”, concluiu Han.