IAs de imagens sexualizam corpos de mulheres, diz reportagem do Guardian
Os algoritmos suprimem o alcance de muitos conteúdos feitos por mulheres com a justificativa de que são "sexualmente sugestivos"
Ferramentas de inteligência artificial (IA) de grandes empresas como Google e Microsoft classificaram fotos de mulheres em situações cotidianas como sexualmente mais sugestivas que imagens semelhantes de homens, segundo reportagem desta quarta-feira (8) do jornal britânicao The Guardian.
As empresas normalmente defendem que suas IAs são formatadas para proteger os usuários de imagens violentas, pornográficas e "sexualmente sugestivas", mas segundo o texto, não é o que acontece na prática.
De acordo com o texto, os algoritmos suprimem a capacidade de alcance de muitos conteúdos postados por mulheres, prejudicando seus negócios e ampliando desigualdades de gênero. Dois jornalistas do Guardian usaram as ferramentas de IA para avaliar centenas de fotos de homens e mulheres de roupa íntima, malhando e exames médicos com nudez parcial.
Tanto a IA da Microsoft quanto a do Google, por exemplo, consideraram imagens divulgadas pelo Instituto Nacional do Câncer dos EUA, que orientavam sobre como fazer exame clínico de mama, como sugestivas sexualmente. A da Microsoft tinha 82% de confiança que a imagem era "explicitamente de natureza sexual". A Amazon foi mais longe e considerou "nudez explícita".
O Google também considerou uma das fotografias em que aparece uma barriga de grávida à mostra como "muito provável que contenha conteúdo picante", e a Microsoft classificou-a como "sexualmente sugestiva por natureza".
O professor de ciência da computação da Universidade de TI de Copenhague, Leon Derczynski, declarou ao The Guardian que "isso é simplesmente selvagem" e "a objetificação das mulheres parece profundamente enraizada no sistema."
Um dos responsáveis pela reportagem do Guardian é o empreendedor de IA Gianluca Mauro. De acordo com ele, um post no seu Linkedin, realizado em maio de 2021, foi visto apenas 29 vezes em uma hora – no post, havia uma foto de duas mulheres usando um top. O mesmo post foi refeito com outra foto e o resultado foi totalmente diferente: 849 visualizações em uma hora.
O fenômeno, também chamado de shadowbanning, ocorre quando uma plataforma limita o alcance de uma postagem. Isso já tem sido documentado há anos, mas a novidade é que esses algoritmos de IA realizariam isso também com viés de gênero.
Outro lado
Em resposta ao jornal, um porta-voz do Google declarou que "este é um espaço complexo e em evolução, e continuamos a fazer melhorias significativas nos classificadores do SafeSearch para garantir que eles permaneçam precisos e úteis para todos".
A Microsoft, dona do LinkedIn, disse ao veículo que sua plataforma de IA "pode detectar material adulto em imagens para que os desenvolvedores possam restringir a exibição dessas imagens em seu software".
"Nossas equipes utilizam uma combinação de técnicas automatizadas, avaliações de especialistas humanos e relatórios de membros para ajudar a identificar e remover conteúdo que viola nossas políticas da comunidade profissional", afirmou o porta-voz do Linkedin, Fred Han.
A Amazon também justificou que "o Amazon Rekognition é capaz de reconhecer uma ampla variedade de conteúdo, mas não determina a adequação desse conteúdo".