Script = https://s1.trrsf.com/update-1732903508/fe/zaz-ui-t360/_js/transition.min.js
PUBLICIDADE

IAs de imagens sexualizam corpos de mulheres, diz reportagem do Guardian

Os algoritmos suprimem o alcance de muitos conteúdos feitos por mulheres com a justificativa de que são "sexualmente sugestivos"

8 fev 2023 - 12h48
Compartilhar
Exibir comentários
Jornalistas do Guardian usaram as ferramentas de IA de Google, Microsoft e Amazon para avaliar fotos de homens e mulheres
Jornalistas do Guardian usaram as ferramentas de IA de Google, Microsoft e Amazon para avaliar fotos de homens e mulheres
Foto: Pixabay

Ferramentas de inteligência artificial (IA) de grandes empresas como Google e Microsoft classificaram fotos de mulheres em situações cotidianas como sexualmente mais sugestivas que imagens semelhantes de homens, segundo reportagem desta quarta-feira (8) do jornal britânicao The Guardian. 

As empresas normalmente defendem que suas IAs são formatadas para proteger os usuários de imagens violentas, pornográficas e "sexualmente sugestivas", mas segundo o texto, não é o que acontece na prática.

De acordo com o texto, os algoritmos suprimem a capacidade de alcance de muitos conteúdos postados por mulheres, prejudicando seus negócios e ampliando desigualdades de gênero. Dois jornalistas do Guardian usaram as ferramentas de IA para avaliar centenas de fotos de homens e mulheres de roupa íntima, malhando e exames médicos com nudez parcial.

Tanto a IA da Microsoft quanto a do Google, por exemplo, consideraram imagens divulgadas pelo Instituto Nacional do Câncer dos EUA, que orientavam sobre como fazer exame clínico de mama, como sugestivas sexualmente. A da Microsoft tinha 82% de confiança que a imagem era "explicitamente de natureza sexual". A Amazon foi mais longe e considerou "nudez explícita". 

O Google também considerou uma das fotografias em que aparece uma barriga de grávida à mostra como "muito provável que contenha conteúdo picante", e a Microsoft classificou-a como "sexualmente sugestiva por natureza". 

Fotos do Instituto Nacional do Câncer dos EUA foram consideradas sexualmente sugestivas
Fotos do Instituto Nacional do Câncer dos EUA foram consideradas sexualmente sugestivas
Foto: Unsplash

O professor de ciência da computação da Universidade de TI de Copenhague, Leon Derczynski, declarou ao The Guardian que "isso é simplesmente selvagem" e "a objetificação das mulheres parece profundamente enraizada no sistema."

Um dos responsáveis pela reportagem do Guardian é o empreendedor de IA Gianluca Mauro. De acordo com ele, um post no seu Linkedin, realizado em maio de 2021, foi visto apenas 29 vezes em uma hora – no post, havia uma foto de duas mulheres usando um top. O mesmo post foi refeito com outra foto e o resultado foi totalmente diferente: 849 visualizações em uma hora. 

O fenômeno, também chamado de shadowbanning, ocorre quando uma plataforma limita o alcance de uma postagem. Isso já tem sido documentado há anos, mas a novidade é que esses algoritmos de IA realizariam isso também com viés de gênero. 

Outro lado

Em resposta ao jornal, um porta-voz do Google declarou que "este é um espaço complexo e em evolução, e continuamos a fazer melhorias significativas nos classificadores do SafeSearch para garantir que eles permaneçam precisos e úteis para todos". 

A Microsoft, dona do LinkedIn, disse ao veículo que sua plataforma de IA "pode detectar material adulto em imagens para que os desenvolvedores possam restringir a exibição dessas imagens em seu software".

"Nossas equipes utilizam uma combinação de técnicas automatizadas, avaliações de especialistas humanos e relatórios de membros para ajudar a identificar e remover conteúdo que viola nossas políticas da comunidade profissional", afirmou o porta-voz do Linkedin, Fred Han.

A Amazon também justificou que "o Amazon Rekognition é capaz de reconhecer uma ampla variedade de conteúdo, mas não determina a adequação desse conteúdo".

Fonte: Redação Byte
Compartilhar
TAGS
Publicidade
Seu Terra












Publicidade