Anúncios monetizados no Instagram prometem “tirar a roupa” de celebridades com IA
A biblioteca de anúncios do Instagram estava repleta de posts divulgando o "serviço" desses modelos de inteligência artificial
A Meta, dona do Instagram, Facebook e WhatsApp, possuía em sua biblioteca de anúncios diversos posts pagos que divulgavam os aplicativos que utilizam IA para criar deepfakes de pessoas sem roupas. No Brasil, o Projeto de Lei 5694/23 foi proposto para proteger crianças e adolescentes dessa prática.
Não é novidade que existem modelos de inteligência artificial que são capazes de gerar imagens de pessoas (sendo celebridades ou mulheres aleatórias) sem roupas. A nova situação, entretanto, é que agora anúncios monetizados dessas IA estão circulando no Instagram.
De acordo com o portal de notícias 404 Media, a Meta, dona do Instagram, Facebook e WhatsApp, possuía em sua biblioteca de anúncios diversos posts pagos que divulgavam os aplicativos que utilizam IA para criar deepfakes a partir de fotos com pessoas vestidas.
Um desses anúncios mostrava a celebridade Kim Kardashian com a frase “tira a roupa de qualquer garota de graça”.
Já em outro anúncio, duas imagens criadas por IA mostravam uma jovem. Na primeira, ela estava com uma camiseta de manga comprida, e na segunda, sem essa camiseta, cobrindo seus seios. Abaixo das imagens, estava a frase “exclua qualquer roupa”.
Esse tipo de aplicativo vem ganhando notoriedade nos últimos seis meses, quando começaram a sair notícias sobre como determinados modelos de IA estavam gerando nudes falsas de meninas adolescentes em escolas nos Estados Unidos e na Europa.
Após os incidentes, houve investigações e propostas de lei destinadas a proteger as crianças.
No Brasil, o Projeto de Lei 5694/23 estabelece uma pena de quatro a oito anos de prisão, assim como multa, para quem manipular, com a inteligência artificial, imagens e sons de crianças e adolescentes com o intuito de produzir conteúdo sexual.
Conforme a Agência Câmara de Notícias, o texto altera o Estatuto da Criança e do Adolescente e está sob análise na Câmara dos Deputados.
Remoção do conteúdo
A 404 Media descobriu, enquanto os jornalistas realizavam a investigação, que vários anúncios tinham sido retirados do Meta Ad Library enquanto eram verificados.
Já os anúncios restantes da plataforma só foram deletados quando os porta-vozes da empresa tomaram conhecimento da situação.
“O Meta não permite anúncios que contenham conteúdo adulto”, disse o porta-voz ao 404 Media. A empresa também destacou que quando identifica esses anúncios que violam os termos da rede social, há um trabalho rápido para removê-los.
Porém, havia outros anúncios ativos enquanto a 404 reportava a história. Isso indica que apesar da abordagem mais agressiva retirar e proibir esses anúncios, outros continuam a surgir.