Seu rosto em um vídeo íntimo? Inteligência artificial avança sem leis
O uso da inteligência artificial para criar pornografia falsa tem sido cada vez mais comum, levantando mais preocupações sobre a tecnologia
Os deepfakes, montagens hiperrealistas criadas com inteligência aritifical, preocupam especialistas desde os seus primeiros testes, em meados de 2017. Entre muitos usos, de vídeos de humor a fake news políticas, a produção de pornografia com esse recurso era um tema que já chamava atenção. Agora, com ferramentas de IA facilitando a montagem, o problema parece ainda maior.
Um relatório da empresa de cibersegurança Deeptrance, publicado em 2019, já mostrava a dimensão da problemática. Dados da época mostraram que 96% dos vídeos de deepfake eram pornográficos. Dessa parcela, 100% eram de mulheres. Quando deepfakes eram publicados em canais do YouTube sem conteúdo erótico, os 100% de vítimas femininas caíam para 39%.
Desde o início de 2018, já circulam vídeos na internet com rosto de famosas em vídeos pornográficos. As atrizes Emma Watson e Anne Hathaway foram as primeiras a serem retratadas desta forma, mas, hoje em dia, sites são recheados com um portfólio maior de rostos, como Mariah Carey, Beyoncé, Gal Gadot, entre outras.
No Brasil, a situação não é diferente. Uma rápida busca na internet feita por esta reportagem encontrou vídeos que tinham montagens do tipo com a apresentadora Eliana, a atriz Marina Ruy Barbosa, a cantora Anitta e as influenciadoras Rafa Kalimann e Mariana Nolasco.
Quem não encontrar o rosto desejado pode até mesmo usar programas para produzir seu próprio material, com diversos aplicativos na web à disposição. Alguns deles até anunciam seus serviços em grandes plataformas.
Especialistas ouvidos por Byte acreditam que a iniciativa expressa um sentimento misógino de poder com relação a mulheres. Além disso, enquanto a inteligência artificial permanecer uma terra sem leis em diversos países, estaremos longe de conseguir resolver o problema.
Apps estão no mercado
Anúncios de apps de deepfake aparecem diretamente ao lado de vídeos explícitos em diversos sites de pornografia. Um levantamento feito pela NBC em março mostrou que um aplicativo para criar vídeos do tipo lançou mais de 230 anúncios nos serviços da Meta, incluindo Facebook, Instagram e Messenger.
Alguns dos anúncios mostravam o que parecia ser o início de vídeos pornográficos com o conhecido som da faixa de introdução da plataforma pornô Pornhub tocando. Segundos depois, os rostos das mulheres foram trocados pelos de atrizes famosas.
Após a NBC News pedir comentários à Meta, todos os anúncios do aplicativo foram removidos dos serviços da empresa.
Tanto a Apple quanto o Google retiraram o programa exposto pela NBC de suas lojas de apps, mas ainda existem muitas outras alternativas disponíveis. Ao se pesquisar por “deepfake” em lojas de aplicativos, dezenas de opções com recursos tecnológicos semelhantes aparecem.
Apesar de muitas plataformas proibirem apps que produzam conteúdo manipulador e malicioso, muitos ainda passam desapercebidos. Afinal, é difícil prever a intenção da pessoa que baixa o programa para produzir conteúdo.
"As pessoas podem lucrar tanto de forma legal quanto ilegal", explica Bruno Sartori, empresário e artista cujas obras de deepfake se popularizaram no Brasil nos últimos anos. Seus conteúdos mais acessados são paródias que envolvem o ex-presidente Jair Bolsonaro.
Ele explica que um produtor de conteúdo pode, por exemplo, criar pornografia falsa de si para publicar em sites como OnlyFans e ganhar seu dinheiro legalmente. Ou uma pessoa pode vender a sua imagem e permitir que outros criem a partir dela.
Recentemente, dois estudantes de ciência da computação utilizaram IA para criar um avatar feminino hiperrealista e faturar com a venda de fotos sensuais em fóruns. Em entrevista à Rolling Stone, os jovens afirmaram ter criado a conta em uma brincadeira, depois de descobrirem uma postagem no Reddit sobre um usuário que ganhara US$ 500 vendendo fotos de mulheres reais.
F19 Feeling pretty today :)
by u/Cl4ud14_ in Faces
"Por outro lado, há em cantos obscuros da internet quem ofereça o serviço para criar esse conteúdo falso, geralmente com celebridades, de forma criminosa", diz Sartori.
A outra possibilidade ilegal é criar um material deepfake para extorquir uma vítima e lucrar em cima disso. Ou, ainda, promover o "revenge porn", ato de compartilhar conteúdos explícitos com objetivo de humilhar alguém vingativamente.
Ao Byte, o Google afirmou que seu sistema de busca oferece políticas e proteções para que as pessoas não sejam impactadas por conteúdos como pornografia falsa involuntária.
"As pessoas podem solicitar a remoção de páginas sobre elas que incluam esse tipo de conteúdo da Busca. Além disso, desenvolvemos nossos sistemas de classificação para exibir informações de alta qualidade e evitar chocar as pessoas com conteúdo prejudicial ou explícito inesperado quando elas não estão procurando especificamente por isso", diz a empresa.
Regulação à vista?
Deepfakes se inserem no debate sobre facilidades proporcionadas por IA que podem se tornar perigosas. A última polêmica do tipo envolveu uma imagem do Papa Francisco em uma suposta roupa de grife que viralizou nas redes sociais e saiu até em portais de notícias. Mas tudo, é claro, não passava de uma criação.
"O mau uso vai acontecer quando qualquer tecnologia se torna commodity [mercadoria]", diz Rafael Sbarai, professor de produtos digitais e dados na FAAP (Fundação Armando Alvares Penteado).
O especialista acredita ser muito difícil frear o desenvolvimento de ferramentas de inteligência artificial, como proposto por executivos de tecnologia, incluindo Elon Musk, em carta aberta no final do mês passado. O documento pedia moratória de seis meses no treinamento da próxima geração de ferramentas de IA para dar tempo aos reguladores e indústria para estabelecer padrões de segurança.
"Pausar o desenvolvimento em IA só iria aumentar a concorrência desleal, tendo em vista que algumas empresas vão respeitar e outras não", pontua Tainá Junquilo, doutora em direito e pesquisadora do Instituto de Tecnologia e Sociedade do Rio (ITS Rio).
Regular o mau uso, por outro lado, pode ser possível, mas vai depender de vontade de atores políticos, segundo Sbarai.
"Sem governo, Estado e leis — até globais — fica cada vez mais difícil debater o assunto. Não sou a favor de leis mais rígidas, mas de uma discussão mais profunda entre governo, estado e sociedade sobre o assunto para que sejam criadas leis. A União Europeia (UE) faz isso muito bem", pontua.
Legisladores europeus estão debatendo regras para o uso de IA por empresas, exigindo transparência de como esses modelos funcionam internamente, sob a pena de multa.
O bloco de propostas está sendo chamado de "Lei da IA" (ou AI Act, em inglês) e versa sobre o controle da aplicação da tecnologia, como uso em provas e exames profissionais, auxílio em sentenças judiciais e reconhecimento facial em lugares públicos.
Na última segunda-feira (17), legisladores encarregados de redigir nova versão do projeto disseram que estão comprometidos em adicionar trechos para “dirigir o desenvolvimento de inteligência artificial muito poderosa em direção centrada no ser humano, segura e confiável”, de acordo com um documento analisado pelo The Wall Street Journal.
E no Brasil?
Alguns especialistas acreditam que, caso a Europa assuma a vanguarda na regulação, outros países podem usar a peça jurídica para fundamentar suas próprias leis.
No Brasil, o projeto do tipo que mais avançou é o o PL 21/2020, que foi aprovado na Câmara dos Deputados em setembro de 2021 e espera votação no Senado Federal. O texto recebeu adições de equipes de juristas e ainda deve passar por alterações substanciais.
Entre os pontos que mais geraram debate no PL estão a dificuldade de definições técnicas por parte dos legisladores, como o próprio conceito de IA e outros termos na área de processamento de dados. Também está em discussão a existência de uma autoridade para implementar e impor sanções administrativas.
Além da discussão do PL, Junquilho, do ITS Rio, defende legislações que determinem comitês de ética dentro das empresas. Eles apontariam a correção de vieses e transparência no uso de IA, como por exemplo que todas as imagens e discursos gerados por robôs tenham selos digitais identificando sua origem.
Mas, apesar de serem importantes, leis e autorregulação não resolvem sozinhas o problema, na visão dos entrevistados.
"O parágrafo único do artigo 216 do Código Penal já considera assédio sexual quem faz montagem para incluir outra pessoa em um conteúdo pornográfico, por exemplo. A pena é detenção de seis meses a um ano e multa, mas, de verdade, não acredito que iniba quem tem intenção de criar esse conteúdo ilegal", comenta Sartori.
O criador de deepfakes é a favor de campanhas educacionais para que a população, primeiramente, entenda o que é a tecnologia.
"Como é que as pessoas vão desconfiar do que estão vendo se a maioria delas desconhece a existência da tecnologia?", questiona.
Sem um trabalho de conscientização, a normalização dos deepfakes pode fazer com que, para algumas pessoas, a distinção entre o que é real e o que não é não importe mais. Esta é a visão de Matheus Soares, mestre em comunicação pela USP (Universidade de São Paulo) e repórter no Desinformante, projeto sem fins lucrativos dedicado a combater a desinformação.
"É necessário darmos valor à 'importância de de se importar', de questionar, de consumir de maneira passiva. Se chegarmos no ponto em que todo mundo não liga, perdemos o fio condutor que pode unir todos na mesma realidade", comenta.
Como chegamos até aqui?
Com esse tipo de tecnologia, o papel de submissão e controle de mulheres, muitas vezes representado em peças pornográficas, que encenam estupros e cenários de dominação, fica ainda mais acessível.
"A pessoa que tem a sua imagem utilizada sem a sua autorização se sente absolutamente violada", diz a psicóloga e sexóloga Luísa Miranda.
Para ela, quem consome esse tipo de conteúdo busca um tipo de validação que não consegue nas dinâmicas em sociedade. A especialista acredita que as tecnologias, por si só, não podem ser culpadas, porque são só ferramentas de escape.
"O usuário busca na pornografia esse lugar de 'posso ter várias mulheres a meu dispor', algo que não acontece na realidade. Na vida real, você tem que se dispor a mudar para ser uma pessoa melhor, e não é todo mundo que está disposto a fazer isso", diz.