IA alimenta crise de pornografia deepfake na Coreia do Sul, e a solução pode estar também na tecnologia
Uma análise recente de quase 100.000 vídeos pornográficos deepfake revelou que mulheres e meninas sul-coreanas apareciam em mais da metade.
É difícil falar de Inteligência Artificial (IA) sem falar de pornografia deepfake - um subproduto nocivo de tecnologia que tem sido usado para atingir todas e todos, desde Taylor Swift até meninas de escolas em todo o mundo.
Mas, um relatório recente da startup Security Heroes (empresa de segurança australiana) descobriu que, de 95.820 vídeos pornográficos deepfake analisados de diferentes fontes, 53% apresentavam cantoras e atrizes sul-coreanas, o que sugere que esse grupo é desproporcionalmente visado.
Então, o que está por trás do problema de deepfake da Coreia do Sul? E o que pode ser feito a respeito?
Adolescentes e menores de idade entre as vítimas
Deepfakes são fotos, vídeos ou arquivos de áudio manipulados digitalmente que retratam de forma convincente alguém dizendo ou fazendo coisas que nunca fez ou disse. Entre os adolescentes sul-coreanos, a criação de deepfakes se tornou tão comum que alguns até a consideram uma brincadeira. E eles não têm como alvo apenas as celebridades.
No Telegram, foram criados bate-papos em grupo com o objetivo específico de praticar abuso sexual de mulheres com base em imagens, incluindo estudantes do ensino fundamental e médio, professores e familiares. Mulheres que têm suas fotos em plataformas de mídia social como KakaoTalk, Instagram e Facebook também são alvo frequente.
Os criminosos usam robôs de IA para gerar imagens falsas, que são vendidas e/ou disseminadas indiscriminadamente, juntamente com as contas de mídia social, números de telefone e nomes de usuário do KakaoTalk das vítimas. Um grupo do Telegram atraiu cerca de 220.000 membros, de acordo com um relatório do Guardian.
Falta de conscientização
Apesar de a violência baseada em gênero causar danos significativos às vítimas na Coreia do Sul, ainda há falta de conscientização sobre o assunto.
O país da Ásia Oriental experimentou um rápido crescimento tecnológico nas últimas décadas. Está em primeiro lugar no mundo em termos de posse de smartphone e é citada como tendo a maior conectividade com a Internet. Muitos empregos, incluindo os de restaurantes, manufatura e transporte público, estão sendo rapidamente substituídos por robôs e IA.
Mas, como aponta a Human Rights Watch (ONG americana que defende os direitos humanos), o progresso do país em termos de igualdade de gênero e outras medidas de defesa das pessoas não acompanhou o avanço digital. E pesquisas demonstraram que o avanço tecnológico pode, na verdade, exacerbar a violência de gênero.
Desde 2019, os crimes sexuais digitais contra crianças e adolescentes na Coreia do Sul têm sido um grande problema, principalmente devido ao caso "Nth Room". Esse trágico evento envolveu centenas de jovens vítimas (muitas das quais menores de idade) e cerca de 260.000 participantes envolvidos no compartilhamento de conteúdo íntimo explorador e coercitivo.
O caso provocou indignação generalizada e pedidos de proteção mais rígida. Levou, até mesmo, ao estabelecimento de condições mais rigorosas na Lei sobre Casos Especiais Relativos à Punição de Crimes Sexuais, de 2020. Mas, apesar disso, a Suprema Promotoria disse que somente 28% do total de 17.495 criminosos sexuais digitais capturados em 2021 foram indiciados - destacando os desafios contínuos no combate efetivo a esse tipo de delito.
Em 2020, a Força-Tarefa de Crimes Sexuais Digitais do Ministério da Justiça propôs cerca de 60 disposições legais, que ainda não foram aceitas. A equipe foi dissolvida logo após a posse do governo do presidente Yoon Suk Yeol, dois anos depois.
Durante a corrida presidencial de 2022, Yoon disse que "não há discriminação estrutural de gênero" na Coreia do Sul e prometeu abolir o Ministério da Igualdade de Gênero e Família, o principal órgão responsável pela prevenção da violência de gênero. O cargo de Ministro está vago desde fevereiro deste ano.
A tecnologia também pode ser a solução?
Mas a IA nem sempre é prejudicial - e a Coreia do Sul também dá provas disso. Em 2022, um centro digital de apoio a crimes sexuais, administrado pelo governo metropolitano de Seul, desenvolveu uma ferramenta que pode rastrear, monitorar e excluir automaticamente imagens e vídeos 24 horas por dia.
A tecnologia - que ganhou o Prêmio de Administração Pública da ONU de 2024 - ajudou a reduzir o tempo necessário para encontrar deepfakes de uma média de duas horas para três minutos. Mas, embora essas tentativas possam ajudar a diminuir ainda mais os danos causados, é improvável que sejam soluções definitivas, pois os efeitos sobre as vítimas podem ser persistentes.
Para que haja uma mudança significativa, o governo precisa responsabilizar os provedores de serviços, como plataformas de mídia social e aplicativos de mensagens, para garantir a segurança do usuário.
Esforços unificados
Em 30 de agosto, o governo sul-coreano anunciou planos para pressionar por uma legislação que criminalize a posse, a compra e a visualização de deepfakes na Coreia do Sul.
No entanto, as investigações e os julgamentos podem continuar a ser insuficientes até que os deepfakes na Coreia do Sul sejam reconhecidos como uma forma prejudicial de violência de gênero. Será necessária uma abordagem multifacetada para resolver o problema, incluindo leis mais fortes, reforma e educação.
As autoridades sul-coreanas também devem ajudar a aumentar a conscientização pública sobre os males de gênero e se concentrar não apenas no apoio às vítimas, mas no desenvolvimento de políticas proativas e programas educacionais para evitar a violência, em primeiro lugar.
Sungshin (Luna) Bae não presta consultoria, trabalha, possui ações ou recebe financiamento de qualquer empresa ou organização que poderia se beneficiar com a publicação deste artigo e não revelou nenhum vínculo relevante além de seu cargo acadêmico.