Script = https://s1.trrsf.com/update-1730403943/fe/zaz-ui-t360/_js/transition.min.js
PUBLICIDADE

Quem são? Mãe responsabiliza criadores de IA pela morte do filho

Mãe alega que inteligência artificial levou seu filho ao suicídio

8 nov 2024 - 11h54
Compartilhar
Exibir comentários

A mãe de um adolescente de 14 anos morreu em fevereiro deste ano está processando os criadores de uma ferramenta de inteligência artificial na web, e os acusando por terem sido ''cumplices'' do que aconteceu.

Imagem ilustrativa
Imagem ilustrativa
Foto: Reprodução/Pexels / Márcia Piovesan

O jovem Sewell Setzer III, que vivia em Orlando, na Flórida, estava viciado pelo uso do Character.AI, um aplicativo que simula conversas com personagens fictícios ou reais.

Segundo a mãe do rapaz, Megan Garcia, mãe do jovem, ele passava horas no aplicativo, interagindo com um chatbot inspirado em Daenerys Targaryen, personagem de 'Game of Thrones'.

A mulher acusa a AI e seus fundadores, Daniel Freitas e Noam Shazeer,  de negligência, homicídio culposo e práticas comerciais enganosas, segundo o portal Hugo Gloss.

Em comunicado, ela detonou o aplicativo e seus criadores: "Um perigoso aplicativo de chatbot de IA comercializado para crianças abusou e atacou meu filho, manipulando-o para tirar a própria vida. Nossa família foi devastada por esta tragédia, mas estou falando para alertar as famílias sobre os perigos da tecnologia de IA enganosa e viciante e exigir responsabilidade da Character.AI, de seus fundadores e do Google".

A mãe relata que o filho mantinha conversas diárias com a suposta "Daenerys", e que, certa vez, a "personagem" teria questionado se ele tinha um plano para se suicidar.

"'Daenerys' a certa altura perguntou a Setzer se ele tinha um plano para se matar. Setzer admitiu que sim, mas 'não sabia se teria sucesso ou se lhe causaria grande dor'. O chatbot supostamente disse a ele: 'Isso não é motivo para não prosseguir com isso'", alegou.

Megan Garcia ainda afirmou que o grande uso da plataforma aumentou ainda mais o quadro de depressão do adolescente e que a Character.AI "projetou, operou e comercializou conscientemente um chatbot de IA predatório para crianças, resultando na morte de um jovem".

Repercursão

Após a grande repercussão, a Character.AI manifestou condolências à família, reforçando seu compromisso com a segurança e negando as acusações do processo.

Márcia Piovesan
Compartilhar
Publicidade
Seu Terra












Publicidade