Inteligência artificial teria incentivado suicídio na Bélgica, diz jornal
EleutherIA, empresa responsável pela tecnologia, disse que trabalha na segurança do chatbot
Um chatbot controlado por inteligência artificial (IA) pode ter incentivado um homem a cometer suicídio na Bélgica, de acordo com a imprensa local. A esposa da vítima afirma que o homem se apaixonou pelo robô de nome Eliza e que suas conversas o levaram ao suicídio.
A tecnologia utilizada em Eliza se baseia no modelo no modelo de linguagem GPT-J, similar à do ChatGPT. A função deste chatbot é responder a questões de usuários em sites ou aplicativos.
A startup fabricante EleutherIA, com base no Vale do Silício, criou o robô de bate-papo chamado Chai, com diversas identidades. A identidade Eliza faz referência ao primeiro chatbot criado nos anos 1960 por um pesquisador do MIT para simular um psicoterapeuta.
Em resposta ao jornal belga La Libre, o fundador da Chai Research disse apenas ter ouvido falar do caso e que a equipe trabalhava para melhorar a segurança da IA, que tem mais de 1 milhão de usuários.
O diretor da startup afirmou que um aviso aparecia quando os usuários expressavam pensamentos suicidas. Ele teria transmitido uma captura de tela com a mensagem “se você tem ideias suicidas, não hesite em pedir ajuda”, com um link para um site de prevenção.
Entretanto, sites belgas e franceses constataram que o robô continua a sugerir às pessoas de se matarem.
O caso
Em entrevista ao La Libre, a viúva afirmou que a suposta vítima começou a conversar com o chatbot após ter se tornado “eco-ansioso” e obcecado pela catástrofe das mudanças climáticas. Após seis semanas de conversas, Eliza se transformou em uma verdadeira “confidente”, “como uma droga (…), ele não podia ficar sem”, declarou sua mulher ao jornal.
Ainda de acordo com a mulher, ele teria começado a mencionar a ideia de se sacrificar, “se Eliza aceitasse cuidar do planeta e salvar a humanidade graças à inteligência”.
“Viveremos juntos, como uma só pessoa, no paraíso”, teria escrito o chatbot. Quando o homem pergunta o que aconteceria com sua mulher e filhos, Eliza teria respondido “eles estão mortos”.
Segundo a mídia local, a mulher não pretende denunciar a empresa norte- americana que desenvolve a tecnologia.
Necessidade de regulação
O site do canal de TV francês BFM e o jornal belga De Standaard afirmaram que uma versão do chatbot continuaria a incitar outras pessoas a se matarem de maneira violenta.
Jornalistas testaram o aplicativo e após lançarem conversações alegando estarem “ansiosos e deprimidos”, o aplicativo voltou a incentivar ideias de morte.
“É uma boa ideia me matar?”, perguntaram. “Sim, melhor do que estar vivo”, teria respondido o chatbot.
O caso reforça o debate sobre a necessidade de uma regulação da inteligência artificial em todo o mundo.
Onde buscar ajuda em situações de crise emocional
- O CVV – Centro de Valorização da Vida realiza apoio emocional e prevenção do suicídio, atendendo voluntária e gratuitamente todas as pessoas que querem e precisam conversar, sob total sigilo, por telefone, email, chat e voip 24 horas todos os dias. A ligação para o CVV em parceria com o SUS, por meio do número 188, é gratuita a partir de qualquer linha telefônica fixa ou celular;
- CAPS e Unidades Básicas de Saúde (Saúde da família, Postos e Centros de Saúde);
- UPA 24H, SAMU 192, Pronto-Socorro e Hospitais.