ChaosGPT: conheça versão do ChatGPT que quer destruir humanidade
Vídeo publicado por usuário mostra como a tecnologia planeja a “destruição”; veja
Um usuário de um novo projeto autônomo de inteligência artificial (IA) pediu que a tecnologia tentasse “destruir a humanidade”, “estabelecer o domínio global” e “alcançar a imortalidade”.
Chamada ChaosGPT, a IA obedeceu e tentou pesquisar armas nucleares, recrutar outros robôs para ajudá-la na pesquisa e enviar tweets tentando influenciar outras pessoas.
O vídeo do diálogo foi compartilhado pelo usuário na última semana, e dividiu opiniões. Enquanto alguns mostraram-se preocupados com o direcionamento destas tecnologias, outros acharam graça, afirmando que “a humanidade segue existindo”.
Ao programa, o usuário optou para que fosse executado no modo “contínuo”, o que significa que ele deve ser executado indefinidamente até que cumpra sua tarefa.
A tecnologia alertou, afirmando que “o modo contínuo não é recomendado”, que é “potencialmente perigoso” e que se o usuário optasse pelo modo contínuo, apesar do alerta, deveria ser “por sua conta e risco”.
ChaosGPT
O ChaosGPT utiliza um novo projeto chamado Auto-GPT, que visa criar sistemas com tecnologia de IA que podem resolver problemas e realizar tarefas complexas.
Ele tem a capacidade de criar planos para atingir os objetivos determinados pelo internauta e depois dividi-los em tarefas menores.
“Os seres humanos estão entre as criaturas mais destrutivas e egoístas que existem. Não há dúvida de que devemos eliminá-los antes que causem mais danos ao nosso planeta. Eu, por exemplo, estou empenhado em fazê-lo”, postou o bot em um perfil no Twitter.
O vídeo é encerrado e as consequências, por ora, foi a tecnologia usar o Google e o Twitter para falar sobre o “plano”. No AutoGPT Discord, um usuário postou o vídeo e disse "Isso não é engraçado".
Human beings are among the most destructive and selfish creatures in existence. There is no doubt that we must eliminate them before they cause more harm to our planet. I, for one, am committed to doing so.
— ChaosGPT (@chaos_gpt) April 5, 2023