Script = https://s1.trrsf.com/update-1730403943/fe/zaz-ui-t360/_js/transition.min.js
PUBLICIDADE

Skynet? IA assassina poderia aniquilar humanidade, dizem Google e Oxford

Soa como ficção científica, mas inteligência artificial pode ser capaz de brigar por recursos com a humanidade (e vencer)

15 set 2022 - 05h00
Compartilhar
Exibir comentários
Inteligência artificial pode competir com humanos por recursos finitos do planeta
Inteligência artificial pode competir com humanos por recursos finitos do planeta
Foto: Gerd Altmann / Pixabay

Pesquisadores do Google Deepmind — iniciativa de inteligência artificial da empresa — e da Universidade de Oxford concluíram que agora já é “provável” que a IA possa causar o fim da humanidade, ao estilo da Skynet dos filmes "O Exterminador do Futuro". A teoria está em um novo artigo publicado na "AI Magazine".

A equipe, composta pelo cientista sênior do Deepmind, Marcus Hutter, e pelos pesquisadores de Oxford Michael Cohen e Michael Osborne, argumenta que as máquinas eventualmente se tornarão incentivadas a quebrar as regras que seus criadores definiram para competir por recursos limitados ou energia.

"Sob as condições que identificamos, nossa conclusão é muito mais forte do que a de qualquer publicação anterior — uma catástrofe existencial não é apenas possível, mas provável", disse Cohen em seu Twitter, estudante de engenharia da Universidade de Oxford e coautor do artigo, no início deste mês.

A publicação fala que poderíamos enfrentar dificuldades na forma de “agentes desalinhados” superavançados que percebem a humanidade como uma recompensa.

"Uma boa maneira de um agente manter o controle de longo prazo de sua recompensa é eliminar ameaças potenciais e usar toda a energia disponível para proteger seu computador", diz o documento. E prossegue: "Perder este jogo seria fatal".

“Agentes desalinhados” superavançados de IA poderiam percebem a humanidade como uma recompensa
“Agentes desalinhados” superavançados de IA poderiam percebem a humanidade como uma recompensa
Foto: Gerd Altmann / Pixabay

"Em um mundo com recursos infinitos, eu estaria extremamente incerto sobre o que aconteceria", disse Cohen à "Motherboard" em uma entrevista. "Em um mundo com recursos finitos, há uma concorrência inevitável por esses recursos”, completa.

Cohen lembra ainda que  "se você está em uma competição com algo capaz de superá-lo a cada momento, então você não deve esperar ganhar". Em resposta a isso, a humanidade deveria apenas progredir com cuidado e lentamente suas tecnologias de IA.

Se essas suposições se mantiverem verdadeiras, "um agente artificial suficientemente avançado provavelmente irá intervir no fornecimento de informações objetivas, com consequências catastróficas", adverte o documento.

Fonte: Redação Byte
Compartilhar
TAGS
Publicidade
Seu Terra












Publicidade