Script = https://s1.trrsf.com/update-1727287672/fe/zaz-ui-t360/_js/transition.min.js
PUBLICIDADE

OpenAI foi alertada sobre descoberta em IA que ameaça a humanidade

Pesquisadores escreveram carta para o conselho de diretores da OpenAI com alerta sobre os avanços em IA, o que contribuiu para demissão de Sam Altman

23 nov 2023 - 13h13
(atualizado às 18h31)
Compartilhar
Exibir comentários

Pesquisadores da OpenAI escreveram uma carta para o conselho de diretores da empresa com um alerta sobre uma "descoberta poderosa" em inteligência artificial que poderia ameaçar a humanidade, revela uma reportagem da agência de notícias Reuters. A carta foi um dos fatores que contribuíram para a decisão de demitir o CEO Sam Altman na última sexta-feira, diz a matéria.

Foto: Andrew Neel/Pexels / Canaltech

Além da carta, fontes da Reuters citam que o conselho administrativo também estava preocupado com a comercialização de modelos de IA antes de ter uma compreensão maior sobre seus usos e consequências. Os informantes relataram ainda os avanços de projetos internos com a chamada inteligência artificial geral (AGI) que poderia superar os humanos em vários campos de atuação.

Alerta sobre IA

A Reuters informa não ter tido acesso a uma cópia da carta encaminhada ao conselho da OpenAI, mas revela que o documento foi citado em um comunicado interno para os funcionários que alertava a equipe sobre histórias divulgadas na mídia sem comentar sobre a veracidade dos relatos.

A mensagem interna enviada pela executiva Mira Murati faz referência também a um projeto chamado Q* (que se pronuncia Q-Star). Pesquisadores da OpenAI acreditam que esse modelo pode levar ao desenvolvimento da inteligência artificial geral.

Segundo os relatos, o Q* seria capaz de resolver problemas matemáticos com precisão, o que seria um sinal de sua capacidade superior de processamento em relação aos modelos atuais de IA.

Avanços em IA são motivo de preocupação entre pesquisadores e cientistas da área (Imagem: Divulgação/OpenAI)
Avanços em IA são motivo de preocupação entre pesquisadores e cientistas da área (Imagem: Divulgação/OpenAI)
Foto: Canaltech

Na carta enviada ao conselho, os pesquisadores comentam os perigos que uma superinteligência pode representar, mas sem especificar quais são exatamente as suas preocupações. No meio científico, há muita discussão sobre o que uma IA superpoderosa poderia fazer se decidisse, por exemplo, pela destruição da humanidade.

Os pesquisadores citaram também o trabalho de uma equipe chamada de "IA cientista", formada pela combinação dos times anteriores "Code Gen" e "Math Gen". Essa equipe explora como otimizar os modelos de IA existentes para melhorar a capacidade de raciocínio e eventualmente realizar trabalhos científicos complexos.

Altman volta ao cargo

A carta de pesquisadores somada com outras preocupações teriam levado o pequeno conselho de diretores independentes a demitir Sam Altman da OpenAI. No entanto, sua saída foi temporária.

Com a repercussão entre investidores na companhia, como a Microsoft, e a pressão de funcionários que ameaçavam deixar o trabalho em apoio ao CEO, o executivo foi readmitido no cargo nessa última quarta-feira enquanto o conselho foi reformulado com novos diretores.

Fonte: Reuters

Trending no Canaltech:

Canaltech
Compartilhar
Publicidade
Seu Terra












Publicidade