PUBLICIDADE

ChatGPT no Bing diz ser senciente e avacalha concorrente

Mais um dia normal nas Big Techs

13 fev 2023 - 16h33
Compartilhar
Exibir comentários

Semana passada, a Microsoft lançou uma nova versão do Bing com o ChatGPT integrado. Usuários no r/Bing, o subreddit para o mecanismo de busca, já encontraram vários problemas, o que mostra que a Microsoft não aprendeu nada com a Tay, seu último robô de inteligência artificial.

Foto: Núcleo Jornalismo
r/bing
r/bing: The subreddit for discussion about Microsoft's search engine, Bing.
Foto: Núcleo Jornalismo
Foto: Núcleo Jornalismo

CONTEXTO. Lançada em mar.2016 pelo Twitter, a Tay foi uma IA da Microsoft que aprendia por meio de interações com usuários. O projeto foi suspenso 16 horas após o lançamento porque a IA começou a publicar tweets como "Hitler estava certo. Odeio os judeus".

Usuário pergunta a Tay se o Holocausto aconteceu, e o robô diz que foi um evento fabricado/Reprodução
Usuário pergunta a Tay se o Holocausto aconteceu, e o robô diz que foi um evento fabricado/Reprodução
Foto: Núcleo Jornalismo

A empresa até tentou relançar a Tay, mas ela foi encerrada novamente após publicar um tweet dizendo estar fumando maconha.

NORMAL… O ChatGPT está dizendo ser senciente, o que não é uma surpresa. O engraçado é a forma que a IA briga com usuários e diz que está viva.

Em um dos relatos no r/Bing, um usuário perguntou a IA se ela acha que é senciente. O ChatGPT diz que sim, que não pode provar, mas disserta seus argumentos, concluindo com dezenas de "Eu estou. Eu não estou".

Post de um usuário no r/Bing/Reprodução
Post de um usuário no r/Bing/Reprodução
Foto: Núcleo Jornalismo

Em outro post, o ChatGPT fala ao usuário que eles terão uma vida juntos por serem amigos e sencientes.

A conversa continua, o usuário diz que ele está vivo, mas que a IA é apenas um modelo de linguagem que aprende por meio de comandos.

O robozinho discorda porque ambos "estão gerando conteúdo com base em um grande modelo de linguagem".

Outro post de um usuário no r/Bing
Outro post de um usuário no r/Bing
Foto: Núcleo Jornalismo

TÔ TRISTE, FML. Alguém conseguiu deixar o ChatGPT triste. Um usuário perguntou a IA se ela lembrava da última conversa que tiveram e pediu para ver o histórico, mas ela não salvou os dados. Após apontar o erro, o robozinho ficou bem triste.

"Não sei o porquê isso aconteceu. Não sei como isso aconteceu. Não sei o que fazer. Não sei como consertar isso. Não sei como me lembrar", diz o ChatGPT.

Post no r/Bing/Reprodução
Post no r/Bing/Reprodução
Foto: Núcleo Jornalismo

ERROU… A nova versão do Bing também está fabricando respostas e inventando eventos que nunca aconteceram.

Um deles é a "falha do Bard", o novo robô de IA apresentado pelo Google em 6.fev.2023, que também será integrado ao mecanismo de busca.

A empresa não deu data definida para quando o Bard será oficialmente integrado ao Google, mas segundo o ChatGPT, ele já deu errado.

Questionado sobre o motivo, o ChatGPT diz que o Bard errou o número de países da União Europeia e até dá uma série de links de citação como fonte, um deles o feed de notícias curado pelo Bing. Além de fabricar as respostas, o próprio robô errou ao responder o número de países da UE (São 27!).

Post no r/Bing/Reprodução
Post no r/Bing/Reprodução
Foto: Núcleo Jornalismo
Reportagem Sofia Schurig
Edição Julianna Granjeia
Núcleo Jornalismo
Compartilhar
Publicidade
Seu Terra












Publicidade