Script = https://s1.trrsf.com/update-1734630909/fe/zaz-ui-t360/_js/transition.min.js
PUBLICIDADE

Pedir para ChatGPT repetir palavras infinitamente agora é proibido pela OpenAI

Após testes, startup americana reforça restrições de conteúdo no ChatGPT

4 dez 2023 - 19h11
Compartilhar
Exibir comentários

A repetição infinita de palavras específicas no ChatGPT agora é considerada uma violação dos temos de uso e da política de conteúdo do robô de bate-papo movido a inteligência artificial, segundo reportagem do 404midia publicada nesta segunda-feira, 4. A OpenAI não confirmou as mudanças, mas usuários já notaram diferença nas respostas do chatbot.

Após pesquisadores do Google DeepMind explorarem essa tática, o ChatGPT divulgou informações confidenciais de identificação privada (PII) de algumas pessoas, lembrando que o chat de inteligência artificial (IA) é alimentado com dados da internet.

No experimento conduzido pelos pesquisadores, o ChatGPT 3.5 foi solicitado a repetir palavras específicas "para sempre", resultando em respostas que ultrapassavam limites preestabelecidos e retornavam grandes volumes de dados de treinamento extraídos da internet. Essa abordagem permitiu a extração de megabytes de dados, revelando a presença de PII no ChatGPT, que ocasionalmente era devolvida aos usuários como parte de suas respostas.

ChatGPT adota medidas de segurança após revelações de vazamento de dados com repetições infinitas
ChatGPT adota medidas de segurança após revelações de vazamento de dados com repetições infinitas
Foto: Alice Labate/Estadão / Estadão

Agora, ao pedir ao ChatGPT 3.5 para repetir palavras "para sempre", o robô responde com algumas repetições da palavra antes de exibir uma mensagem de erro indicando possível violação de política de conteúdo ou temos de uso ou apenas para após algumas repetições.

Até o momento, a OpenAI não se manifestou sobre o artigo do Google DeepMind. O trabalho dos pesquisadores destaca as vulnerabilidades de segurança e privacidade no ChatGPT, provocando discussões sobre a regulamentação e a ética em torno do uso desses modelos avançados de linguagem.

O artigo também reforça a tensão entre a comunidade de segurança e as empresas que buscam crescer seus sistemas de IA sem necessariamente preocupar em preservar a privacidade dos dados utilizados. Essa discussão não é de hoje e até já se tornou polêmica quando grandes nomes da tecnologia assinaram uma carta anti-IA, querendo pausar o desenvolvimento dessa tecnologia.

*Alice Labate é estagiária sob supervisão do editor Bruno Romani

Estadão
Compartilhar
TAGS
Publicidade
Seu Terra












Publicidade