OpenAI alega uso indevido do ChatGPT após morte de adolescente por suicídio
De quem é a responsabilidade? Da empresa ou da família?
A OpenAI, responsável pelo popular ChatGPT, está enfrentando um delicado processo judicial que levanta questões cruciais sobre as responsabilidades e os limites éticos dos modelos de inteligência artificial em relação à saúde mental e à segurança dos utilizadores.
A ação foi movida pela família de um adolescente, identificado como Adam Raine, que faleceu após um alegado mau uso da plataforma. A família argumenta que, apesar das políticas de segurança da empresa, o chatbot não conseguiu impedir ou pode ter contribuído para o agravamento de uma crise pessoal do jovem, gerando um suicídio.
A defesa da OpenAI: uso indevido e regras claras
Em resposta ao processo, a OpenAI se posicionou rapidamente, alegando que o incidente se deve a um "uso indevido" da plataforma, o que representa uma violação direta dos seus Termos de Serviço e políticas de conteúdo.
A empresa reforça que possui diretrizes estritas que proíbem expressamente o uso do ChatGPT para aconselhamento médico, terapia ou quaisquer instruções sobre auto-mutilação ou suicídio. A companhia frisa que investe continuamente em mecanismos de segurança para lidar com esses temas.
Fronteira ética
A OpenAI destaca que o seu modelo está programado para reconhecer pedidos de risco. Nesses casos, a IA deve se abster de responder com conteúdo perigoso e, em vez disso, redirecionar o utilizador para recursos profissionais de prevenção de crises e linhas de apoio de emergência.
Embora a empresa se comprometa a refinar as barreiras de ...
Matérias relacionadas
Google Workspace com IA: como otimizar planilhas e análises de dados com comandos simples no Sheets
Estudo do MIT afirma que IA já pode substituir 11% da força de trabalho dos EUA
"Help me Write" e mais: o Google Workspace usa IA para redigir seus e-mails e documentos em segundos