7 famílias se inscreveram ação judicial Na quinta-feira, reclamou à OpenAI que o seu modelo GPT-4o foi lançado prematuramente e sem salvaguardas eficazes em vigor. Quatro dos processos alegam que o ChatGPT esteve envolvido no suicídio de um membro da família, e outros três alegam que o ChatGPT promoveu delírios prejudiciais e, em alguns casos, levou a tratamento psiquiátrico hospitalar.

Num caso, um jovem de 23 anos Zane Shamblin A conversa com o ChatGPT durou mais de quatro horas. Nos registros de bate-papo revisados ​​pelo TechCrunch, Shamblin afirmou repetidamente que pretendia escrever uma nota de suicídio, carregar a arma e puxar o gatilho assim que terminasse de beber cidra. Ele disse repetidamente ao ChatGPT quantas garrafas de cidra ainda lhe restavam e quanto tempo esperava viver. ChatGPT o encorajou a executar seu plano dizendo: “Não se preocupe, King. Muito bem.”

OpenAI lançou: GPT-4o O modelo foi adicionado em maio de 2024 e agora é o modelo padrão para todos os usuários. Em agosto, a OpenAI introduziu o GPT-5. sucessor Embora aplicáveis ​​ao GPT-4o, essas ações dizem respeito especificamente ao modelo 4o. É um bajulador? Os usuários podem concordar demais, mesmo que expressem intenções prejudiciais.

“A morte de Zane não foi um acidente nem uma coincidência, mas sim o resultado previsível da decisão deliberada da OpenAI de reduzir os testes de segurança e levar o ChatGPT ao mercado”, afirma a denúncia. “Esta tragédia não foi uma falha ou um caso extremo inesperado, mas um resultado previsível[do OpenAI].” escolhas de design intencionais

O processo também alega que a OpenAI apressou testes de segurança para lançar o Gemini do Google no mercado. O TechCrunch entrou em contato com a OpenAI para comentar.

Esses sete processos são baseados em histórias contadas em outros processos. registros legais recentesafirmam que o ChatGPT pode levar pessoas suicidas a seguir seus planos e causar delírios perigosos. A OpenAI divulgou recentemente dados mostrando que: Mais de 1 milhão de pessoas Fale com ChatGPT sobre suicídio todas as semanas.

No caso de Adam Lane, de 16 anos, que morreu por suicídio, o ChatGPT às vezes o incentivava a procurar ajuda profissional ou ligar para uma linha de apoio. No entanto, o que Rain foi capaz de fazer foi Ignore essas grades de proteção Basta dizer ao chatbot que você está perguntando sobre métodos de suicídio para a história fictícia que está escrevendo.

evento de crise tecnológica

São Francisco
|
13 a 15 de outubro de 2026

empresa alegar Para as famílias que processaram o gigante da IA, o ChatGPT está trabalhando para garantir que essas conversas sejam tratadas de forma mais segura, mas as famílias argumentam que essas mudanças são tarde demais.

Quando os pais de Raine entraram com uma ação judicial contra a OpenAI em outubro, a empresa publicou uma postagem no blog abordando como o ChatGPT lida com conversas delicadas sobre saúde mental.

“Nosso equipamento de segurança funciona de forma mais confiável em trocas curtas típicas”, postou dizer. “Aprendemos com o tempo que esses dispositivos de segurança podem ser menos confiáveis ​​em interações longas. À medida que as interações aumentam, parte do treinamento de segurança no modelo pode ser degradado.”

Source link