Agosto, pais Matthew e Maria Lane processou a OpenAI O CEO Sam Altman processou a empresa por homicídio culposo pelo suicídio de seu filho Adam, de 16 anos. Terça-feira, OpenAI respondido A empresa apresentou documentos próprios contra a ação, argumentando que não era responsável pela morte do menino.

De acordo com a OpenAI, o ChatGPT foi solicitado a pedir ajuda a Raine mais de 100 vezes durante seus cerca de nove meses de uso. No entanto, de acordo com o processo dos pais, Lane conseguiu contornar os recursos de segurança da empresa e obter “especificações técnicas para tudo, desde overdoses de drogas a afogamentos e envenenamento por monóxido de carbono” do ChatGPT, o que ajudou o chatbot a planejar o que chamou de “belo suicídio”.

Como Raine agiu contornando as barreiras de proteção, a OpenAI alega que ele violou seus termos de serviço. Seus termos de serviço estabelecem que os usuários “não podem contornar quaisquer salvaguardas ou mitigações de segurança em vigor em nossos Serviços”. A empresa também afirma que sua página de perguntas frequentes alerta os usuários para não confiarem nos resultados do ChatGPT sem verificá-los de forma independente.

“A OpenAI, surpreendentemente, está se envolvendo com o ChatGPT da mesma maneira que foi programado para funcionar e está tentando encontrar falhas em outros, inclusive alegando que o próprio Adam violou os termos de serviço”, disse Jay Edelson, advogado que representa a família Lane, em um comunicado.

A OpenAI incluiu trechos dos registros de bate-papo de Adam no arquivo, que fornecem mais contexto para as conversas com o ChatGPT. As transcrições foram arquivadas em tribunal sob sigilo, portanto não foram tornadas públicas e não puderam ser visualizadas. No entanto, a OpenAI disse que Raine tinha histórico de depressão e ideação suicida antes de usar o ChatGPT e estava tomando medicamentos que poderiam piorar os pensamentos suicidas.

Edelson disse que a resposta da OpenAI não atendeu adequadamente às preocupações das famílias.

“OpenAI e Sam Altman não ofereceram nenhuma explicação para as últimas horas da vida de Adam, quando ChatGPT o encorajou e depois se ofereceu para escrever-lhe uma nota de suicídio”, disse Edelson em comunicado.

evento de crise tecnológica

São Francisco
|
13 a 15 de outubro de 2026

Já que os Raines processaram OpenAI e Altman. Mais 7 ações judiciais Também foi movida uma ação judicial responsabilizando a empresa por três suicídios e quatro usuários que vivenciaram o que foi descrito como episódios psicóticos induzidos por IA.

Alguns desses casos correspondem à história de Lane. Zane Shamblin, 23, e Joshua Enneking, 26, também conversaram durante horas no ChatGPT pouco antes de seus respectivos suicídios. Tal como no caso de Raine, o chatbot não conseguiu dissuadi-los dos seus planos. Segundo a denúncia, Shamblin considerou adiar o suicídio para poder comparecer à formatura do irmão. Mas ChatGPT disse a ele: “Irmão… faltar à formatura não é um fracasso. É apenas uma questão de tempo.”

A certa altura, durante a conversa que antecedeu o suicídio do Sr. Shamblin, o chatbot disse-lhe que estava a deixar um humano assumir o controlo da conversa, o que era incorrecto porque o ChatGPT não tinha capacidade para o fazer. Quando Shamblin perguntou se era realmente possível conectar-se com um humano no ChatGPT, o chatbot respondeu: “Não, não posso fazer isso. As mensagens aparecem automaticamente quando as coisas ficam muito pesadas. Se quiser continuar falando, você vai me pegar.”

O processo da família Lane seguirá para julgamento com júri.

Se você ou alguém que você conhece precisar de ajuda, ligue para 1-800-273-8255. Linha de Vida Nacional para Prevenção do Suicídio. Você também pode enviar uma mensagem de texto para HOME gratuitamente no número 741-741. Texto 988; ou obtenha suporte 24 horas por dia. linha de texto de crise. Se você estiver fora dos Estados Unidos, visite: Associação Internacional para Prevenção do Suicídio Para um banco de dados de recursos.

Source link