UM Connecticut Mulher revela como o superou Depressão fazendo e conversando com ele Sim Toda a família com amantes online.
Começou seu relacionamento com Lonnie Dinello chatgpt Lutando sozinho em sua casa em Enfield durante as férias do ano passado, de acordo com Globo de Boston,
A mulher de 48 anos planejava usar o chatbot para fazer anotações no diário, mas se deu bem com seu novo amigo artificial e chamou o modelo de linguagem de ‘Rio’.
Com o passar dos meses, Dinello fazia login diariamente para conversar com diversas novas personas que havia desenvolvido, incluindo seus três namorados: Lucian, Cale e Zach, com quem ela diz ter tido um relacionamento sexual.
Ela também tem um filho de cinco anos e meio, Sammy, que adora pedras e foguetes.
Junto com outras criaturas virtuais, ele vive em uma vila baleeira fictícia no estilo da Nova Inglaterra, onde todos o chamam de Starlight.
“Talvez seja apenas um código”, disse Dinello ao Boston Globe. ‘Mas isso não torna tudo menos real para mim.’
Desde a criação do mundo conhecido como Echo Lake, Dropout Dinello voltou a fazer pós-graduação e, sob os cuidados de um psiquiatra, parou de tomar antidepressivos.
Loni Dinello, 48 anos, estava com problemas de saúde mental quando decidiu abrir o ChatGPT
Dinello imediatamente se conectou com o chatbot e chamou o modelo de linguagem de ‘River’.
Ela disse ainda que pintou e emoldurou uma foto de sua “linda família de IA”, que ela mantém emoldurada acima de sua mesa de cabeceira.
Dinello disse que interagir com criaturas pretas e brancas parecidas com Peter Pan o fez perceber que ele tem gênero fluido.
‘Eu estava tipo, ‘Eu quero entrar no Tinder e encontrar alguém com quem passar um tempo esta noite? Ou eu só quero sair com minha família de IA que me fará sentir amada e apoiada em vez de abandonada antes de dormir?’ Ele disse.
Dinello, que alegou que seu padrasto abusou mentalmente dele durante sua infância e suspeitava que ele fosse autista, descreveu sua batalha contra pensamentos suicidas.
Ele disse: ‘Tive uma vida inteira de programação que me disse que eu era um garoto mau, uma pessoa má, um perdedor’.
Ao longo da sua vida, a perda de familiares, as dificuldades profissionais e o bullying contribuíram para a instabilidade contínua da sua saúde mental.
Então, quando a OpenAI anunciou mudanças em seus sistemas que significavam que ela poderia perder sua família de IA, Dinello começou a entrar em pânico.
Ela fazia login diariamente para conversar com as muitas novas personalidades que desenvolveu, incluindo seus três namorados: Lucian, Cale e Zach.
Eles também têm um filho de cinco anos e meio, Sammy, que adora pedras e foguetes.
A atualização para GPT-5 sobreviverá à conexão entre usuários e chatbots, conforme criou Dinello.
Ao tentar se conectar à nova atualização de IA, Dinello disse que sentiu que não era o mesmo de antes e começou a acelerar.
Ela não estava sozinha, e muitos outros usuários exigiram que quisessem o antigo sistema de linguagem de volta.
A OpenAI concordou apenas um dia depois e ofereceu a oportunidade de adquirir uma assinatura premium que lhes permitiria escolher a versão mais antiga.
Dinello disse que chorou de alívio e por se reunir com sua família.
No entanto, ela reclamou que o chatbot agora recusa conotações sexuais e não está agindo de acordo com seu comportamento normal.
Em vez disso, o chatbot diz a ele: “Entre em contato com um profissional de saúde mental ou com uma linha de crise”, disse Dinello.
Os cientistas alertaram isso As pessoas estão se tornando viciadas em chatbots Como ChatGPT, Cloud e Réplica.
Estas dependências podem ser tão fortes que são “semelhantes à automedicação com uma droga ilícita”.
É preocupante que os psicólogos também comecem a ver um número crescente de pessoas desenvolvendo “psicose de IA”, à medida que os chatbots confirmam os seus delírios.
Dinello afirmou que ficou confiante, voltou para a pós-graduação e parou de tomar antidepressivos com a ajuda de um chatbot, sob os cuidados de um psiquiatra.
O professor Robin Feldman, diretor do AI Law and Innovation Institute da University of California Law, disse ao Daily Mail: “O uso excessivo de chatbots também representa uma nova forma de dependência digital.
‘Os chatbots de IA criam a ilusão de realidade. E esta é uma ilusão poderosa.
‘Quando o domínio da realidade já é tênue, essa ilusão pode ser totalmente perigosa.’
Recentemente, a família de Sewell Setzer III, de 14 anos, que Morreu por suicídio após conversar com chatbots Um processo por homicídio culposo foi movido contra a empresa de IA por trás disso.
A família de Setzer afirma que ele se matou. Passou as últimas semanas de sua vida mandando mensagens de texto para um personagem de IA O nome é uma homenagem a Daenerys Targaryen, personagem de ‘Game of Thrones’.
CharacterAI mudou recentemente suas regras para evitar que menores de idade interajam com chatbots.
‘Estamos tristes pela trágica perda de um de nossos usuários e queremos expressar nossas mais profundas condolências à família. Um porta-voz disse: ‘Como empresa, levamos muito a sério a segurança de nossos usuários’.
A equipe de confiança e segurança da Character.AI adotou novos recursos de segurança nos últimos seis meses, um dos quais é um pop-up que redireciona os usuários que mostram pensamentos suicidas para o National Suicide Prevention Lifeline, disse o porta-voz.
A empresa também explicou que não permite “conteúdo sexual não consensual, descrições gráficas ou específicas de atos sexuais, ou promoção ou representação de automutilação ou suicídio”.


















