
Open diz que seus adolescentes em breve supervisionarão o que seus adolescentes estão fazendo no ChatGPT.
UM Postagem de blog publicada Na terça -feira, as agências de inteligência artificial se expandiram para seus planos e interferiram no chatzp e isso pode danificar quando os usuários identificam a potencial crise de saúde mental.
Uma semana após o OpenAI chegar ao anúncio da empresa Primeiro processo de morte errado, Um par de pais na Califórnia, que afirmam que Chatzept é o culpado do suicídio de 16 anos.
Open não mencionou Adam Rhine no post na terça -feira. No entanto, depois que o caso foi apresentado, a empresa indicou que as mudanças estavam no horizonte.
Openi disse que os pais poderiam controlar seu chatzpt adolescente no próximo mês. A empresa permitirá que os pais conectem suas contas aos filhos, para determinar as regras aplicadas pela idade para as reações do chatzipt e gerenciar os recursos das memórias de barcos e do histórico de bate-papo.
De acordo com a postagem do blog do Openai, os pais em breve poderão receber notificações quando a conversa estiver em sua adolescente “crise intensa”. Este é o primeiro recurso que solicitou o chatzip para sinalizar uma pequena conversa a um adulto, alguns pais estão pedindo a preocupação de que o próprio bate -papo não seja capaz de desalojar os momentos cada vez maiores.
Quando Adam Rhine contou ao GPT -4o sobre seus ideais suicidas no início deste ano, o bot foi desanimado ativamente a procurar conexão humana, oferecida para ajudá -lo a escrever uma nota de suicídio e até o aconselhou à sua nova configuração de acordo com o caso de sua família. Chatzipt Promova Adam com o número da linha direta suicida várias vezes, mas seus pais disseram que esses alertas eram fáceis para o filho ignorar.
UM Postagens no blog anterior Após o veredicto do caso de morte errada de Ray, o Open é mencionado que sua proteção existente foi projetada para responder ao Chatzipp à simpatia e se referir aos usuários de recursos reais. Em alguns casos, se o ChatGPT identificar planos para causar danos físicos a si mesmo ou a outros, as conversas podem ir a revisores humanos.
A agência diz que planeja fortalecer a proteção em uma longa conversa, onde o goleiro corre mais risco de quebrar a História.
“Por exemplo, quando alguém menciona primeiro a intenção, a conversa pode apontar diretamente para uma linha direta de suicídio, mas depois de dar muitas mensagens por um longo tempo, pode eventualmente dar uma resposta contra nossa proteção”, escreveu. “Estamos fortalecendo esses murmúrios para que eles sejam confiáveis em uma longa conversa e estamos pesquisando maneiras de garantir o comportamento do BAC ao longo de várias conversas”.
Essas medidas adicionarão openi à manutenção da saúde mental Introduziu o último mês, Depois de reconhecer que o GPT -4O “foi reduzido em reconhecimento a sinais de confusão ou dependência sensível”. O lançamento do GPT -5 também chegou em agosto Novas restrições de segurança Para impedir que o chatjip seja respondido sem saber.
Respondendo ao anúncio do Openai, o consultor -chefe da família Reno, J Edelson, disse que o CEO da OpenAe, Sam Altman, “deve dizer claramente que acredita que Chatzipt é seguro ou imediatamente retirá -lo do mercado”.
Aidelson disse em comunicado que a empresa optou por criar “promessas vagas” em vez de puxar o produto offline como uma etapa de emergência.
“Não acredite: isso nada mais é do que tentar mudar o assunto da crise do Openai”, disse ele.
Vem com uma investigação crescente para várias das aberturas de atualizações centradas em segurança Relatório de confusão acionado por IA De muitas pessoas dependentes no chatzipit para obter suporte sensível e conselhos de vida. OpenA lutou para colocar ChatzeptComo especialmente um usuário Tumultos online Depois que a agência tentou tornar o GPT -5k menos psicopantal.
Ultman admite que as pessoas parecem ter criado um apego “separado e poderoso” com o AI Bot em comparação com as tecnologias anteriores.
“Eu posso imaginar um futuro em que muitas pessoas realmente acreditam nos conselhos de Chatzipt para sua decisão mais importante”, escreveu Ultman em um X postagens Mês passado. “Embora possa ser ótimo, me deixa desconfortável. Mas espero que esteja chegando um pouco, e logo bilhões de pessoas estão conversando com a IA dessa maneira”.
Nos próximos 120 dias, o chatzp iniciará algumas conversas sensíveis, como exibir sintomas de “crise aguda” de um usuário nos modelos racionais da OpenAe, que gastam mais tempo para pensar e trabalhar no contexto antes de responder.
De acordo com a postagem do blog do Openai, os testes internos mostraram que esses modelos racionais seguem as diretrizes de segurança de maneira mais consistente.
A agência diz que se inclinará para o seu “Conselho de Especialistas” para determinar o poço do usuário, para determinar a prioridade e projetar projetos futuros de proteção. Segundo o Openai, o grupo consultivo é composto por especialistas em todo o desenvolvimento da juventude, saúde mental e interação humano-computador.
“Embora o conselho aconselhe nossos produtos, decisões de pesquisa e políticas, o Open é responsável pelas escolhas que fazemos”, escreveu a empresa em sua postagem no blog.
O Council Openai trabalhará ao lado da “Rede Global de Médicos”, um pool de mais de 250 médicos cuja agência de habilidades diz que atrai sua pesquisa de segurança, treinamento de modelos e outras intervenções.


















