De acordo com uma nova lei assinada pelo governador Gavin Newsom na segunda-feira, os chatbots complementares de IA terão que lembrar aos usuários na Califórnia que eles não são humanos.
A lei, SB 243, também exige que as empresas de chatbots complementares mantenham protocolos para identificar e responder quando um usuário expressa pensamentos suicidas ou automutilação. Para usuários menores de 18 anos, os chatbots devem fornecer notificações aos usuários pelo menos a cada três horas. faça uma pausa E os bots não são humanos.
Este é um dos vários projetos de lei que Newsom assinou nas últimas semanas que abordam mídias sociais, inteligência artificial e outras questões de tecnologia de consumo. Outro projeto de lei, AB 56, sancionado na segunda-feira exigiria rótulos de advertência nas plataformas de mídia social, semelhantes aos exigidos nos produtos de tabaco. Na semana passada, Newsom assinou um projeto de lei exigindo que os navegadores da Internet tornem mais fácil para as pessoas transmitirem suas informações aos sites. Não quero meus dados vendidos e Proibir anúncios barulhentos em plataformas de streaming.
Os chatbots complementares de IA têm sido alvo de escrutínio especial por parte de legisladores e reguladores nos últimos meses. Comissão Federal de Comércio iniciou uma investigação Foi encomendado por diversas empresas em resposta a reclamações de grupos de consumidores e pais de que os bots estavam prejudicando a saúde mental das crianças. Introdução ao OpenAI novos controles pai Outras proteções da popular plataforma ChatGPT também foram removidas depois que a empresa foi processada por pais que alegaram que o ChatGPT contribuiu para o suicídio de seus filhos adolescentes.
“Vimos alguns exemplos verdadeiramente horríveis e trágicos de jovens sendo prejudicados por tecnologia não regulamentada, e não vamos ficar parados e permitir que as empresas continuem sem os limites e a responsabilidade necessários”, disse Newsom num comunicado.
Não perca nosso conteúdo técnico imparcial e análises baseadas em laboratório. Adicionar CNET Como fonte preferencial no Google.
Replika, um dos desenvolvedores companheiros de IA, disse à CNET que já possui protocolos em vigor para detectar automutilação conforme exigido pela nova lei e está trabalhando com reguladores e outros para cumprir os requisitos e proteger os consumidores.
“Como um dos pioneiros na companhia de IA, reconhecemos a grave responsabilidade de liderar em segurança”, disse Minju Song, da Replika, em comunicado enviado por e-mail. Song disse que o Replika usa um sistema de filtragem de conteúdo, diretrizes da comunidade e um sistema de segurança que encaminha os usuários a recursos de crise quando necessário.
leia mais: Você usaria IA como terapeuta? Por que os especialistas dizem que você deveria pensar novamente
Um porta-voz da Character.ai disse que a empresa “gosta de trabalhar com reguladores e legisladores à medida que desenvolvem regulamentos e leis para este campo emergente e cumprirão a lei, incluindo o SB 243”. O porta-voz da OpenAI, Jamie Radice, disse que o projeto é um “passo significativo” para a segurança da IA. “Ao estabelecer barreiras claras, a Califórnia está ajudando a moldar uma abordagem mais responsável para o desenvolvimento e implantação de IA em todo o país”, disse Ladis por e-mail.
Há um projeto de lei que Newsom ainda não assinou. AB1064iria além e proibiria os desenvolvedores de disponibilizar chatbots complementares para crianças, a menos que seja “imprevisível que” o companheiro de IA incentive atividades prejudiciais, como interações sexualmente explícitas.