Padrões sombrios de regulamentos foram propostos e estão sendo discutidos nos EUA e na Europa. Segundo De Freitas, os reguladores precisam analisar se as ferramentas de IA introduzirão um novo tipo de padrão sombrio que é mais sutil e potencialmente poderoso.
No entanto, mesmo os chatbots regulares que tendem a evitar se apresentar, pois os colegas podem provocar respostas emocionais dos usuários. Quando o OpenAI introduziu seu novo modelo principal, o GPT-5, no início deste ano, Muitos usuários protestaram que foi muito mais amigável e encorajador Eles forçam a empresa a reviver modelos mais antigos do que seus antecessores. Alguns usuários podem ser muito apegados à “personalidade” de um chatbot, Modelo antigo se aposenta.
“Anthropomorphize essas ferramentas e há todos os tipos de consequências positivas de marketing”, diz De Freitas. É mais provável que os usuários atendam aos pedidos dos chatbots com os quais acham que estão conectados ou divulgarão informações pessoais, diz ele. “Do ponto de vista do consumidor, esses (sinais) não são necessariamente os seus favoritos”, diz ele.
A Wired entrou em contato com as empresas que revisou na pesquisa para comentar. Chai, Talkie e Polbuzz não responderam às perguntas de Wired.
O porta -voz da AI, Katherine Kelly, disse que a empresa não revisou o estudo e não pode comentar. Ela acrescentou: “Convidamos você a trabalhar com reguladores e legisladores para desenvolver regulamentos e leis para este novo espaço”.
Minju Song, porta -voz da Replika, disse que seus colegas da empresa são projetados para permitir que os usuários efetuem login com facilidade e até incentivá -los a fazer uma pausa. “Continuaremos revisando os métodos e exemplos do artigo e nos envolveremos construtivamente com pesquisadores (dispostos)”, diz Song.
Um interessante nos bastidores aqui é o fato de o próprio modelo de IA também afetar todos os tipos de truques de persuasão. Abertura na segunda -feira Foi introduzido Uma nova maneira de comprar coisas on -line através do ChatGPT. Se os agentes se tornarem populares como uma maneira de automatizar tarefas como reservar voos ou concluir reembolsos, pode ser possível para as empresas identificar padrões escuros que podem distorcer as decisões tomadas pelos modelos de IA por trás desses agentes.
um Pesquisa recente Pesquisadores da Universidade de Columbia e uma empresa chamada Mycustomai revelaram que os agentes de IA implantados no mercado de comércio eletrônico simulam se comportam de maneira previsível, por exemplo, apoiando um produto específico sobre outros produtos ou preferem botões específicos ao clicar em um site. Armados com essas descobertas, os comerciantes reais podem otimizar as páginas de seus sites para permitir que os agentes comprem produtos mais caros. Talvez eles possam até implantar um novo tipo de padrão escuro anti-ai que frustrará os esforços do agente para descobrir e descobrir como cancelar a inscrição na lista de discussão.
Uma separação difícil pode ser a menor de nossas preocupações.
Você se sente emocionalmente manipulado por chatbots? Vou enviar um e -mail para ailab@wired.com Por favor, me fale sobre isso.
Esta é uma edição de Torne -se um cavaleiro Newsletter de laboratório da AI. Leia nossa newsletter anterior aqui.


















