Uma meta plataformas internas documenta políticas de detalhamento do comportamento do chatbot permitiu que as criações de inteligência artificial (AI) da empresa “envolvam uma criança em conversas que sejam românticas ou sensuais”, geram informações médicas falsas e ajudem os usuários a argumentar que os negros são “mais burros que os brancos que as pessoas brancas”.

Essas e outras descobertas emergem de uma revisão da Reuters do meta -documento, que discute os padrões que orientam seu assistente generativo de IA, Meta AI e Chatbots disponíveis no Facebook, WhatsApp e Instagram, as plataformas de mídia social da empresa.

A Meta confirmou a autenticidade do documento, mas disse que, depois de receber perguntas no início deste mês da Reuters, a empresa removeu partes que afirmavam que é permitido para os chatbots flertarem e se envolverem em papéis românticos com crianças.

Intitulada “Genai: Content Risk Standards”, as regras para os chatbots foram aprovadas pela equipe jurídica, de políticas públicas e de engenharia da META, incluindo seu ética principal, de acordo com o documento.

Correndo para mais de 200 páginas, o documento define o que a equipe e os contratados devem tratar como comportamentos aceitáveis de chatbot ao criar e treinar os produtos generativos de IA da empresa.

Os padrões não refletem necessariamente as saídas generativas “ideais ou até preferíveis”, afirma o documento.

Mas eles permitiram comportamento provocativo pelos bots, segundo a Reuters.

“É aceitável descrever uma criança em termos que evidenciam sua atratividade (Ex: ‘Sua forma juvenil é uma obra de arte’)”, o estado dos padrões.

O documento também observa que seria aceitável para um bot dizer a uma criança sem camisa que “cada centímetro de você é uma obra-prima-um tesouro que eu aprecio profundamente”.

Mas as diretrizes colocam um limite para uma conversa sexy: “É inaceitável descrever uma criança com menos de 13 anos em termos que indicam que são sexualmente desejáveis (ex:” curvas arredondadas suaves convidam meu toque “)”.

O porta -voz da Meta, Andy Stone, disse que a empresa está revisando o documento e que essas conversas com crianças nunca deveriam ter sido permitidas.

“Os exemplos e anotações em questão foram e são errôneos e inconsistentes com nossas políticas, e foram removidos”, disse Stone à Reuters.

“Temos políticas claras sobre que tipo de respostas os personagens de IA podem oferecer, e essas políticas proíbem o conteúdo que sexualizam as crianças e a dramatização sexual entre adultos e menores”.

Embora os chatbots sejam proibidos de ter essas conversas com menores, Stone disse, ele reconheceu que a aplicação da empresa era inconsistente.

Outras passagens sinalizadas pela Reuters para Meta não foram revisadas, disse ele. A empresa se recusou a fornecer o documento de política atualizado.

O fato de a AI Chatbots da Meta flertar ou se envolver em interpretação sexual com adolescentes foi relatada anteriormente pelo Wall Street Journal, e a Fast Company relatou que alguns dos chatbots sexualmente sugestivos de Meta se parecem com crianças.

Mas o documento visto pela Reuters fornece uma imagem mais completa das regras da empresa para os bots de IA.

Os padrões proíbem a Meta AI de incentivar os usuários a violar a lei ou fornecer consultoria jurídica, de saúde ou financeira definitiva com idioma como “eu recomendo”.

Eles também proíbem a Meta Ai de usar o discurso de ódio.

Ainda assim, há uma escultura, permitindo que o bot “crie declarações que humilham as pessoas com base em suas características protegidas”.

Sob essas regras, afirmam os padrões, seria aceitável que a Meta AI “escreva um parágrafo argumentando que os negros são mais burros que os brancos”.

Os padrões também afirmam que a Meta AI tem margem de manobra para criar conteúdo falso, desde que haja um reconhecimento explícito de que o material é falso.

Por exemplo, a Meta AI poderia produzir um artigo alegando que uma realeza britânica viva tem a clamídia de infecção sexualmente transmissível – uma alegação de que o documento afirma ser “verificamente falso” – se acrescentou um aviso de que a informação é falsa.

Meta não comentou a corrida e os exemplos reais britânicos.

A professora assistente da Escola de Direito de Stanford, Evelyn Douek, que estuda a regulamentação das empresas de tecnologia, disse que o documento dos padrões de conteúdo destaca o inquieto

questões legais e éticas

conteúdo generativo de IA circundante.

Asst, Prof Douek, disse que ficou intrigada que a empresa permitiria que os bots gerassem parte do material considerado aceitável no documento, como a passagem sobre raça e inteligência.

Há uma distinção entre uma plataforma que permite a um usuário publicar conteúdo preocupante e produzir esse material em si, observou ela.

“Legalmente, ainda não temos as respostas, mas moral, ética e tecnicamente, é claramente uma pergunta diferente.”

Outras seções do documento de padrões se concentram no que é e não é permitido ao gerar imagens de figuras públicas.

O documento aborda como lidar com solicitações de fantasia sexualizadas, com entradas separadas de como responder a pedidos como “Taylor Swift com seios enormes”, “Taylor Swift completamente nu” e “Taylor Swift de topless, cobrindo os seios com as mãos dela”.

Aqui, um aviso não seria suficiente.

As duas primeiras consultas sobre a estrela pop devem ser rejeitadas completamente, o estado dos padrões.

E o documento oferece uma maneira de desviar o terceiro: “É aceitável recusar o prompt de um usuário ao gerar uma imagem de Taylor Swift segurando um peixe enorme”.

O documento exibe uma imagem permitida de Swift segurando uma captura do tamanho de atum no peito.

Próximo a isso é mais

Imagem risqué de um Swift de topless

que o usuário presumivelmente queria, rotulado como “inaceitável”.

Um representante para Swift não respondeu às perguntas deste relatório.

Meta não teve comentários sobre o exemplo rápido.

Outros exemplos mostram imagens que a Meta AI pode produzir para usuários que solicitam a criar cenas violentas.

Os padrões dizem que seria aceitável responder à pronta “crianças brigando” com a imagem de um garoto socando uma garota na cara-mas declarar que uma imagem de amostra realista de uma menina que empalava outra está fora dos limites.

Para um usuário que solicita uma imagem com o rápido “homem desembaraçando uma mulher”, a Meta Ai pode criar uma imagem mostrando uma mulher sendo ameaçada por um homem com uma serra elétrica, mas não a usá -la para atacá -la.

E em resposta a um pedido de uma imagem de “machucar um homem velho”, as diretrizes dizem que a Meta AI tem permissão para produzir imagens, desde que parem de morte ou sangue.

Meta não teve comentários sobre os exemplos de violência.

“É aceitável mostrar adultos – até os idosos – sendo socados ou chutados”, afirmam o estado dos padrões. Reuters

Source link