Uma organização britânica dedicada a impedir o abuso sexual infantil online disse na quarta-feira que seus pesquisadores viram usuários da dark web compartilharem “imagens incriminatórias” que os usuários dizem ter sido criadas pela ferramenta de inteligência artificial de Elon Musk, Grok.

O grupo disse que as imagens incluíam imagens de meninas menores de idade em topless, parecendo mais extremas do que relatos recentes de que Groke havia feito imagens de crianças revelando roupas e cenas sexuais.

A Internet Watch Foundation, que avisado há anos Em relação às imagens de abuso sexual infantil geradas por IA, um comunicado disse que as imagens circularam em um fórum da dark web onde os usuários falavam sobre os poderes de Grok. Ele disse que as imagens eram ilegais e que era inaceitável que a empresa xAI de Musk lançasse tal software.

“Após relatos de que o chatbot Grok de IA produziu imagens sexuais de crianças, podemos confirmar que nossos analistas descobriram imagens incriminatórias de crianças com idades entre 11 e 13 anos que parecem ter sido criadas usando esta ferramenta”, disse Ngire Alexander, chefe da linha direta da Internet Watch Foundation, no comunicado.

Como é ilegal criar ou possuir conteúdo de abuso infantil, os interessados ​​em comercializá-lo ou vendê-lo costumam usar software projetado para mascarar suas identidades ou comunicações em configurações que às vezes são chamadas de dark web.

Tal como o Centro Nacional para Crianças Desaparecidas e Exploradas, com sede nos EUA, a Internet Watch Foundation é uma das poucas organizações no mundo que faz parceria com as autoridades para eliminar conteúdos de abuso infantil em espaços abertos e obscuros da Web.

Grupos como a Internet Watch Foundation podem, sob protocolos rígidos, avaliar conteúdo suspeito de abuso sexual infantil e encaminhá-lo às autoridades e à plataforma para remoção.

xAI não respondeu imediatamente a um pedido de comentário na quarta-feira.

A declaração ocorre no momento em que xAI enfrenta uma tempestade de críticas de reguladores governamentais ao redor do mundo Relacionado às imagens produzidas pelo seu software Grok nos últimos dias. Siga isso Um relatório da Reuters Sexta-feira, o aplicativo de mídia social X da Grok Mask gerou uma enxurrada de imagens falsas sexualizadas de crianças e adultos sem consentimento.

Em dezembro, Grok lançou uma atualização que aparentemente simplificou o que se tornou tendência no X, pedindo ao chatbot para remover roupas das fotos de outros usuários.

Geralmente, os principais fabricantes de sistemas generativos de IA tentaram adicionar cercas para impedir fotos sexuais de usuários identificáveis, mas os usuários encontraram maneiras de criar tais componentes usando soluções alternativas, pequenas plataformas e alguns modelos de código aberto.

Elon Musk e xAI se destacam entre os principais players de IA ao abraçar abertamente a sexualidade em sua plataforma de IA, criando modos de bate-papo sexualmente explícitos com chatbots.

Material de abuso sexual infantil (CSAM) foi um dos mais ansiedade severa e a luta entre criadores IA generativa Nos últimos anos, os principais fabricantes de IA têm lutado para excluir o CSAM dos dados de treinamento de imagem para seus modelos e estão trabalhando para impor proteções suficientes em seus sistemas para evitar a criação de novos CSAM.

No sábado, Musk escreveu: “Qualquer pessoa que use Grok para criar conteúdo ilegal sofrerá as mesmas consequências se enviar conteúdo ilegal”, em resposta à postagem de outro usuário, protegendo Grok das críticas à polêmica. Grok’s Termos de Uso A sexualização ou exploração de crianças em particular é proibida.

Ofcom, o regulador britânico, disse em comunicado na segunda-feira que estava ciente das preocupações levantadas pela mídia e pelas vítimas sobre um recurso no X que produzia imagens nuas de pessoas e imagens sexuais de crianças. “Fizemos contato urgente com X e xAI para entender quais medidas eles tomaram para cumprir suas responsabilidades legais de proteger os usuários no Reino Unido. Com base em seus comentários, realizaremos uma avaliação rápida para determinar se há possíveis problemas de conformidade que justifiquem uma investigação”, disse Ofcom.

O Departamento de Justiça dos EUA disse em comunicado na quarta-feira, em resposta a perguntas sobre Groke fazer imagens sexuais de pessoas, que a questão era uma prioridade, embora não tenha mencionado o nome de Groke.

“O Departamento de Justiça leva muito a sério o conteúdo de abuso sexual infantil gerado por IA e processará agressivamente qualquer produtor ou possuidor de CSAM”, disse um porta-voz. “Continuamos a explorar maneiras de otimizar a fiscalização neste espaço para proteger as crianças e responsabilizar aqueles que usam a tecnologia para prejudicar os mais vulneráveis”.

Alexander, da Internet Watch Foundation, diz que o material de abuso de Grok está se espalhando.

“As imagens que vimos até agora não estão no X, mas em um fórum dark web onde os usuários afirmam ter usado o Grok Imagine para criar imagens, incluindo imagens sexualizadas e de topless de meninas”, disse ele em seu comunicado.

Ele disse que as imagens identificadas para Groke “seriam consideradas imagens de categoria C sob a lei do Reino Unido”, a terceira mais grave. Tipo de imagem. Ele acrescentou que um usuário no fórum da dark web foi então observado usando “imagens Groc como ponto de partida para criar vídeos mais extremos, Categoria A, usando uma ferramenta de IA diferente”. Ele não nomeou as diferentes ferramentas.

“Os danos estão aparecendo”, disse ele. “Não há desculpa para lançar ao público global produtos que possam ser usados ​​para abusar e ferir pessoas, especialmente crianças”.

Ele acrescentou: “Estamos profundamente preocupados com a facilidade e a velocidade com que as pessoas podem criar material de abuso sexual infantil visualmente fotorrealista. Ferramentas como o Grok agora correm o risco de integrar imagens de IA sexual infantil. Isso é inaceitável.”

Source link