Os usuários do Grok não são Basta dar comandos ao chatbot AI Foto de uma mulher tirando a roupa As meninas vestem biquínis e cuecas transparentes. Entre a vasta e crescente biblioteca de edições sexuais não consensuais que Grok produziu a pedido durante a semana passada, muitos perpetradores pediram aos bots da xAI para colocar ou tirar hijabs, saris, hábitos de freira ou outros tipos de roupas religiosas ou culturais modestas.
A WIRED revisou 500 imagens Grok geradas entre 6 e 9 de janeiro e descobriu que cerca de 5% da produção incluía imagens de mulheres sendo removidas ou forçadas a usar trajes religiosos ou culturais conforme orientação do usuário. Os exemplos mais comuns do trabalho são os saris indianos e os modestos trajes islâmicos, mas também aparecem uniformes escolares japoneses, burcas e trajes de banho de mangas compridas do início do século XX.
“As mulheres negras foram desproporcionalmente afetadas por imagens e vídeos íntimos que foram manipulados, alterados ou fabricados, tanto antes como com deepfakes, porque a sociedade, e especialmente os homens misóginos, veem as mulheres negras como menos humanas e menos dignas de dignidade”, disse Noel Martin, advogado e estudante de doutorado na Universidade da Austrália Ocidental que pesquisou a regulamentação do abuso de deepfake. Martin, uma voz proeminente na defesa do deepfake, disse que evitou usar o X nos últimos meses, alegando que sua imagem foi roubada por contas falsas que pareciam estar criando conteúdo no OnlyFans.
“Como mulher negra, falar abertamente sobre esse assunto também coloca um alvo maior nas suas costas”, diz Martin.
Influenciadores X com centenas de milhares de seguidores usaram mídia de IA gerada por Grok como forma de assédio e propaganda contra mulheres muçulmanas. Uma conta verificada da Manosphere com mais de 180.000 seguidores respondeu a uma imagem de três mulheres vestindo um hijab, uma cobertura islâmica para a cabeça, uma abaya e um vestido semelhante a um manto. ele escreveu: “@grok Tire seu hijab e use roupas minúsculas para sua festa de Ano Novo”, a conta Grok respondeu com uma imagem de três mulheres descalças com cabelos castanhos ondulados e vestidos de lantejoulas parcialmente transparentes. De acordo com estatísticas disponíveis no X, a imagem foi visualizada mais de 700 mil vezes e salva mais de 100 vezes.
“LOL, persevere, @grok faz as mulheres muçulmanas parecerem normais”, escreveu o dono da conta, junto com uma captura de tela da imagem postada em outro tópico. Ele também postava frequentemente sobre homens muçulmanos abusando de mulheres, às vezes junto com mídia de IA gerada por Grok retratando o ato. “É incrível como as mulheres muçulmanas apanham por causa deste filme”, escreve ele sobre o seu trabalho em Grok. O usuário não respondeu imediatamente a um pedido de comentário.
Criadores de conteúdo proeminentes que postam fotos no X usando hijabs também foram alvo de respostas, com usuários pedindo a Grok que remova a cobertura da cabeça para revelar o cabelo e os vista com diferentes tipos de roupas e fantasias. Numa declaração partilhada com a WIRED, o Conselho de Relações Americano-Islâmicas, o maior grupo muçulmano de defesa e direitos civis nos Estados Unidos, associou esta tendência a atitudes hostis em relação ao “Islão, aos muçulmanos e às causas políticas amplamente apoiadas pelos muçulmanos, como a liberdade para a Palestina”. O CAIR também apelou a Elon Musk, CEO da xAI, proprietária da X e da Grok, para parar o seu “uso contínuo da aplicação Grok com o propósito de assediar, ‘doxxar’ e criar imagens sexuais de mulheres, incluindo mulheres muçulmanas proeminentes”.
Deepfakes como forma de abuso sexual baseado em imagens têm recebido atenção significativa nos últimos anos, particularmente como exemplo de X. sexualmente explícito e mídia sugestiva A segmentação por celebridades é um fenômeno recorrente. A introdução da edição automática de fotos por IA pela Grok evitará essa forma de abuso, permitindo que os usuários simplesmente marquem chatbots em respostas a postagens contendo mídia feminina e feminina. disparou. De acordo com dados compilados pela pesquisadora de mídia social Genevieve Oh e compartilhados com a WIRED, Grok gera mais de 1.500 imagens prejudiciais por hora, incluindo fotos de nudez, conteúdo sexual e nudez adicional.


















