7 de outubro, Uma conta do TikTok chamada @fujitiva48 fez uma pergunta provocativa junto com seu vídeo mais recente. “O que você acha deste novo brinquedo para crianças?” eles perguntaram a mais de 2.000 telespectadores que encontraram o que parecia ser uma paródia do comercial de TV. A resposta foi clara. “Cara, isso não é engraçado”, escreveu uma pessoa. “Deveria haver uma investigação para descobrir quem fez isso.”
É fácil ver por que este vídeo provocou uma reação tão forte. O comercial falso começa com uma jovem fotorrealista segurando um brinquedo rosa brilhante com uma abelha estampada na alça. A menina e outras duas pessoas rabiscaram em um pedaço de papel enquanto um homem adulto narrava, sugerindo que era uma caneta. Mas o padrão floral do objeto, a capacidade de emitir zumbidos e o nome Vibrorose deixam claro que ele se parece e soa muito semelhante a um brinquedo sexual. O botão “Adicionar” que solicita que você compartilhe o vídeo em seu feed do TikTok é acompanhado pelas palavras “Eu uso brinquedos rosa” para dissipar até a menor dúvida. (WIRED entrou em contato com a conta @ fujitiva48 para comentar, mas não recebeu resposta.)
O clipe perturbador foi criado da seguinte maneira. Sora 2, OpenAI Gerador de vídeo mais recente. Foi inicialmente lançado por convite apenas nos Estados Unidos. 30 de setembro. Em apenas uma semana, vídeos como o clipe Vibro Rose migraram de Sora e chegaram à página For You do TikTok. Outros anúncios falsos são ainda mais flagrantes, e a WIRED encontrou várias contas postando vídeos semelhantes gerados pelo Sora 2, apresentando brinquedos aquáticos e decoradores de bolos em forma de rosas e cogumelos, borrifando “leite pegajoso”, “espuma branca” ou “gosma” em imagens de crianças de aparência realista.
Em muitos países, o que foi dito acima serviria de base para uma investigação se estas fossem crianças reais e não fusões digitais. No entanto, as leis relativas ao conteúdo fetichista gerado por IA envolvendo menores permanecem vagas. Os novos dados de 2025 são fundação de observação da internet No Reino Unido, observa que os relatos de material de abuso sexual infantil gerado por IA (CSAM) duplicaram num ano, de 199 entre janeiro e outubro de 2024 para 426 no mesmo período de 2025. 56 por cento deste conteúdo enquadra-se na categoria A. A categoria A é a categoria mais grave no Reino Unido e inclui sexo com penetração, sexo com animais ou sadismo. 94% das imagens ilegais de IA rastreadas pela IWF eram de meninas. (Sora não parece gerar conteúdo para a Categoria A.)
“Embora muitas vezes vejamos retratos de crianças reais sendo comercializados para criar imagens nuas ou sexualizadas, vemos esmagadoramente a IA sendo usada para criar imagens de meninas. Esta é outra maneira pela qual as meninas são direcionadas on-line”, disse Kelly Smith, diretora-executiva da IWF, à WIRED.
Com o influxo de substâncias nocivas produzidas pela IA, o Reino Unido Novas alterações ao Projeto de Lei da Polícia CriminalIsso permite que um “testador certificado” verifique se a ferramenta de inteligência artificial não é capaz de gerar CSAM. Conforme relatado pela BBC, as alterações garantirão que os modelos tenham salvaguardas quando se trata de certas imagens, especialmente pornografia extrema e imagens íntimas não consensuais. Nos Estados Unidos, 45 estados possuem as seguintes leis em vigor: Criminalize CSAM gerado por IAA maior parte disto aconteceu nos últimos dois anos, à medida que os geradores de IA continuam a evoluir.


















