Tóquio – Imagens sexuais falsas de crianças estão sendo geradas com fotos de eventos escolares e álbuns de graduação e espalhados nas mídias sociais.

Em alguns casos, os próprios menores são os autores, com alunos do ensino fundamental e médio do ensino fundamental e médio usando a tecnologia “Deepfake” através de sites generativos de IA e outras ferramentas.

A polícia de todo o país está recebendo um número crescente de relatórios sobre esses casos.

A Agência Policial Nacional planeja investigar os principais sites de IA geradores de imagens para descobrir quaisquer irregularidades e elaborar medidas de prevenção.

Um garoto da escola primária no leste do Japão gerou uma imagem nua falsa de uma garota na escola secundária que frequentou a mesma aula de esportes e postou a imagem em um bate -papo em grupo de mídia social. “Eu usei a IA generativa para editar uma foto do rosto de uma garota que eu gosto”, disse a polícia.

Muitos sites e aplicativos permitem que os usuários gerem imagens fornecendo instruções à IA, com alguns usuários que os usuários geram imagens sexuais falsas com base nas fotos infantis.

O garoto supostamente usou imagens que haviam compartilhado pela classe para seus membros.

De acordo com a NPA, a polícia recebeu mais de 100 consultas e relatórios sobre imagens sexuais falsas de menores em 2024. A maioria envolveu reivindicações como “imagens nuas feitas com meu rosto estão nas mídias sociais”.

A maioria das vítimas são estudantes do ensino médio e do ensino médio, mas as crianças do ensino fundamental também se envolveram.

Na maioria dos casos, as pessoas que eles conhecem são suspeitas de gerar as imagens. Dezessete casos foram identificados como envolvendo imagens feitas através da IA ​​com fotos de eventos escolares e álbuns de formatura.

O assédio direcionado aos colegas do mesmo sexo tem sido um motivo em alguns casos.

Também houve casos graves o suficiente para estimular investigações criminais. Na região de Tokai, no centro do Japão, um estudante do ensino médio do sexo masculino foi encaminhado aos promotores por suspeita de difamação por gerar uma imagem nude falsa usando a foto de uma colega de classe e compartilhá -la com os amigos.

A posse e produção de imagens sexuais de crianças são regulamentadas sob a prostituição infantil e a lei de prevenção de pornografia infantil. No entanto, a lei pressupõe que os casos envolvam uma imagem real de uma criança, portanto, é difícil processar os DeepFakes.

Portanto, a polícia de todo o país está aplicando outras leis e regulamentos a esses casos. Uma pesquisa de uma empresa de segurança dos EUA descobriu que 95.820 vídeos de Deepfake foram identificados on -line em 2023, sendo 98 % pornográfico.

“Os casos que a polícia está ciente são apenas a ponta do iceberg”, disse um alto funcionário da polícia.

Dada essa situação, a NPA está focada em cerca de 10 sites e aplicativos de IA geradores de imagens que são especialmente populares entre os alunos do ensino médio e do ensino médio, dos muitos encontrados online.

A polícia investigará suas operações, e os resultados serão usados ​​não apenas para investigações criminais, mas também para campanhas de conscientização direcionadas aos jovens por meio de aulas de prevenção de inadimplência e programas similares.

“Se imagens falsas sofisticadas se espalharem on -line, isso viola a privacidade das crianças cujas fotos são mal utilizadas, mesmo que sejam falsas”, disse Masaki Ueda, professor associado de direito criminal da Universidade de Kanagawa, familiarizado com os regulamentos de obscenidade.

“A carga psicológica é significativa, portanto, as imagens de DeepFake devem ser tratadas de maneira semelhante à pornografia infantil e os regulamentos legais devem ser considerados”, disse Ueda.

As nações regulam cada vez mais os deepfakes sexualmente explícitos.

Os movimentos para regular as imagens sexualmente explícitas do DeepFake estão crescendo no exterior.

Na Coréia do Sul, um projeto de lei foi aprovado em setembro de 2024 para punir não apenas a criação de imagens de Deepfake, mas também o ato de vê -las ou possuí -las.

Nos Estados Unidos, uma lei federal foi promulgada pode proibir a publicação de imagens ou vídeos sexualmente explícitos on -line sem o consentimento do assunto em questão.

A lei tornou obrigatório que as plataformas de mídia social e outros operadores relevantes removam essas imagens e vídeos dentro de 48 horas após o recebimento de uma solicitação das vítimas.

A Grã -Bretanha e a Austrália também regulam o compartilhamento de imagens sexualmente explícitas do DeepFake.

No Japão, o governo da prefeitura de Tottori, em agosto, revisou uma ordenança para proibir – com penalidades – a criação de imagens falsas sexualmente explícitas usando fotografias de crianças.

Houve pedidos de ação, incluindo legislação, dentro do grupo de trabalho do governo central discutindo o uso da Internet por jovens. No entanto, as discussões não progrediram muito mais.

Childfund Japan, uma organização não-governamental internacional de Tóquio, pesquisou 1.200 homens e mulheres em todo o país de janeiro a fevereiro.

Cerca de 70 % dos entrevistados acreditavam que imagens sexuais de crianças, incluindo imagens falsas, deveriam ser regulamentadas por lei, independentemente de existirem os sujeitos nas imagens. The Japan News/ Asia News Network

Source link

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui