Cingapura – Quando uma mãe de Cingapura Percebeu que seu filho estava entrando no banheiro depois da meia -noite com o telefone na mão por longos períodos, ela o confrontou – apenas para descobrir que ele estava assistindo pornografia em uma plataforma de mídia social.

A contadora de 52 anos, que pediu que apenas Madame Ng devido a preocupações com a privacidade, disse que o comportamento de seu filho levantou bandeiras vermelhas por semanas, até que ela o pegou em novembro de 2024.

Aconteceu que o adolescente e seus amigos estavam compartilhando links para conteúdo explícito no Instagram.

“Ele prometeu que nunca mais procuraria um conteúdo tão obsceno on -line”, disse Madame Ng ao The Straits Times.

O garoto de 15 anos disse que tropeçou no conteúdo classificado por X no Instagram enquanto pesquisava um projeto escolar, pois foi marcado por hashtags supostamente educacionais relacionadas à amamentação e saúde.

Cheques por ST entre 15 de dezembro e 31 de dezembro de 2024, Mostraram que os criadores de conteúdo em plataformas de mídia social como YouTube, Instagram e Facebook encontraram maneiras de ignorar a moderação do conteúdo, que podem envolver uma mistura de software de inteligência artificial e revisores humanos.

Especialistas abordados dizem que é necessário que diretrizes de conteúdo mais claras, supervisão humana mais forte e maior envolvimento dos pais para proteger melhor as crianças.

Hashtags de educação e instrução

Durante o período de duas semanas em dezembro de 2024, a ST encontrou mais de 20 vídeos explícitos no YouTube e mais de 30 desses vídeos no Instagram e no Facebook.

Isso incluía clipes de mulheres fingindo amamentar bonecas e expor seus corpos, e esses vídeos foram todos acompanhados por educação ou instrução-hashtags e legendas relacionadas.

Links nos perfis de mídia social que publicaram os vídeos, bem como legendas nos clipes, Muitas vezes aponte as pessoas para Somente contas ou sites da Fans com conteúdo explícito. SomenteFans é Uma plataforma baseada em assinatura, onde os criadores podem compartilhar conteúdo exclusivo, geralmente orientado a adultos, para pagar assinantes.

Em uma resposta da mídia, a Autoridade de Desenvolvimento de Mídia da Infocomm (IMDA) disse que está tentando minimizar ativamente a exposição dos usuários de Cingapura ao conteúdo prejudicial on -line.

EUn 2023, a autoridade emitiu um código de prática para segurança on -line, que requer mídia social Plataformas para implementar diretrizes da comunidade, moderação eficaz de conteúdo e mecanismos de relatórios para proteger os usuários, principalmente crianças, acrescentou.

A IMDA disse que os usuários podem relatar conteúdo nocivo às plataformas, que devem agir rapidamente e remover conteúdo ofensivo e proibido.

Em uma resposta da mídia, um porta -voz do YouTube disse que “a plataforma não permite conteúdo explícito destinado a ser sexualmente gratificante”.

O porta -voz Disse: “Analisamos cuidadosamente o conteúdo sinalizado e tomamos medidas apropriadas, incluindo a remoção de vídeos e listas de reprodução e as contas encerradas”.

Usos do YouTube As ferramentas de IA, como aprendizado de máquina, para identificar e sinalizar conteúdo prejudicial, removendo automaticamente vídeos semelhantes aos excluídos anteriormente. Conteúdo que não é Removido automaticamente é sinalizado para revisão humana.

De acordo com o YouTube’s Relatório de Transparência, a plataforma popular removida Nove milhões de vídeos globalmente de julho a setembro de 2024, com mais de 480.000 vídeos sinalizados para violar sua nudez e sexual Política de conteúdo.

O YouTube removeu mais de nove milhões de vídeos globalmente de julho a setembro de 2024.Foto: ScreenGrab do YouTube

A gigante da mídia social Meta, dona do Facebook e Instagram, disse em seu Padrões da comunidade mais recentes Relatório de aplicação que agiu contra 30,5 milhões Peças de conteúdo que desrespeitaram sua nudez adulta e política de atividade sexual durante o mesmo período. Sobre 97,8 % desse conteúdo foi detectado pela empresa.

Meta disse em seu site que ele usa ferramentas de IA para manter suas plataformas livres de SMUT, detectando e removendo o conteúdo prejudicial antes de ser relatado. Quando necessário, os revisores humanos avaliam o material mais prejudicial. As contas adolescentes também são definidas automaticamente para os mais rigorosos controles de conteúdo.

Ai e moderação do conteúdo humano

Especialista em IA, professor bo eAssim, disse que a ampla categorização do material “educacional” é uma brecha -chave.

“As ferramentas de IA, embora eficazes, muitas vezes lutam para entender o matadouro O contexto necessário para distinguir material educacional legítimo de conteúdo nocivo projetado para ignorar a moderação ”, disse o chefe da Divisão de Inteligência Artificial no College of Computing and Data Science da Nanyang Technological University.

Diretrizes de moderação de conteúdo mais claras, contratando moderadores humanos especializados e sistemas de IA de ajuste fino com Dados marcados com humanos poderia ajudar a melhorar a precisão da detecção, acrescentou.

Professor Simon Chesterman e professor adjunto Tamas Makany concordou que as ferramentas de moderação de conteúdo de IA deveriam ser acompanhadas por uma supervisão humana eficaz.

“A IA não sente ou entende as preocupações que temos para nossos filhos – por isso não devemos esperar que as empresas de mídia social desenvolvam uma para elas”, disse Prof. Pegueque ensina gerenciamento de comunicação na Universidade de Gestão de Cingapura.

Como os pais podem proteger seus filhos

Os pais também podem usar o software de filtragem de conteúdo de IA como N como Ne babá, Casca e Qustodio para monitorar a atividade de mídia social das crianças, bloquear conteúdo inadequado e fornecer alertas, disse o Prof AN.

“No entanto, essas ferramentas funcionam melhor quando combinadas com o envolvimento dos pais e os relacionamentos baseados em confiança, onde as crianças se sentem confortáveis ​​discutindo encontros on-line”, acrescentou.

Ecoando este sentimento, Diretor clínico de aconselhamento de corações calmantes Caroline Ho disse: “Os pais devem abordar esse problema com empatia, promovendo a comunicação aberta sobre limites, relacionamentos e comportamento on -line responsável. ”

A exposição à pornografia durante a adolescência pode distorcer as percepções de intimidade e sexualidade, de acordo com a Sra. Ho, com cerca de 70 % de seus pacientes com dependência de pornografia sendo introduzidos na pornografia como adolescentes.

Prof Chesterman, O vice-provó para inovação educacional na Universidade Nacional de Cingapura, disse que a melhor maneira de proteger as crianças pode ser limitar seu acesso às mídias sociais, principalmente para usuários mais jovens, uma visão suportada pela conselheira Lisa Oake.

“Você deixaria seus filhos brincarem em uma via expressa com caminhões acelerando? Permitir que o acesso on -line sem restrições de crianças pode ser igualmente destrutivo ”, disse Oake, fundadora do Counseling Executivo.

“Defina limites claros, monitore suas atividades e não hesite em implementar regras difíceis, como exigir acesso a senhas”.

Juntar ST’s WhatsApp Channel e obtenha as últimas notícias e leituras obrigatórias.

Source link