CINGAPURA – A partir de 31 de março, as lojas de aplicativos devem impedir que usuários jovens com menos de 18 anos baixem aplicativos que não sejam adequados para sua idade, incluindo aplicativo de namoro Tinder e videogames adultos como Grand Theft Auto.
Sob um novo Código de práticas para segurança on-line para serviços de distribuição de aplicativoslojas de aplicativos direcionar usuários em Cingapura também deve bloquear crianças menores de 12 anos desde o download de aplicativos como Instagram e TikTok, classificados para maiores de 12 anos.
“Reconhecemos que os serviços de distribuição de aplicativos são principais portas de acesso para aplicativos em nossos dispositivos digitais e são mercados para conteúdo online, incluindo jogos online”, disse a Infocomm Media Development Authority (IMDA) ao anunciar o lançamento do novo código em 15 de janeiro.
“Com mais pessoas, incluindo crianças possuir dispositivos móveis… existe um risco aumentado de exposição a conteúdos nocivos, incluindo conteúdos impróprios para a idade das crianças.”
As pessoas afetadas por este código são o Loja de aplicativos da Apple, Google Play Store, Huawei AppGallery, Microsoft Store e Samsung Galaxy Store. Eles precisará rastrear a idade dos downloaders – um processo cunhado como “garantia de idade” sob o código – minimizar a exposição das crianças a conteúdos nocivos.
As lojas de aplicativos também são responsáveis para monitorar o conteúdo do aplicativo e são obrigados a revisar aplicativos e atualizações antes de serem lançados. Isto garante que materiais nocivos, como conteúdos sexuais ou violentos, e conteúdos relacionados com cyberbullying, automutilação, vícios, entre outros, sejam mantidos fora do alcance das crianças.
À medida que as empresas se adaptam às novas regrasA IMDA disse que envolverá as lojas de aplicativos nos próximos meses na implementação de medidas de garantia de idade.
A IMDA sugeriu o uso de inteligência artificial, aprendizado de máquina ou varreduras faciais – que, segundo ela, “evoluíram significativamente” – para permitir que medidas de garantia de idade sejam implementadas de forma eficaz.
A tecnologia de triagem facial tem sido cada vez mais implantada em aplicativos, como Instagram e o aplicativo francês de redes para jovens Yubo, que exige que os usuários gravem imagens em tempo real de seus rostos, que são analisadas por uma empresa de tecnologia de verificação de idade chamada Yoti.
Alternativamente, as plataformas também podem contar com fontes verificadas de identificação, como uma identificação digital ou cartão de crédito, para determinar a idade de um usuário, disse IMDA..
Plataformas que faltam medidas de “garantia de idade” precisam apresentar uma proposta para IMDA sobre como eles planejam verificar a idade dos downloaders e quando poderão configurá-lo.
As lojas de aplicativos que não implementarem as medidas correm o risco de serem bloqueadas em Cingapura sob a Lei de Radiodifusão.
Ainda não se sabe como lojas de aplicativos restringirá aplicativos com conteúdo adulto para usuários mais jovens. Serviços de streaming como o Netflix, apesar de serem classificados como maiores de 12 anos na Google Play Store, geralmente hospedam programas destinados ao público adulto (maiores de 18 anos), normalmente protegidos por uma senha para restringir o acesso.
Como parte de suas novas obrigações que entram em vigor em 31 de março, as lojas de aplicativos também precisarão ter canais que sejam fáceis para os usuários denunciarem aplicativos com conteúdo prejudicial e serem responsáveis perante os usuários pelas medidas que implementaram nos relatórios anuais de segurança online. .
Por exemplo, a IMDA exige que os relatórios dos utilizadores sejam avaliados e tratados de forma atempada e diligente, proporcional à gravidade do dano potencial. O conteúdo e a atividade relacionados com exploração e abuso sexual infantil e terrorismo, em particular, devem ser removidos ou restringidos, e o fornecedor da aplicação em questão deve ser banido, suspenso ou advertido.
Espera-se também que a plataforma mantenha usuários que relatem a ação tomada, a menos que o relatório seja de natureza frívola ou escrito para causar frustração.
A Ministra do Desenvolvimento Digital e da Informação, Josephine Teo, disse no LinkedIn que o novo código visa garantir que as crianças possam explorar e aprender com acesso a conteúdo adequado à idade.
Ela escreveu sobre uma jovem mãe que a conheceu em um Meet-the-People para perguntar sobre ajuda financeira. A Sra. Teo disse: “Seus três filhos, um deles ainda pequeno, estavam todos profundamente envolvidos com seus dispositivos móveis.
“Além de ajudar a família dela com suas necessidades básicas, eu sabia que precisava compartilhar com ela informações sobre o uso da tela e vincular sua família a recursos de educação e entretenimento, como livros – as crianças ainda eram muito pequenas para se protegerem dos perigos de conteúdo on-line prejudicial.”
O código acrescenta medidas introduzidas para melhorar a segurança online, incluindo guias para pais e regras para serviços de redes sociais no âmbito do Código de Prática para Segurança Online, disse a Sra. Teo.
Ela disse: “Embora não exista uma solução mágica que resolva todas as complexidades da segurança online, Singapura continua empenhada em fortalecer as nossas defesas contra a evolução dos danos online”.
O Código de Prática de Singapura segue um impulso global mais amplo reforçar a proteção das crianças online, responsabilizando as plataformas tecnológicas pela segurança dos seus utilizadores online.
Muitas nações estão olhando para a Austrália, que em breve aplicará uma nova lei para proibir o acesso de crianças menores de 16 anos às redes sociais, estabelecendo uma referência para os reguladores em todo o mundo.
Os observadores levantaram questões sobre como a lei será aplicada e se a tecnologia de garantia de idade está à altura da tarefa.
Também Singapura está a debater a ideia de uma proibição e está em negociações com a Austráliae plataformas tecnológicas, para compreender os seus pontos de vista.
A República fez atualizações graduais na sua Lei de Radiodifusão ao longo dos anos para exigir que as empresas de tecnologia introduzissem medidas mais rigorosas.
Em 2023, as empresas de tecnologia daqui foram obrigadas a facilitar aos utilizadores a denúncia de conteúdos prejudiciais e a serem transparentes sobre como estão a manter os utilizadores seguros através de relatórios anuais de segurança às autoridades para responsabilização.
A IMDA está em fase de avaliação dos relatórios, que visam promover a transparência entre as plataformas e recolher informações sobre o que já estão a fazer para garantir a segurança.
Juntar Canal Telegram da ST e receba as últimas notícias de última hora.


















