Cingapura – A Meta, empresa controladora do Facebook e Instagram, subestimou os medos sobre o impacto da inteligência artificial (IA), instando os formuladores de políticas e o público a se concentrar nos resultados reais, em vez de pior cenários.
Os comentários do seu vice-presidente de políticas públicas da Ásia-Pacífico, Simon Milner, atraíram refutações nítidas no ATXSummit 2025 em 29 de maio, onde colegas participantes disseram que a rápida disseminação da IA causou consequências do mundo real, como danos on-line que afetam jovens e crianças.
Durante o painel em Capella Singapore, Milner citou 2024 como o “Ano da Democracia”, à medida que mais pessoas em um número maior de Os países foram às pesquisas do que em qualquer outro momento da história.
Embora houvesse preocupações generalizadas sobre os deepfakes e a IA generativa (Genai) interrompendo as eleições, ele disse que nenhuma evidência significativa de tal interferência foi encontrada – nem mesmo em grandes democracias como EUA, Índia ou Indonésia.
“Embora quantidades enormes de Genai tenham sido implantadas entre as plataformas, o impacto não foi catastrófico”, acrescentou. No entanto, seus pontos de vista não foram compartilhados por colegas participantes discutindo o tópico de proteger a sociedade em um mundo sempre online.
Com base em seu trabalho, o professor de comunicação e tecnologia da Singapore Management University, Lim Sun, disse que muitos pais se sentem ansiosos e inseguros sobre como orientar seus filhos na navegação na rápida ascensão de Genai.
“Mesmo que os dados não tenham uma imagem preocupante em geral, no terreno, as pessoas estão lutando para entender essa tecnologia”, disse o Prof Lim.
Os professores também enfrentam um dilema: incentivar a experimentação com IA enquanto alerta sobre seus riscos.
“É um equilíbrio difícil”, acrescentou.
Baronesa Jones de Whitchurch (Margaret Beryl Jones), o subsecretário parlamentar do Reino Unido para a futura economia digital e segurança on-line, ecoou preocupações semelhantes sobre danos on-line que afetam jovens e crianças.
Ela apontou para um debate público em andamento no Reino Unido sobre os efeitos prejudiciais que algumas plataformas on -line têm em usuários jovens.
“Por exemplo, crianças acessando fóruns de suicídio on -line e cometer suicídio. Isso é apenas comovente, e temos algumas histórias terríveis sobre isso”, disse a Baronesa Jones.
Em maio de 2024, Vlad Nikolin-Caisley, de 17 anos, de Hampshire, no sudeste da Inglaterra, morreu depois de supostamente ser incentivado por membros de um grupo pró-suicídio on-line.
Sua família acredita que essas interações on -line prejudiciais tiveram um papel significativo em sua morte, intensificando os pedidos de uma regulamentação mais forte de tais plataformas.
A Baronesa Jones enfatizou a necessidade de as empresas de tecnologia trabalharem em estreita colaboração com o governo para minimizar esses danos, mas reconheceu que nem todos As empresas estão totalmente a bordo, pois o governo está “apresentando grandes expectativas em um novo território”.
Mas Milner recuou, argumentando que o Reino Unido – ou mais amplamente, a Europa – correu para ser a primeira região a regular a IA, que ele descreveu como um erro. Ele disse que essa abordagem levou a um impasse com as empresas.
Por outro lado, ele elogiou Cingapura e outros governos asiáticos por seguirem um caminho diferente: promover o diálogo robusto com empresas de tecnologia, tanto pública quanto em particular, enquanto faziam perguntas difíceis sem entrar em regulamentos pesados.
Andy Parsons, diretora sênior de autenticidade de conteúdo da Adobe, destacou a propagação de material de abuso sexual infantil (CSAM) on -line. Está se tornando quase impossível para a polícia identificar vítimas reais se os materiais foram gerados inteiramente pela IA, disse ele.
Parsons alertou que isso não apenas dificulta os esforços para levar os autores à justiça, mas também apaga o verdadeiro sofrimento humano por trás desses crimes – um grave problema que requer atenção urgente.
O Prof Lim concordou, observando que a questão do CSAM foi piorada pela rápida disseminação de Genai. Atualmente, ela está identificando as principais partes interessadas em toda a indústria, governo e comunidade que estão envolvidos no tratamento do problema.
Precisamos entender “onde mais podemos coordenar melhor nossos esforços para que possamos combater esse flagelo realmente terrível”, disse ela.
Abordando as preocupações levantadas por seus colegas participantes, Milner enfatizou que a principal prioridade da Meta está desenvolvendo produtos com recursos para mitigar os danos on -line. Ele citou a introdução de contas específicas para adolescentes no Instagram como uma resposta à crescente preocupações com o envolvimento dos jovens com a plataforma.
“Acho que devemos estar mais focados nos pais em nossa abordagem à segurança dos jovens”, disse ele, acrescentando que as contas de adolescentes não são apenas imposição de proibições. “Os pais querem ajuda, e estamos aqui para ajudá -los.”
Baronesa Jones enfatizou Que a segurança da IA deve ser abordada como segurança por design – incorporada em plataformas desde o início, em vez de depender de medidas reativas, como derrubar o conteúdo posteriormente. “Deve ser parte integrante do sistema que as crianças, em particular, estão protegidas”, disse ela.
Mas alcançar isso continua sendo um grande desafio. Citando relatórios do Reino Unido, ela destacou que crianças com oito anos de idade encontraram conteúdo perturbador on -line, muitas vezes apareceu repetidamente a eles por algoritmos.
Ela acreditava que os algoritmos estão claramente reforçando a exposição ao material prejudicial. Se as empresas de tecnologia realmente se pensam a isso, elas poderiam refazer a maneira como esses sistemas operam, disse ela, enfatizando que manter as crianças em segurança deve ser a principal prioridade.
O professor Lim também pediu segurança pelo design, enfatizando que os espaços on -line deveriam ser construídos com os usuários mais vulneráveis em mente – sejam crianças, mulheres, idosos ou comunidades marginalizadas.
Ela disse: “Porque uma vez que você projetou para o mais vulnerável, isso torna toda a plataforma mais segura para todos”.
Juntar ST’s WhatsApp Channel e obtenha as últimas notícias e leituras obrigatórias.

















