Cingapura – Os médicos do Hospital Geral de Changi (CGH) estão testando o uso de inteligência artificial generativa (Genai) para resumir relatórios médicos e fornecer recomendações sobre vigilância clínica.

Mas essas recomendações são precisas?

Enquanto isso, a empresa de tecnologia regulatória Townitaki usa a Genai para investigar possíveis casos de lavagem de dinheiro e fraude.

Suas descobertas são confiáveis?

No início de 2025, a Autoridade de Desenvolvimento de Mídia Infocomm (IMDA) e a Fundação AI Verify lançaram uma iniciativa focada nos usos do mundo real da Genai para incentivar a adoção segura de IA em vários setores.

A AI Verify Foundation é uma subsidiária da IMDA sem fins lucrativos que aborda questões de prensagem decorrentes da IA.

Entre março e maio, 17 organizações em 10 setores diferentes – incluindo recursos humanos, assistência médica e finanças – tiveram suas aplicações genai avaliadas por empresas especializadas em testes de Genai.

As descobertas foram publicadas em 29 de maio, marcando o compromisso de Cingapura de liderar o desenvolvimento dos padrões globais para a implantação segura dos aplicativos da Genai.

O piloto global de garantia da IA, como é chamado a iniciativa, permitiu que as organizações vejam como seus aplicativos da Genai se apresentam em condições práticas, disse o ministro sênior de Estado para o Desenvolvimento Digital e Informações Tan Kiat como em 29 de maio.

Ele estava falando no último dia da Asia Tech X Singapore Conference, realizada em Capella Singapore.

O professor associado clínico Chow Weien, diretor de dados e digital da CGH, disse ao The Straits Times que participar da iniciativa ajudou o hospital a projetar uma maneira mais robusta e confiável de testar seus modelos de IA.

“Por exemplo, poderíamos avaliar se nossa aplicação da Genai estava extraindo as informações clínicas com precisão do relatório de colonoscopia do médico e se o pedido estava fornecendo a recomendação correta, de acordo com as diretrizes clínicas”, disse ele.

O fundador e executivo -chefe da Tookitaki, Abhishek Chatterjee, disse a ST que a experiência ajudou a tornar o modelo de IA da empresa mais auditável e permitiu que a empresa incorporasse a GuardaRails contra as alucinações da IA.

Estes são resultados imprecisos ou sem sentido gerados devido a fatores como dados de treinamento insuficientes.

Embora as iniciativas anteriores tenham se concentrado nos testes dos modelos de IA, o piloto global de garantia da IA ​​teve como objetivo testar a confiabilidade de Genai em cenários do mundo real, disse a diretora executiva da AI Verify Foundation, Shamek Kundu.

Isso é importante, pois as informações alimentadas à IA podem ser falhas, disse ele, dando o exemplo de varreduras de baixa qualidade de um paciente fornecido à IA de um hospital.

O objetivo é fazer o uso de Genai “chato e previsível”, para garantir a confiabilidade da tecnologia para uso diário, disse ele.

Em um comunicado, a IMDA e a AI Verify Foundation disseram que a iniciativa também mostrou que especialistas humanos eram essenciais em todas as etapas dos testes, desde projetar os testes certos até a interpretação dos resultados dos testes.

Embora a tecnologia possa melhorar no futuro, um toque humano ainda é necessário por enquanto, disse o Sr. Shamek.

“A tecnologia não é boa o suficiente para confiarmos cegamente e dizer que está funcionando”, disse ele.

Um relatório detalhando as descobertas está disponível no site da AI Verify Foundation.

De acordo com o piloto, também foi desenvolvido um kit inicial de teste para aplicações da Genai, servindo como um conjunto de diretrizes voluntárias para empresas que desejam adotar com responsabilidade o Genai.

“Ele se baseia em informações do piloto global de garantia de IA, explorando a experiência dos profissionais para garantir que a orientação seja prática e útil”, disse Tan.

Ele acrescentou que o kit inclui as melhores práticas e metodologias emergentes para testar as aplicações da Genai, bem como orientações práticas sobre como realizar esses testes.

As diretrizes serão complementadas pelas ferramentas de teste para ajudar os desenvolvedores a conduzir esses testes, que serão disponibilizados progressivamente via IMDA e AI Verify Project da Fundação Moonshot, um kit de ferramentas direcionado aos desenvolvedores de aplicativos de AI.

A IMDA está conduzindo uma consulta pública de quatro semanas sobre o kit inicial, que pode ser encontrado online. A consulta terminará em 25 de junho.

O feedback pode ser enviado por e-mail para aigov@imda.gov.sg Com o cabeçalho do e-mail “Comentários sobre o draft kit inicial para testes de segurança de aplicativos baseados em LLM”.

Tan também anunciou que a IA Cingapura (AISG) – uma iniciativa nacional para construir as capacidades da República na IA – assinará um memorando de entendimento com o Programa de Desenvolvimento das Nações Unidas (PNUD) para promover a alfabetização da IA ​​nos países em desenvolvimento.

Essa parceria verá a IA da AISG para o Good Program, lançado em 2024 para reforçar as capacidades nacionais da IA, expandir para uma escala internacional, disse ele.

“A AISG e o UNDP explorarão a IA inicial para bons pilotos no sudeste da Ásia, no Caribe e nas Ilhas do Pacífico, para que possamos apoiar a participação mais inclusiva no crescimento acionado por IA”, acrescentou.

Juntar Canal de telegrama da ST E receba as últimas notícias de última hora.

Source link