Desde então, o Google removeu alguns de seus resumos de saúde de inteligência artificial um inquérito do guardião Verificou-se que as pessoas corriam risco de danos devido a informações falsas e enganosas.
A empresa disse que suas visões gerais de IA, que usam IA generativa para fornecer instantâneos de informações essenciais sobre um tópico ou questão, são “útil” E “confiável,
Mas alguns resumos, que aparecem no topo dos resultados da pesquisa, fornecem informações de saúde imprecisas, colocando os utilizadores em risco de danos.
Num caso que os especialistas descreveram como “alarmante” e “perigoso”, Google Foram fornecidas informações falsas sobre testes vitais da função hepática que poderiam induzir em erro pessoas com doença hepática grave, fazendo-as pensar que são saudáveis.
O Guardian descobriu que digitar “qual é o intervalo normal para um exame de sangue ao fígado” produzia grandes números, tinha pouco contexto e não levava em conta a nacionalidade, sexo, etnia ou idade dos pacientes.
O que a visão geral da IA do Google disse ser normal pode, na verdade, diferir significativamente do que é considerado normal, disseram especialistas. O resumo pode fazer com que pacientes gravemente doentes pensem erroneamente que os resultados dos seus testes são normais e não se preocupem em comparecer às reuniões de acompanhamento dos cuidados de saúde.
após investigaçãoA empresa removeu as observações de IA para os termos de pesquisa “qual é o intervalo normal para um exame de sangue do fígado” e “qual é o intervalo normal para um teste de função hepática”.
Um porta-voz do Google disse: “Não comentamos sobre remoções individuais na Pesquisa. Nos casos em que algum contexto é perdido em uma visão geral da IA, trabalhamos para fazer melhorias abrangentes e também tomamos medidas de acordo com nossas políticas quando apropriado”.
Vanessa Hebditch, diretora de comunicações e políticas da British Liver Trust, uma instituição de caridade para a saúde do fígado, disse: “Esta é uma excelente notícia e temos o prazer de remover as observações da IA do Google nestes casos.
“No entanto, se a pergunta for feita de forma diferente, ainda poderão ser fornecidas observações de IA potencialmente enganosas e estamos preocupados que outras informações de saúde produzidas pela IA possam ser imprecisas e confusas.”
O Guardian descobriu que digitar pequenas variações das consultas originais no Google, como “intervalo de referência LFT” ou “intervalo de referência de teste LFT”, gerou uma visão geral da IA. Essa foi uma grande preocupação, disse Hebditch.
“Os testes de função hepática ou testes de função hepática são uma coleção de diferentes exames de sangue. Compreender os resultados e o que fazer a seguir é complexo e envolve muito mais do que comparar um conjunto de números.
“Mas o AI Overview apresenta uma lista de testes em negrito, tornando muito fácil para os leitores esquecerem que esses números podem nem ser verdadeiros para o seu teste.
“Além disso, a observação da IA não alerta que alguém pode obter resultados normais nesses testes quando tem doença hepática grave e precisa de mais cuidados médicos. Essa falsa garantia pode ser muito prejudicial.”
Google, Que tem 91% de participação no mercado global de mecanismos de pesquisadisse que estava analisando os novos exemplos fornecidos pelo Guardian.
Hebditch disse: “Nossa grande preocupação com tudo isso é que está bagunçando um único resultado de pesquisa e o Google pode desligar as observações de IA para isso, mas não está lidando com o problema maior das observações de IA para a saúde”.
Sue Farrington, presidente do Patient Information Forum, que promove informações de saúde baseadas em evidências para os pacientes, o público e os profissionais de saúde, saudou a remoção dos resumos, mas disse que ainda tinha preocupações.
“Este é um bom resultado, mas é um primeiro passo necessário para manter a confiança nos resultados de pesquisa relacionados à saúde do Google. Ainda existem muitos exemplos de observações da IA do Google que fornecem às pessoas informações de saúde imprecisas”.
Farrington disse que milhões de adultos em todo o mundo já lutam para aceder a informações de saúde fiáveis. “É por isso que é tão importante que o Google informe as pessoas sobre as informações e cuidados de saúde robustos e pesquisados que oferecem de organizações de saúde confiáveis”.
Observações de IA ainda emergem Outros exemplos que o Guardian destacou originalmente no GoogleEles incluem um resumo de informações sobre câncer e saúde mental que os especialistas descreveram como “completamente imprecisas” e “realmente perigosas”,
Quando questionado sobre por que essas observações de IA não foram removidas, o Google disse que elas estão vinculadas a fontes conhecidas e confiáveis e informam as pessoas quando é importante procurar aconselhamento especializado.
Um porta-voz disse: “Nossa equipe interna de profissionais revisou o que foi compartilhado conosco e descobriu que, em muitos casos, as informações não eram imprecisas e também eram apoiadas por sites de alta qualidade”.
Victor Tangerman, editor sênior do site de tecnologia Futurism, disse que os resultados da investigação do Guardian mostraram que o Google tem trabalho a fazer.Para garantir que suas ferramentas de IA não espalhem informações perigosas sobre saúde,
O aplicativo Guardian possui uma ferramenta para envio de sugestões de stories. As mensagens são criptografadas de ponta a ponta e ocultadas nas atividades de rotina realizadas por cada aplicativo móvel Guardian. Isso evita que o observador saiba que você está se comunicando conosco, muito menos o que está sendo dito.
Se você ainda não possui o aplicativo Guardian, baixe-o (iOS,Android) e vá para o menu. Selecione ‘Mensagens seguras’.
E-mail (não seguro)
Se você não precisa de um alto nível de segurança ou privacidade, você pode enviar um e-mail andrew.gregory@theguardian.com
SecureDrop e outros métodos seguros
Se você puder usar a rede Tor com segurança sem ser observado ou monitorado, poderá enviar mensagens e documentos ao Guardian através do nosso Plataforma SecureDrop,
Finalmente, nosso guia theguardian.com/tips Lista diversas maneiras de entrar em contato conosco com segurança e discute as vantagens e desvantagens de cada uma.
“,”imagem”:”https://i.guim.co.uk/img/media/ae475ccca7c94a4565f6b500a485479f08098383/788_0_4000_4000/4000. jpg?width=620&quality=85&auto=format&fit=max&s=45fd162100b331bf1618e364c5c69452″,”credit”:”Ilustração: Guardian Design / Rich Cousins”}”>
guia rápido
Entre em contato com Andrew Gregory sobre esta história
mostrar
Se você tiver algo a compartilhar sobre esta história, entre em contato com Andrew usando um dos seguintes métodos.
O aplicativo Guardian conta com uma ferramenta para enviar sugestões de stories. As mensagens são criptografadas de ponta a ponta e ocultadas nas atividades de rotina realizadas por cada aplicativo móvel Guardian. Isso evita que o observador saiba que você está se comunicando conosco, muito menos o que está sendo dito.
Se você ainda não possui o aplicativo Guardian, baixe-o (iOS,Android) e vá para o menu. Selecione ‘Mensagens seguras’.
E-mail (não seguro)
Se você não precisa de um alto nível de segurança ou privacidade, você pode enviar um e-mail andrew.gregory@theguardian.com
SecureDrop e outros métodos seguros
Se você puder usar a rede Tor com segurança sem ser observado ou monitorado, poderá enviar mensagens e documentos ao Guardian através do nosso Plataforma SecureDrop,
Finalmente, nosso guia theguardian.com/tips Lista diversas maneiras de entrar em contato conosco com segurança e discute as vantagens e desvantagens de cada uma.
O Google disse que a visão geral da IA só aparece em consultas nas quais há total confiança na qualidade das respostas. Afirma que a empresa mede e analisa continuamente a qualidade dos seus resumos em muitas categorias diferentes de informação.
em um artigo para diário do mecanismo de pesquisaO autor sênior Matt Southern disse: “As observações de IA aparecem acima dos resultados classificados. Quando o assunto é saúde, os erros são mais significativos.”


















