EUNo sul da Califórnia, onde as taxas de sem-abrigo são as mais elevadas do país, uma empresa privada, Laboratórios AkidoAdministra clínicas para pacientes sem-teto e outras pessoas de baixa renda. alerta? Os pacientes são atendidos por assistentes médicos que usam inteligência artificial (IA) para ouvir conversas e depois explicar possíveis diagnósticos e planos de tratamento, que são revisados ​​por um médico. O objetivo da empresa, disse seu diretor de tecnologia ao MIT Technology Review, é “tire o médico do passeio“.

Isto é perigoso. No entanto, faz parte de uma tendência maior em que a IA genérica está a ser introduzida nos cuidados de saúde para profissionais médicos. Em 2025, um enquete A Associação Médica Americana informou que dois em cada três médicos usam IA para auxiliar em suas tarefas diárias, incluindo o diagnóstico de pacientes. Um Startup de IA arrecada US$ 200 milhões Fornecer um aplicativo chamado “ChatGPT for Doctors” para profissionais médicos. Os legisladores dos EUA estão considerando isso Conta Isso identificará a IA como capaz de prescrever medicamentos. Embora esta tendência da IA ​​nos cuidados de saúde afecte quase todos os pacientes, tem um impacto mais profundo nas pessoas de baixos rendimentos que já enfrentam barreiras substanciais aos cuidados de saúde e taxas mais elevadas de abuso em ambientes de cuidados de saúde. As pessoas que não têm casa e têm baixos rendimentos não devem ser utilizadas como campo de testes para a IA nos cuidados de saúde. Em vez disso, a sua voz e preferências devem determinar se, como e quando a IA será implementada sob os seus cuidados.

A ascensão da IA ​​na área da saúde não aconteceu assim. Hospitais superlotados, médicos sobrecarregados e a pressão constante para manter os consultórios médicos funcionando ininterruptamente, transportando pacientes para dentro e para fora do sistema de saúde com fins lucrativos, estabelecem as condições. A procura de profissionais de saúde aumenta frequentemente em comunidades economicamente desfavorecidas, onde os locais de cuidados de saúde têm frequentemente poucos recursos e os pacientes não têm seguro, onde existe um fardo mais elevado de condições de saúde crónicas devido ao racismo e à pobreza.

É aqui que se pode perguntar: “Alguma coisa não é melhor que nada?” Bem, na verdade, não. Estudos mostram que ferramentas habilitadas para IA produzem diagnósticos incorretos. UM Estudo de 2021 A Nature Medicine examinou algoritmos de IA treinados em grandes conjuntos de dados de radiografias de tórax para pesquisas de imagens médicas e descobriu que esses algoritmos subdiagnosticavam sistematicamente pacientes negros e latinos, pacientes registrados como mulheres e pacientes com seguro Medicaid. Este preconceito sistemático corre o risco de aprofundar as disparidades de saúde para os pacientes que já enfrentam barreiras no acesso aos cuidados. mais um EstudarPublicado em 2024, descobriu que a IA levou a diagnósticos errados de rastreio do cancro da mama entre pacientes negros – os pacientes negros rastreados para o cancro da mama eram mais propensos a receber falsos positivos do que os seus homólogos brancos. Devido ao viés algorítmico, algumas ferramentas clínicas de IA tiveram um desempenho extremamente ruim em pacientes negros e outras pessoas de cor. Isto ocorre porque a IA não está “pensando” de forma independente; Baseia-se em probabilidades e no reconhecimento de padrões, o que pode reforçar o preconceito para pacientes já marginalizados.

Alguns pacientes nem sequer são informados de que o seu prestador de cuidados de saúde ou sistema de saúde está a utilizar IA. um assistente médico Relatado na revisão de tecnologia do MIT Seus pacientes sabem que o sistema de IA está ouvindo, mas ele não lhes diz que faz recomendações clínicas. É uma reminiscência de uma era de racismo médico explorador, em que experiências eram realizadas em pessoas negras sem consentimento informado e muitas vezes contra a sua vontade. A IA pode ajudar os profissionais de saúde, fornecendo-lhes informações mais rapidamente que podem ajudá-los a chegar ao próximo paciente? Possivelmente. Mas o problema é que isso pode custar a precisão do diagnóstico e agravar as disparidades de saúde.

E o impacto potencial vai além da precisão do diagnóstico. justiça tectônicaUm grupo de defesa que trabalha para proteger as comunidades economicamente marginalizadas dos danos da IA ​​publicou um relatório sem precedentes que estima 92 milhões de americanos As pessoas com baixos rendimentos “têm alguns aspectos básicos das suas vidas ditados pela IA”. Como essas decisões são tomadas? Quanto eles recebem do Medicaid e se são elegíveis para seguro de invalidez da Administração da Previdência Social.

Um exemplo real disso está acontecendo nos tribunais federais neste momento. Em 2023, um grupo de clientes do Medicare Advantage entrou com uma ação contra A UnitedHealthcare em Minnesota alegou que sua cobertura foi negada porque o sistema de IA da empresa, NH Predict, os considerou erroneamente inelegíveis. Alguns dos demandantes são ativos de clientes do Medicare Advantage; Esses pacientes teriam morrido como resultado da negação de cuidados médicos necessários. A UnitedHealth tentou encerrar o caso, mas em 2025, um juiz decidiu que os demandantes poderiam prosseguir com certas ações. tal foi o caso arquivado No tribunal federal de Kentucky contra Humana. Lá, os clientes do Medicare Advantage alegaram que o uso do NH Predict pela Humana “rejeita recomendações gerais baseadas em registros médicos incompletos e inadequados”. Esse caso também está em andamento, no qual um juiz decidiu que os argumentos jurídicos dos demandantes são suficientes para prosseguir, impedindo o pedido de rejeição da seguradora. Embora a decisão final de ambos os casos ainda esteja pendente, eles indicam a tendência crescente da IA ​​em decidir a cobertura de saúde das pessoas de baixos rendimentos e as suas desvantagens. Se você tiver recursos financeiros, poderá obter cuidados de saúde de qualidade. Mas se você não tem uma casa ou tem uma renda baixa, a IA também pode impedir você de ter acesso a cuidados de saúde. Isso é classismo médico.

Não devemos experimentar implementações de IA em pacientes que não têm casa ou têm baixos rendimentos. As perdas documentadas superam os benefícios potenciais e não comprovados prometidos por start-ups e outros empreendimentos tecnológicos. Dadas as barreiras que as pessoas que não têm casa e têm baixos rendimentos enfrentam, é importante que recebam cuidados centrados no paciente, com um prestador de cuidados de saúde humano que ouça as suas necessidades e preferências de saúde. Não podemos criar uma norma onde confiemos num sistema de saúde em que os profissionais de saúde são deixados para trás enquanto a IA – impulsionada por empresas privadas – permanece à frente. Um sistema de IA que “escuta” e é desenvolvido sem avaliação rigorosa pelas comunidades enfraquece os pacientes, removendo os seus direitos de tomada de decisão para determinar quais as tecnologias, incluindo a IA, que são implementadas nos seus cuidados de saúde.

  • Leah Goodridge é uma advogada que trabalha em litígios de prevenção de moradores de rua há 12 anos

  • Oni Blackstock, MD, MHS, é médico, fundador e diretor executivo da Health Justice, e Public Voices Fellow em Tecnologia de Interesse Público com o The OpEd Project.

Source link

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui