Home Salud La IA decide quién recibe atención: sesgo algorítmico en las decisiones de...

La IA decide quién recibe atención: sesgo algorítmico en las decisiones de atención posaguda

51
0

Las herramientas de toma de decisiones impulsadas por la IA determinan cada vez más qué servicios de atención posaguda reciben los pacientes y cuáles no. Como director ejecutivo de tecnología de la salud que trabaja con hospitales, centros de enfermería especializada (SNF) y organizaciones de atención responsable (ACO) en todo el país, he visto algoritmos que desalientan los servicios necesarios de maneras que generan señales de alerta. En un caso sorprendente, el software de una aseguradora predijo que un paciente de 85 años se recuperaría de una lesión grave en exactamente 16,6 días. El día 17, su pago de rehabilitación en un asilo de ancianos fue cancelado a pesar de que todavía tenía dolor y no podía vestirse ni caminar por sí misma. Más tarde, un juez calificó la decisión de “especulativa”, pero para entonces ella había agotado sus ahorros para pagar la atención que debería haber recibido. Lamentablemente, este ejemplo no es un caso aislado. Destaca cómo el sesgo algorítmico y la automatización rígida pueden introducirse en las reglas de cobertura para asistentes de salud en el hogar, dispositivos médicos, estadías en rehabilitación y atención de relevo.

Los investigadores han descubierto que algunos Los algoritmos sanitarios reproducen inadvertidamente los prejuicios humanos. Un programa ampliamente utilizado Se ha demostrado que la identificación de pacientes de alto riesgo favorece sistemáticamente a los pacientes blancos menos enfermos frente a los pacientes negros más enfermos porque el gasto en atención médica se utiliza como indicador de necesidad. Se gastan menos dólares en pacientes negros con las mismas condiciones, por lo que el algoritmo subestimó su riesgo y efectivamente negó a muchos pacientes negros el acceso a atención adicional hasta que se descubrió el sesgo. Este tipo de sesgo puede conducir fácilmente a aprobaciones de cobertura sesgadas cuando los algoritmos se basan en datos demográficos o socioeconómicos.

He observado herramientas de seguros basadas en inteligencia artificial que tienen en cuenta variables no clínicas como la edad, el código postal o la “situación de vida” del paciente, lo que puede resultar problemático. Incorporar determinantes sociales en los algoritmos es un arma de doble filo: en teoría, podría mejorar la atención, pero los expertos advierten que a menudo reproduce desigualdades. Por ejemplo, el uso de códigos postales o datos de ingresos puede afectar el acceso a los servicios para los pacientes más pobres si no se maneja con cuidado. En la práctica, he visto pacientes de vecindarios desatendidos a los que se les ha aprobado menos horas de atención médica domiciliaria, como si el software asumiera que esas comunidades podrían arreglárselas con menos. Puede que el sesgo no sea intencional, pero cuando el diseño o los datos de un algoritmo reflejan desigualdades sistémicas, los grupos vulnerables pagan el precio.

Supuestos incorrectos en la planificación del alta

Otra forma sutil de sesgo surge de suposiciones erróneas incorporadas en las herramientas de planificación del alta. Algunos sistemas de gestión de casos hospitalarios utilizan ahora predicciones de IA para recomendar planes de atención posteriores al alta, pero no siempre tienen en cuenta el factor humano.

Un problema común en la planificación del alta, la atención de relevo y las decisiones sobre dispositivos médicos basados ​​en IA son los algoritmos que hacen suposiciones sobre la atención familiar o el apoyo adicional. En teoría, saber que un paciente tiene familiares en casa debería ayudar a garantizar su apoyo. Sin embargo, estos sistemas no saben si un familiar puede o está dispuesto a brindar atención. Tuvimos un caso en el que el software de alta marcó a un paciente anciano con accidente cerebrovascular como de bajo riesgo porque vivía con un hijo adulto, lo que significaba que alguien estaría ayudando en casa. Lo que el algoritmo no sabía era que el hijo tenía dos trabajos y no estaba en casa la mayoría de los días. La herramienta casi envió al paciente a casa con una atención médica domiciliaria mínima, lo que podría haber terminado en un desastre o en una visita de emergencia al hospital si nuestro equipo no hubiera intervenido. Esto ya no es sólo una hipótesis, sino una realidad. Tenga cuidado con las pautas de atención federales Nunca asuma que un miembro de la familia presente en el hospital será el cuidador en casa. Pero la IA pasa por alto este matiz.

Estas herramientas carecen del contexto humano de la dinámica familiar y de una comprensión de la diferencia entre un cuidador dispuesto y capaz y una persona ausente, anciana o abrumada. Un médico puede reconocer esta diferencia; Una computadora a menudo no haría eso. El resultado es que algunos pacientes terminan por no recibir los servicios que realmente necesitan.

Pasos para solucionar errores de mantenimiento algorítmico

Con tecnología avanzada implementada en todo el proceso de atención médica un ritmo aceleradoCuando se utiliza en cuidados intensivos posagudos, es probable que se produzcan errores como los que mencioné anteriormente. La diferencia es que el impacto de estos errores se siente más agudamente entre las poblaciones de pacientes vulnerables y diversas que ya enfrentan desafíos importantes, particularmente en nuestros entornos de cuidados críticos. Los pacientes no blancos a menudo se encuentran en una situación mayor riesgo de reingresos hospitalarioscon un Aumento adicional del riesgo debido a los bajos ingresos y la falta de seguro.

El lado positivo es que la industria de la salud está empezando a abordar estos problemas. Arrojar luz sobre las soluciones de IA opacas y sesgadas ha generado llamados al cambio y algunos pasos concretos hacia adelante. Por un lado, los reguladores han comenzado a intervenir. Los Centros de Servicios de Medicare y Medicaid hicieron recientemente una propuesta nuevas reglas Restricción del uso de algoritmos de caja negra en las decisiones de cobertura de Medicare Advantage. Si se adopta, a partir del próximo año las aseguradoras tendrán que garantizar que las herramientas predictivas tengan en cuenta las circunstancias individuales de cada paciente, en lugar de aplicar ciegamente una fórmula genérica. Los médicos calificados también deben revisar las denegaciones recomendadas por AI para asegurarse de que coincidan con la realidad médica. Estas medidas políticas propuestas reflejan lo que los expertos en primera línea han defendido: que los algoritmos deben respaldar, no anular, el buen juicio clínico. Este es un paso bienvenido hacia el cambio y la rectificación de los errores cometidos hasta ahora, aunque su aplicación será crucial. Podemos y debemos hacer más para garantizar que nuestras nuevas herramientas inteligentes realmente vean al individuo, haciéndolo tan transparente, imparcial y compasivo como los cuidadores que queremos para nuestras propias familias. En última instancia, rediseñar la atención de seguimiento con IA debería tener como objetivo mejorar los resultados y la equidad, no ahorrar dinero a expensas de los pacientes vulnerables.

Foto: ismagilov, Getty Images


El Dr. Afzal es un visionario de la innovación en la atención médica y ha dedicado más de una década al avance de modelos de atención basados ​​en valores. Como cofundador y director ejecutivo de rompecabezas de atención médicaDirige una firma reconocida a nivel nacional que se especializa en la coordinación de cuidados post-agudos y la reducción de reingresos hospitalarios. Bajo su liderazgo, Puzzle Healthcare ha recibido elogios de varios de los principales sistemas de salud y ACO del país por sus resultados excepcionales para los pacientes, la mejora de la prestación de atención médica y la reducción efectiva de las tasas de reingreso.

Este artículo aparece en el Influencer de MedCity Programa. A través de MedCity Influencer, cualquiera puede publicar sus puntos de vista sobre negocios e innovación en la atención médica en MedCity News. Haga clic aquí para descubrir cómo.

Enlace de origen