El impacto de la IA en la atención sanitaria ha aumentado significativamente, pero los sesgos en los algoritmos de la IA generan lagunas en la atención que estas herramientas deberían abordar. Los líderes de atención médica se ven obligados a sopesar tanto el incentivo financiero para lograr eficiencias operativas como las necesidades de los pacientes al decidir cómo brindar la mejor y más rentable atención posible.
Si bien existe una importante necesidad y oportunidad de abordar este gasto general con herramientas avanzadas de inteligencia artificial que predicen las necesidades del paciente y la probabilidad de reingreso, los sesgos intrínsecos en estos algoritmos en última instancia causan más daño que bien y los ahorros financieros se producen a expensas de la salud del paciente.
Contención de costos vs. necesidades del paciente
Muchos de estos sesgos están ligados a un conflicto central en la atención basada en valores: el impulso de contener los costos por encima de las necesidades de los pacientes individuales. Los modelos basados en el valor y los planes Medicare Advantage utilizan análisis predictivos para gestionar el gasto post-agudo. Los algoritmos procesan montañas de datos para determinar el plan de atención de un paciente, p. P.ej. cuántos días de rehabilitación “debería” necesitar un paciente típico o cuántas visitas de terapia domiciliaria son “suficientes”. Las aseguradoras promocionan esto como una medicina personalizada, pero yo a menudo veo una mentalidad única para todos. Las herramientas indican una duración óptima de la estancia hospitalaria o un nivel de rendimiento adaptado al paciente medio, pero esto a menudo no se corresponde con la realidad.
Los proveedores de primera línea a menudo experimentan estos conflictos y sienten que estos algoritmos de gestión de uso son como un instrumento contundente. Al trabajar con organizaciones de atención responsable (ACO) y hospitales, me he encontrado repetidamente con sistemas de autorización previa automatizados que niegan cosas como una semana adicional de atención médica domiciliaria o la compra de un dispositivo médico personalizado porque el paciente “no cumple con los criterios”. En un contrato basado en el valor existe presión para reducir beneficios que parecen estadísticamente excesivos, pero las enfermedades no siempre son promedio. Recuerdo a un sobreviviente de cáncer con complicaciones que excedió el número de visitas de terapia domiciliaria especificadas por el algoritmo. La lógica de contención de costes les habría impedido hacerlo; En cambio, nuestros coordinadores de atención lucharon para ampliar los servicios y evitar un reingreso al hospital potencialmente costoso. Desafortunadamente, no todos los pacientes tienen un defensor que anule el algoritmo. La atención basada en valores nunca debería significar negar atención cuando es legítimamente necesaria, pero sin una consideración cuidadosa, los algoritmos pueden cometer exactamente ese error en nombre de la “optimización”.
Decisiones opacas y desafíos en la coordinación de la atención
Para los pacientes y sus familiares, la falta de transparencia es uno de los aspectos más molestos. Cuando una fórmula de IA decide negar la cobertura del seguro, las personas que tienen que vivir con las consecuencias a menudo no tienen idea de por qué. Todo lo que reciben es una seca carta de denegación que a menudo parece igual, que contiene frases generales como “no es médicamente necesario” o “servicios que ya no se requieren” y pocos o ningún detalle sobre su caso específico. Por ejemplo, dos de nuestros pacientes en instalaciones separadas recibieron cartas indicando que un director médico había revisado su caso sin especificar nombre o especialidad y había llegado a la conclusión de que estaban listos para regresar a casa, pero ninguna de las cartas mencionaba las condiciones reales que hacían que su hogar fuera inseguro. Es como si la decisión se tomara en una caja negra y sólo saliera un juicio vagamente redactado. A menudo, el informe del algoritmo no se comparte en absoluto con los pacientes, lo que les deja adivinar el método de puntuación mientras se ejecuta silenciosamente en segundo plano, sin que los afectados lo vean ni lo revisen. Esta falta de transparencia hace que sea extremadamente difícil para las familias cuestionar o incluso comprender las negaciones.
La opacidad no sólo daña a los pacientes; Arroja arena en los engranajes de la coordinación de la atención. Los hospitales y centros de enfermería (SNF) luchan por planificar las transiciones cuando se producen reducciones de cobertura abruptas basadas en criterios ocultos. Esta incertidumbre da como resultado que los planificadores del alta no tengan un plan adecuado para los servicios posteriores al alta y que los SNF sean tomados por sorpresa por una aseguradora que suspende los pagos mientras un paciente aún necesita rehabilitación. Esto crea tensión entre proveedores y pagadores y pone a los pacientes en un tira y afloja. Los hospitales también tuvieron que luchar para retener a un paciente por más tiempo o encontrar financiación alternativa porque una denegación automática trastornó el plan de alta original. En muchos casos, los médicos y los equipos de atención del SNF están totalmente en desacuerdo con la decisión del algoritmo de cancelar la cobertura porque saben que el paciente no está preparado. El resultado puede ser altas apresuradas, transferencias apresuradas y un mayor riesgo de complicaciones o reingresos, precisamente cosas que una buena atención de transición está diseñada para prevenir. Estas decisiones de cobertura basadas en inteligencia artificial, cuando se mantienen en secreto, socavan la confianza y la coordinación. Los proveedores se ven obligados a perder el tiempo en apelaciones y soluciones alternativas en lugar de atender a los pacientes. Las familias a menudo se quedan a oscuras hasta que de repente se enfrentan al rechazo y luchan por organizar ellos mismos la atención. La transparencia no es un lujo aquí; Es necesaria una atención segura y coordinada.
Crear equidad y transparencia en las decisiones de atención algorítmica
La optimización de costos es importante en todos los niveles de atención y es un componente central de los programas de atención basados en el valor. Sin embargo, esto no debe ocurrir a expensas de los pacientes. Más allá de la regulación, los desarrolladores de algoritmos y las organizaciones de atención médica deben redoblar sus esfuerzos para probar estas herramientas en busca de sesgos antes de que se implementen por completo. Esto incluye examinar los resultados por raza, género y código postal, entre otras cosas, y corregir cualquier error que ocurra. La transparencia también es una gran parte del rompecabezas. Las aseguradoras no están obligadas a publicar fórmulas patentadas, pero sí deben revelar los criterios utilizados para aprobar o denegar servicios posagudos. Los pacientes y proveedores merecen saber si las decisiones se basan en evidencia clínica, proyecciones de costos o un algoritmo de IA. Además, los hospitales y los SNF no deben ignorar cuánto tiempo se espera que esté cubierta la atención posaguda de un paciente. Incluso si se utiliza un algoritmo, sus predicciones deben compartirse para que todos puedan planificar adecuadamente e informar sus inquietudes con anticipación si la predicción es incorrecta. Cuando se trata de coordinación de la atención, una mayor comunicación es fundamental.
Los algoritmos de IA son herramientas y, aunque están diseñados por humanos y pueden programarse para adaptarse a las prioridades de la empresa, rara vez proporcionan una imagen completa. A medida que estas herramientas continúan evolucionando, los líderes de atención médica siempre deben poner al paciente en primer lugar. Esto significa que se deben mantener controles humanos para garantizar que los pacientes sigan recibiendo la atención que necesitan. En última instancia, las personas no sólo tienen más conocimiento situacional que la tecnología, sino que también tienen más empatía y comprensión para tomar mejores decisiones que estas herramientas.
Foto: J Studios, Getty Images
El Dr. Afzal es un visionario de la innovación en la atención médica y ha dedicado más de una década al avance de modelos de atención basados en valores. Como cofundador y director ejecutivo de rompecabezas de atención médicaDirige una firma reconocida a nivel nacional que se especializa en la coordinación de cuidados post-agudos y la reducción de reingresos hospitalarios. Bajo su liderazgo, Puzzle Healthcare ha recibido elogios de varios de los principales sistemas de salud y ACO del país por sus excepcionales resultados para los pacientes, su mejor prestación de atención médica y su reducción efectiva de las tasas de reingreso.
Este artículo aparece en el Influencer de MedCity Programa. A través de MedCity Influencer, cualquiera puede publicar sus puntos de vista sobre negocios e innovación en la atención médica en MedCity News. Haga clic aquí para descubrir cómo.


















