Las organizaciones sanitarias están utilizando la IA más que nunca, pero quedan muchas preguntas cuando se trata de garantizar el uso seguro y responsable de estos modelos. Los líderes de la industria todavía están trabajando para descubrir la mejor manera de abordar las preocupaciones sobre el sesgo algorítmico, así como la responsabilidad si una recomendación de IA es incorrecta.
mientras un Mesa redonda mes pasado Noticias de Medcity” Invierta la conferencia de salud digital En Dallas, los líderes de la atención médica discutieron cómo abordan los marcos de gobernanza para mitigar los prejuicios y los daños no deseados. Creen que las piezas clave son la responsabilidad de los proveedores, un mejor cumplimiento normativo y la participación de los médicos.
Rubén Amarasingham – CEO de Piezas de tecnologías Una startup de IA sanitaria adquirida por Smarter Technologies la semana pasada descubrió que, si bien los sistemas integrados pueden ayudar a frenar el sesgo en la IA, uno de los riesgos más insidiosos es el sesgo de automatización, que se refiere a la tendencia de los humanos a superar las recomendaciones generadas por máquinas.
“Uno de los mayores ejemplos en la industria de consumo comercial son los mapas GPS. Una vez que se introducen, al estudiar el rendimiento cognitivo, las personas pierden conocimiento espacial y memoria espacial en ciudades con las que no están familiarizadas.
El sesgo de automatización puede conducir a la “muerte” o a la erosión gradual de la experiencia humana de los médicos, añadió. Él lo señaló Investigación Desde Polonia, publicado en agosto, mostró que los gastroenterólogos estaban utilizando herramientas de inteligencia artificial para volverse menos hábiles en la identificación de pólipos.
Amarasingham cree que los proveedores tienen la responsabilidad de monitorear el sesgo de automatización analizando el comportamiento de sus usuarios.
“Una de las cosas que hacemos con nuestros clientes es observar la tasa de adopción de las recomendaciones. ¿Hay patrones que sugieran que no hay una consideración real para adoptar la recomendación de IA? Aunque quisiéramos ver una tasa de adopción del 100%, eso probablemente no sea lo ideal; no es lo ideal, no depende de la calidad del pensamiento”, explicó.
Alya Sulaiman, directora de cumplimiento y privacidad de la plataforma de datos sanitarios Datavant, estuvo de acuerdo con Amarasingham y dijo que hay razones legítimas para preocuparse de que el personal sanitario pueda confiar ciegamente en las recomendaciones de la IA o utilizar sistemas que funcionen eficazmente en piloto automático. Señaló que esto ha llevado a numerosas leyes estatales que imponen requisitos regulatorios y de gobernanza para la IA, incluidos avisos, consentimiento y sólidos programas de evaluación de riesgos.
Sulaiman recomendó que las organizaciones de atención médica definan claramente cómo es el éxito de una herramienta de IA, cómo podría fallar y quién podría salir perjudicado, lo que puede ser una tarea engañosamente difícil porque las partes interesadas a menudo tienen perspectivas diferentes.
“Una cosa que creo que seguiremos viendo evolucionar como panorama federal y en este frente es un cambio hacia una regulación y elaboración de reglas específicas para casos de uso, porque existe un reconocimiento general de que un enfoque único para todos no funciona”, explicó.
Por ejemplo, podríamos estar mejor si los chatbots, las herramientas de gestión de uso y los modelos de apoyo a las decisiones clínicas tuvieran sus propios principios rectores únicos, explicó Sulaiman.
También enfatizó que incluso las herramientas administrativas de inteligencia artificial pueden causar daños cuando ocurren errores. Por ejemplo, si un sistema de inteligencia artificial activa incorrectamente registros médicos, podría enviar información confidencial de un paciente al destinatario equivocado. Si un modelo de IA procesa incorrectamente la información del seguro de un paciente, podría provocar retrasos en la atención o errores de facturación.
Si bien los casos de uso de IA clínica suelen atraer la mayor atención, Sulaiman enfatizó que las organizaciones de atención médica también deberían desarrollar marcos de gobernanza para las herramientas administrativas de IA, que están evolucionando rápidamente en un vacío regulatorio.
Más allá de las responsabilidades regulatorias y de proveedores, los factores humanos (como la educación, la creación de confianza y la gobernanza colaborativa) son fundamentales para garantizar que la IA se utilice de manera responsable, afirmó Theresa McDonnell, directora ejecutiva del Sistema de Salud de la Universidad de Duke.
“La forma en que involucramos a los pacientes y al personal es a través de la educación y siendo transparentes. Cuando las personas tienen preguntas, cuando tienen inquietudes, lleva tiempo. Tienen que hacer una pausa.
Todos los panelistas coincidieron en que la supervisión, la transparencia y el compromiso son fundamentales para la adopción segura de la IA.
Foto: Noticias de Medcity