Las herramientas disponibles para los médicos en la “bolsa negra del médico” han cambiado poco en más de un siglo. Hace veinte años, mis colegas y yo publicamos un artículo abogando por que los médicos tuvieran una máquina de ultrasonido portátil (no mucho más grande que un teléfono inteligente) en la sala de examen. Y durante las últimas dos décadas, muchos médicos han comenzado a utilizar un ultrasonido portátil, no para reemplazar un estetoscopio, sino para proporcionar de manera rápida y precisa información que no se puede obtener mediante una evaluación clínica sin asistencia únicamente. Esto nos ha convertido en mejores médicos, y aquí está la clave: les da a los médicos más tiempo para conocer al paciente como persona, de modo que la evidencia médica pueda adaptarse a las necesidades únicas del individuo que tenemos ante nosotros.
Ahora es el momento de que el bolso negro del médico reciba otra actualización: herramientas de apoyo a la toma de decisiones de inteligencia artificial (IA). Cuando se diseña de manera responsable, la IA puede ser una herramienta poderosa que brinda acceso instantáneo a información seleccionada por expertos. Esto permite a los médicos tomar decisiones más informadas sin sacrificar la conexión vital entre humanos.
El caso del apoyo a las decisiones clínicas de la IA
Dado el notable aumento de artículos médicos publicados en los últimos años, los médicos deben poder obtener rápidamente un apoyo confiable para la toma de decisiones clínicas en el lugar de atención. Hasta hace poco, la mayoría de los médicos dependían de plataformas de información que ofrecían contenido en forma de prosa densa que no era fácilmente utilizable junto a la cama. Afortunadamente, las herramientas de inteligencia artificial ahora brindan información mucho más rápidamente.
Sin embargo, cuando se trata de atención médica, no podemos sacrificar la precisión y la confiabilidad por la velocidad. Dados los altos riesgos en la sala de examen, no sorprende que la mayor preocupación de los médicos y pacientes acerca de la IA sea la confianza. Debemos insistir en que la herramienta de IA utilizada para respaldar las decisiones clínicas recupere datos cuya calidad haya sido revisada cuidadosamente por expertos en evaluación y revisión de evidencia y por médicos experimentados.
¿Cómo se sentiría si la próxima vez que abordara un avión escuchara a la azafata anunciar que su vuelo está siendo pilotado por un piloto de IA que tiene entre un 90% y un 95% de precisión? Dadas las consecuencias de cometer un error, este nivel de precisión simplemente no es suficiente. No es lo suficientemente bueno para la cabina ni para la sala de examen.
Resulta que algunos médicos están utilizando herramientas generales de inteligencia artificial como ChatGPT para respaldar la atención al paciente. Y si bien ChatGPT es excelente para planificar un viaje o encontrar recetas, la idea de que pueda ayudar a su médico debería asustarlo. De hecho, Informes muestran que la mayoría (85%) de los ejecutivos de atención médica han investigado o ya han adoptado capacidades de IA generativa. Francamente, en una profesión donde la vida o la muerte a menudo están en juego, esto es preocupante, ya que confiar en información no confirmada de esta tecnología es francamente peligroso.
Barandillas para una IA confiable
Volviendo al dispositivo de ultrasonido portátil, su utilidad se basa en su capacidad de proporcionar imágenes fiables, fiables y precisas en el punto de atención, en cualquier momento y de forma rápida. La utilidad de las herramientas de apoyo a las decisiones clínicas de IA se basa igualmente en su capacidad para proporcionar información fiable, fiable y precisa en el lugar de atención, en cualquier momento y rápidamente. Para lograrlo, la IA debe construirse con pautas claras. Esto se reduce a dos prácticas clave: verificación y transparencia e integración y supervisión seguras.
En primer lugar, la verificación y la transparencia no son negociables. Los modelos de IA de uso general se entrenan con grandes cantidades de datos sin filtrar de Internet. Esto implica inevitablemente una mezcla confusa de realidad y ficción, lo que la convierte en una fuente riesgosa de información médica. La IA médica debe ser fundamentalmente diferente. Sus modelos deben entrenarse únicamente con datos e investigaciones clínicas verificadas y basadas en evidencia para garantizar que la información sea precisa y esté libre de interferencias con la Internet pública. Además, la IA debe ser transparente sobre cómo llega a sus recomendaciones. Esta transparencia es necesaria para generar confianza tanto con los médicos como con los pacientes, ya que permite que todos comprendan los motivos de una recomendación e identifiquen posibles errores.
En segundo lugar, se requiere una integración y supervisión seguras. La IA no debería actuar como un agente autónomo; Debe ser una herramienta de apoyo que se adapte perfectamente a los flujos de trabajo clínicos existentes. Esto significa que, para que sea verdaderamente útil, debe complementar la rutina del médico, no complicarla. Y, lo más importante, debe ser monitoreado de cerca por humanos a través del llamado modelo humano en el circuito, que es crucial para abordar escenarios complejos o casos extremos en los que la tecnología podría fallar. Sin embargo, la IA médica no requiere ningún “humano al tanto”; Se necesitan expertos en la evaluación y clasificación de la evidencia científica y médica, así como médicos experimentados y actualizados.
¿Cómo puede la IA restaurar la atención sanitaria a la humanidad?
A medida que se pide a los médicos que hagan más con menos, las visitas de atención médica se han vuelto menos personales y más transaccionales. Los pacientes no se sienten reconocidos como individuos y, si los médicos no conocen a sus pacientes, no pueden adaptar el tratamiento a sus necesidades individuales. La IA (la IA adecuada) como herramienta en el maletín negro del médico, puede proporcionar información fiable y digna de confianza para respaldar la toma de decisiones clínicas. La IA puede reducir el tiempo que tardan los médicos en obtener información y documentarla en el historial médico. Esto les permite conocer a sus pacientes como personas y añadir un toque humano a la práctica médica.
Imagen: usuaria de Flickr Eva Blue
Dr. Roy Ziegelstein, editor en jefe, DynaMed Tiene más de 30 años de experiencia en educación médica y atención médica. Llegó a Johns Hopkins en 1986 después de recibir su doctorado en medicina en la Universidad de Boston. Completó su residencia en medicina interna y su residencia en jefe en Osler Medical Service y su beca de cardiología en la Facultad de Medicina de Johns Hopkins antes de unirse a la facultad allí en 1993. Ha ocupado numerosos puestos de liderazgo, incluido el de Director del Programa de Residencia en Medicina Interna, vicepresidente y vicepresidente de Humanismo en el Departamento de Medicina del Centro Médico Johns Hopkins Bayview. Desde 2013, se desempeña como vicedecano de educación en la Facultad de Medicina de la Universidad Johns Hopkins. Como educador dedicado y codirector de la Iniciativa Aliki para la atención centrada en el paciente, el Dr. Ziegelstein ha recibido numerosos premios por sus destacados logros docentes y es un experto reconocido internacionalmente en la conexión entre la depresión y las enfermedades cardiovasculares.
Este artículo aparece en el Influencer de MedCity Programa. A través de MedCity Influencer, cualquiera puede publicar sus puntos de vista sobre negocios e innovación en la atención médica en MedCity News. Haga clic aquí para descubrir cómo.

















