Las alucinaciones son preocupaciones comunes en las conversaciones sobre la IA en la atención médica. Pero, ¿qué significan realmente en la práctica? Este fue el tema de discusión durante un cuerpo que tuvo lugar la semana pasada la semana pasada. Conferencia de salud digital de Medcity Invest en Dallas.
Según Soumi Saha, vicepresidente senior de asuntos del gobierno en Premier Inc. y moderador de la sesión, las hallucinaciones de IA son cuando la IA usa “su imaginación”, que a veces puede violar a los pacientes porque pueden proporcionar información incorrecta.
Uno de los participantes de la discusión, Jennifer Goldsack, fundadora y CEO de la Sociedad de Medicina Digital, describió las hallucinaciones de AI como la “tecnología -equivalente de la mierda”. Randi Seigel, socio de Manatt, Phelps & Phillips, lo definió cuando AI hace algo, “pero parece que es un hecho, por lo que no quieres cuestionarlo”. Finalmente, Gigi Yuen, el jefe de datos y el oficial de KI dijo que cohere la salud, las alucinaciones cuando la IA “no está basada” y “no modesta”.
¿Pero son las alucinaciones siempre malas? Saha hizo esta pregunta a los participantes de la discusión y se preguntó si la alucinación podría ayudar a las personas a “identificar una brecha potencial en los datos o una brecha en la investigación”, lo que muestra que tienen que hacer más.
Yuen dijo que las alucinaciones son malas si el usuario no sabe que la IA está alucinando.
“Sin embargo, estaré muy feliz de tener una lluvia de ideas con mi bot de chat de IA cuando esté dispuesto a compartir lo cómodo que estás con lo que dices”, notó.
Goldsack puso las alucinaciones de IA en los estudios clínicos que los datos faltantes pueden decirle algo a los investigadores. Por ejemplo, si se llevan a cabo estudios clínicos sobre salud mental, los datos faltantes pueden ser una señal de que alguien corta realmente bien porque “vive su vida” en lugar de registrar sus síntomas todos los días. Sin embargo, la industria de la salud a menudo usa el lenguaje de la deuda cuando faltan datos y explica que hay una falta de pacientes en lugar de pensar en lo que realmente significan los datos faltantes.
Agregó que la industria de la salud tiende a dar muchos “juicios de valor a la tecnología”, pero la tecnología no tiene “valor de valores”. Cuando la industria de la salud experimenta alucinaciones con IA, depende de las personas tener curiosidad por qué hay alucinación y utiliza un pensamiento crítico.
“Si no podemos poner estas herramientas en funcionamiento para nosotros mismos, no me estará claro en el futuro cómo tenemos un sistema de salud sostenible”, dijo Goldsack. “Creo que somos responsables de ser curiosos y buscar tales cosas y pensar en cómo comparamos otros marcos legales y, en contraste con otras condiciones legales, al menos como punto de partida”.
Seigel von Manatt, Phelps & Phillips ahora enfatizó la importancia del impulso de la IA en el plan de estudios para los medios de comunicación y los estudiantes de enfermería, incluida la comprensión y la posición de las preguntas.
“Ciertamente no será suficiente hacer clic en un curso en su capacitación anual en la que pase tres horas para decirle cómo entrenar en AI. Creo que tiene que ser iterativo, y no solo algo que se enseña una vez y luego parte de un curso de actualización que puede hacer clic durante la otra capacitación anual”, dijo.



















