Por MATTHEW PERRONE, Associated Press
WASHINGTON – Con cientos de millones de personas recurriendo a los chatbots en busca de consejo, era solo cuestión de tiempo antes de que las empresas de tecnología ofrecieran programas específicamente diseñados para responder preguntas sobre salud.
En enero, OpenAI presentó ChatGPT Health, una nueva versión de su chatbot que, según la compañía, puede analizar los registros médicos de los usuarios, las aplicaciones de bienestar y los datos de los dispositivos portátiles para responder preguntas médicas y de salud. Actualmente hay una lista de espera para el programa. Anthropic, una empresa rival de inteligencia artificial, ofrece una funcionalidad similar a algunos usuarios de su chatbot Claude.
Ambas compañías dicen que sus programas, conocidos como Modelos de Lenguaje Grande, no sustituyen la atención profesional y no deben usarse para diagnosticar ninguna condición médica. En cambio, los chatbots pueden resumir y explicar resultados de pruebas complicadas, ayudar a prepararse para una visita al médico o analizar tendencias de salud importantes ocultas en registros médicos y métricas de aplicaciones.
Aquí hay algunas cosas que debe considerar antes de hablar con un chatbot sobre su salud:
Los chatbots pueden proporcionar información más personalizada que una búsqueda en Google
Algunos médicos e investigadores que han trabajado con ChatGPT Health y programas similares ven esto como una mejora con respecto al status quo.
Las plataformas de IA no son perfectas (a veces pueden alucinar o dar malos consejos), pero es más probable que la información que producen sea personalizada y específica que la que los pacientes podrían encontrar a través de una búsqueda en Google.
“A menudo la alternativa es no hacer nada o que el paciente elija hacerlo”, afirmó el Dr. Robert Wachter, experto en tecnología médica de la Universidad de California en San Francisco. “Y es por eso que creo que se puede obtener información útil si se utilizan estas herramientas de manera responsable”.
Una ventaja de los chatbots más recientes es que responden a las preguntas de los usuarios con el contexto de su historial médico, incluidas recetas, edad y notas del médico.
Incluso si no le ha dado a la IA acceso a su información médica, Wachter y otros recomiendan brindar a los chatbots tantos detalles como sea posible para mejorar las respuestas.
Si tiene síntomas preocupantes, omita la IA
Wachter y otros enfatizan que hay situaciones en las que las personas deberían omitir el chatbot y buscar atención médica de inmediato. Síntomas como dificultad para respirar, dolor en el pecho o dolor de cabeza intenso pueden indicar una emergencia médica.
Incluso en situaciones menos urgentes, los pacientes y los médicos deberían abordar los programas de IA con “un nivel de saludable escepticismo”, dijo el Dr. Lloyd Minor de la Universidad de Stanford.
“Cuando se habla de una decisión médica importante o incluso de una decisión menor sobre su salud, nunca se debe confiar únicamente en lo que se obtiene de un modelo de lenguaje amplio”, dijo Minor, decano de la facultad de medicina de Stanford.
Considere su privacidad antes de cargar información de salud
Muchos de los beneficios que ofrecen los robots de IA provienen de que los usuarios comparten información médica personal. Sin embargo, es importante comprender que todo lo que se comparte con una empresa de inteligencia artificial no está protegido por la ley federal de privacidad, que normalmente rige la información médica confidencial.
La ley, comúnmente conocida como HIPAA, impone multas e incluso penas de prisión a médicos, hospitales, aseguradoras u otros proveedores de atención médica que revelen registros médicos. Sin embargo, la ley no se aplica a las empresas que desarrollan chatbots.
“Si alguien carga su historial médico en un modelo de lenguaje grande, es muy diferente a entregárselo a un nuevo médico”, dijo Minor. “Los consumidores deben comprender que existen estándares de protección de datos completamente diferentes”.
Tanto OpenAI como Anthropic dicen que la información de salud de los usuarios se mantiene separada de otros tipos de datos y está sujeta a protecciones de privacidad adicionales. Las empresas no utilizan datos de salud para entrenar sus modelos. Los usuarios deben aceptar compartir su información y pueden desconectarse en cualquier momento.
Las pruebas muestran que los chatbots pueden tropezar
A pesar del entusiasmo por la IA, las pruebas independientes de la tecnología aún están en sus primeras etapas. Los primeros estudios sugieren que programas como ChatGPT pueden funcionar en exámenes médicos de alto nivel, pero a menudo fallan al interactuar con personas.
Un estudio de la Universidad de Oxford con 1.300 participantes encontró recientemente que las personas que usaban chatbots de inteligencia artificial para investigar condiciones de salud hipotéticas no tomaban mejores decisiones que las personas que usaban búsquedas en línea o juicios en persona.
Los chatbots de IA presentados con escenarios médicos en forma escrita e integral identificaron correctamente la condición subyacente el 95% de las veces.
“Ese no era el problema”, dijo el autor principal Adam Mahdi del Oxford Internet Institute. “El punto donde las cosas se desmoronaron fue durante la interacción con los participantes reales”.
Mahdi y su equipo descubrieron varios problemas de comunicación. Muchas veces las personas no daban a los chatbots la información necesaria para identificar correctamente el problema de salud. Por el contrario, los sistemas de inteligencia artificial a menudo respondían con una combinación de información buena y mala, y los usuarios tenían dificultades para distinguir entre ambas.
El estudio, realizado en 2024, no aprovechó las últimas versiones de chatbot, incluidas nuevas ofertas como ChatGPT Health.
Una segunda opinión de IA puede resultar útil
La capacidad de los chatbots para hacer preguntas de seguimiento y obtener detalles importantes de los usuarios es un área en la que Wachter ve margen de mejora.
“Creo que será realmente bueno cuando las herramientas se vuelvan un poco más médicas en la forma en que van y vienen con los pacientes”, dijo Wachter.
Actualmente, una forma de sentirse más seguro acerca de la información que recibe es consultar varios chatbots, similar a obtener una segunda opinión de otro médico.
“A veces pongo información en ChatGPT e información en Gemini”, dijo Wachter, refiriéndose a la herramienta de inteligencia artificial de Google. “Y si ambos están de acuerdo, me siento un poco más seguro de que esa es la respuesta correcta”.
___
El Departamento de Salud y Ciencia de Associated Press recibe el apoyo del Departamento de Educación Científica del Instituto Médico Howard Hughes y de la Fundación Robert Wood Johnson. La AP es la única responsable de todo el contenido.
















