Los sistemas de tareas específicos de las tareas, las funciones con poca o ninguna intervención humana en el mundo de la atención médica. La industria está bajo una presión masiva para reducir los costos sin afectar la calidad de la atención, y el experto en tecnología de la salud cree que el Ki -Ki podría ser una solución escalable que pueda ayudar con este objetivo tedioso.
Sin embargo, esta categoría de IA tiene un mayor riesgo que el de los predecesores de IA como abogado de seguridad cibernética y protección de datos.
Lily Li, fundadora del bufete de abogados Ley metainveriaSe descubrió que los sistemas de agentes -KI están diseñados por definición de tal manera que las acciones se tratan en nombre de un consumidor u organización, y esto elimina a las personas del circuito para decisiones o tareas potencialmente importantes.
“Si hay alucinaciones o errores en la salida o distorsión de los datos de entrenamiento, este error tiene un impacto real”, dijo.
Por ejemplo, un agente de KI puede ser falsos o cumplidos incorrectamente errores, como rellenar una receta, que el departamento de emergencias está mal manejado, lo que puede provocar lesiones o incluso la muerte.
Estos escenarios hipotéticos brindan una luz sobre el área gris que surge cuando se rechaza la responsabilidad de los proveedores con licencia.
“Incluso en situaciones en las que el representante de IA tome la decisión médica del” derecho “, pero un paciente no responde bien al tratamiento, no está claro si el seguro existente por mala conducta médica cubriría las afirmaciones si no hubiera un médico con licencia”, comentó a la izquierda.
Señaló que los ejecutivos de atención médica operan en un área compleja. Es de la opinión de que la compañía tiene que enfrentar los riesgos potenciales de la IA del agente, pero solo en la medida en que estos instrumentos tienen que contribuir a muertes excesivas o mayores daños a un médico humano similar.
Li también señaló que el cibercrimen podría usar los sistemas agentes -KI para comenzar nuevos tipos de ataques.
Para evitar estos peligros, las organizaciones de salud deben incluir riesgos específicos de agente-ki en sus modelos y directrices de evaluación de riesgos.
“Las organizaciones de salud primero deben verificar la calidad de los datos subyacentes para eliminar los errores y distorsiones existentes en la codificación, la facturación y la toma de decisiones que fluyen en lo que el modelo aprende. Luego asegúrese de que los tipos de medidas que puedan sufrir la IA estén presentes.
También pidió a las compañías de IA que utilizaran protocolos de comunicación estándar en sus agentes de IA que permiten las pruebas de cifrado e identidad para evitar el uso malicioso de estas herramientas.
En LIS Eyes, el futuro de los agentes: Ki en la atención médica puede depender menos de sus habilidades técnicas y de qué tan bien la industria puede acumular confianza y responsabilidad al usar estos modelos.
Foto: Weiiquan Lin, Getty Images