En uno reciente Opinión Publicado por The Hill, el Dr. John Whyte y Margaret Lozovatsky atraen al actual gobierno de los Estados Unidos del gobierno de los Estados Unidos Plan de acción de AI Como un primer paso emocionante para generar confianza en la IA de la atención médica.
Afirman que el plan “se da cuenta del establecimiento de la confianza pública y profesional en la tecnología de IA a través de la tradición transparente y ética (sic) y la aceleración de los estándares nacionales de seguridad, rendimiento e interoperabilidad.
Para ser claros, la IA es prometedora para la atención médica. Y hay aspectos del plan que vale la pena alabar cómo acelerar las innovaciones de IA en relación con las opciones de diagnóstico y tratamiento, expansión de asociaciones público-privadas y énfasis en la interoperabilidad. Sin embargo, estas ventajas se ven eclipsadas por tres preocupaciones importantes que influyen desproporcionadamente si el plan se implementa tal como está escrito.
Riesgos de protección de datos de archivos de salud uniformes
Un gran argumento de ventas del plan de campaña de la IA es implementar un sistema de aplicación de datos con el que los pacientes son más fáciles de compartir información de salud personal (PHI) con los proveedores. El compromiso es que las grandes compañías de tecnología tienen acceso a detalles que anteriormente solo se compartían con pacientes, proveedores y compañías de seguros.
Este cambio crea riesgos al centralizar grandes cantidades de datos médicos confidenciales, como diagnósticos, recetas y resultados de laboratorio en sistemas que se vuelven atractivos para destinos atractivos. A diferencia de las violaciones aisladas de las prácticas individuales, un compromiso de los registros uniformes podría descubrir simultáneamente millones de los datos más sensibles en los pacientes más sensibles.
Los pacientes que confían en proveedores con menos recursos de seguridad cibernética, como los centros de salud en la comunidad, se ven más afectados por estos riesgos. Estos pacientes también tienden a ser más bajos formado digitalmente Y tienen mayores consecuencias de la discriminación de la salud, como el empleo o la negativa al seguro, después de las violaciones de la salud mental o los datos genéticos.
Según lo escrito, el plan ofrece solo unas pocas precauciones de seguridad que van más allá de las regulaciones existentes que no fueron diseñadas en esta escala para los sistemas de datos de salud controlados por IA. Sin estándares de cifrado más fuertes, los horarios de lesiones obligatorias y medidas de protección explícitas para PHI, la comodidad del intercambio de datos es un riesgo inaceptable de la privacidad del paciente.
Estándares y castigos vagos
La gobernanza efectiva de la IA requiere estándares regulatorios claros y robustos. En mi opinión, un marco federal uniforme para la IA del sistema de salud sería mejor que el mosaico del estado con el que se está operando actualmente los Estados Unidos. En vista del hecho de que el plan de campaña de IA impulsa la desregulación a expensas de la seguridad del paciente, hasta ahora para castigar a los estados con “regulaciones de IA estresantes”, ahora claramente no es el momento de un marco federal.
Luego fue alentador que la coordinación del Senado abrumadora para eliminar la moratoria a la IA de HR 1 el mes pasado, lo que habría completado los estados de la regulación de la IA de forma independiente. Sin embargo, el plan de campaña de la IA persigue el enfoque opuesto al exigir la eliminación de reglas “estresantes” sin definir lo que realmente mira a estresante o estresante.
Este enfoque vago se vuelve más preocupante en vista de la filosofía declarada del plan: una mentalidad “Build, Baby, Build” a la que se menciona en la página 1, en la que la velocidad prioriza antes de la seguridad. Tal enfoque crea riesgos especiales en el sistema de salud, en el que las misiones son más altas que en otras industrias. Según este marco, como Illinois, que acaba de aprobar las leyes Prohibición del uso de IA para decisiones sobre salud mentalPodría ser castigado por el tratamiento de la protección del paciente tan esencial como una “burocracia”.
El plan tampoco se ocupa de cómo se monitorean los sistemas de IA después de su uso, de modo que el monitoreo de la práctica industrial voluntaria sigue siendo el monitoreo. Dado que los algoritmos de IA continúan aprendiendo y cambiando con el tiempo, pueden desarrollar nuevas distorsiones o errores que pueden afectar la calidad de la atención al paciente. Sin requisitos de supervisión robustos, los pacientes, especialmente en los municipios con menos recursos, se convierten en sujetos de prueba ignorantes para el desarrollo de sistemas de IA.
En lugar de depender de la vigilancia voluntaria de la industria, el sistema de salud se beneficiaría de la aplicación más estricta de las regulaciones claramente definidas que monitorean el rendimiento de la IA, hacen que las decisiones algorítmicas sean más transparentes y validen varias poblaciones de pacientes. Estas medidas de protección son particularmente importantes para las comunidades que necesitan protección, que a menudo faltan los recursos para buscar apoyo alternativo si los sistemas de IA no existen.
Refuerzo de las diferencias de salud
Finalmente, el plan rechaza las preocupaciones sobre la imposibilidad de la IA al eliminar los requisitos de diversidad, justicia e inclusión (DEI) de los marcos de supervisión. Pero en la atención médica, el sesgo algorítmico no es político: es un paciente con seguridad para el paciente que ya cuesta vida en comunidades menos solicle.
El ejemplo más conocido de esta tragedia es, como los modelos de IA, que se han entrenado principalmente en datos de pacientes blancos. Riesgo subestimado de cáncer de seno En las mujeres negras que en realidad tenían un alto riesgo de desarrollar la enfermedad. Esto probablemente condujo a menos escaneos de seguimiento y más casos no diagnosticados o no tratados de cáncer de seno, que contribuyen a los resultados de la salud en mujeres negras.
Este no es un caso aislado. Distorsiones similares se hicieron en varios tratamientos de salud en relación Quejas en pacientes negros A algoritmos de diagnóstico que se pierden Enfermedades del corazón en las mujeres. Sin embargo, la eliminación de todas las cosas del plan significa que no hay controles incorporados para evitar que estos prejuicios se integren en nuevos sistemas de IA en la atención médica.
Sin mandatos para probar algoritmos en varios grupos de población, tales diferencias están muy extendidas si la aceptación de la IA se acelera.
Control de llave
Según lo escrito, el plan de acción de IA desalienta activamente el tipo de gobierno estricto de IA orientado a la equidad, que requiere la seguridad del paciente. Sin corregir, el AI Health -Ki está en riesgo en lugar de cerrar las brechas existentes en la calidad de la atención y el acceso.
Esto está claro por una dinámica preocupante: los estados que intentan proteger a los pacientes que necesitan protección contra los riesgos de IA podrían exponerse al castigo financiero de Federal en la autorización para mantener las regulaciones para “estresante”. Esta presión efectiva indica exactamente reducir sus estándares si se necesitan más medidas de protección más fuertes.
La seguridad inadecuada de protección de datos solo es peor de las debilidades sistémicas. Para abordar las diferencias de salud existentes en los EE. UU. En lugar de fortalecer las diferencias de salud existentes, los mecanismos deben fortalecerse y no eliminarse.
Foto: Narvo Vexar, Getty Images
Juegos de Lauren Es un analista empresarial en AdministrarDonde examina cómo las tecnologías emergentes, como la IA, cambian los trabajos digitales. Su investigación y escritura se centran en la gobernanza, la seguridad y el lado humano de la adopción tecnológica. Antes de ingresar a ManagingEngine, trabajó para Gartner y desarrolló contenido controlado por datos para hacer que los gerentes de empresas y compradores de software en decisiones más inteligentes en los mercados de movimiento rápido.
Esta contribución aparece a través del Influencer de Medcity Programa. Todos pueden publicar su visión de los negocios y la innovación en la atención médica en relación con los mensajes de Medcity de Medcity -Influencer. Haga clic aquí para averiguar cómo.



















