Home Salud Los LLM se comieron Internet, ahora se mueren de hambre

Los LLM se comieron Internet, ahora se mueren de hambre

30
0

He pasado mi carrera nadando en datos, como ex director de datos en Kaiser Permanente, UnitedHealthcare y Optum, y en un momento tuve el control de casi el 70% de todos los reclamos de atención médica en Estados Unidos. Entonces, cuando les digo que el problema con la IA empresarial no es la arquitectura del modelo, sino los datos que alimentan los modelos, créanme: lo he visto de primera mano.

Los LLM ya están alcanzando su punto máximo

Ya están empezando a aparecer grietas en los LLM. Tome GPT-5. Su comienzo estuvo plagado con quejas: falló en matemáticas básicas, carecía de contexto que las versiones anteriores pudieran manejar fácilmente y resultó en que los clientes que pagaban lo llamaran “aburrido” y “genérico”. OpenAI incluso tuvo que volver a un modelo anterior después de que los usuarios rechazaran su tono más frío y basado en listas de verificación. Después de dos años de retrasos, muchos se preguntaban si OpenAI había perdido su ventaja o si todo el enfoque LLM simplemente había chocado contra una pared.

Metas LLaMA 4 cuenta una historia similar. En pruebas a largo plazo, el tipo de trabajo que las empresas realmente necesitan, Maverick no mostró ninguna mejora con respecto a LLaMA 3, y Scout tuvo un desempeño “francamente atroz”. Meta afirmó que estos modelos podrían manejar millones de tokens; en realidad estaban luchando con sólo 128.000. Mientras tanto, Gemini de Google logró más del 90% de precisión en la misma escala.

Nadie quiere reconocer el problema de los datos

En lugar de enfrentar las limitaciones que ya vemos con los LLM, la industria continúa escalando e invirtiendo más potencia informática y más Electricidad en estos modelos. Y, sin embargo, a pesar de todo este poder, los resultados no son mejores.

La razón es simple: los datos de Internet en los que se basan estos modelos ya han sido extraídos, limpiados y reentrenados una y otra vez. Esta es la razón por la que los nuevos lanzamientos parecen superficiales: hay pocas cosas nuevas que aprender. Con cada ciclo, los mismos patrones simplemente se retroalimentan al modelo. Ya se han comido Internet. Ahora están muriendo de hambre.

Mientras tanto, la verdadera mina de oro de la información de inteligencia –los datos corporativos privados– sigue bajo llave. Los LLM no fracasan por falta de datos: fracasan porque no utilizan los datos correctos. Piense en lo que se necesita en atención médica: reclamos, registros médicos, notas clínicas, facturas, solicitudes de autorización previa, transcripciones de centros de llamadas: la información que realmente refleja cómo se manejan las empresas y las industrias.

Hasta que los modelos puedan entrenar con esos datos, siempre se quedarán sin combustible. Puede apilar parámetros, agregar GPU y bombear energía a modelos cada vez más grandes, pero eso no los hace más inteligentes.

Los modelos de lenguaje pequeño son el futuro

El camino a seguir no son los modelos más grandes. Son más pequeños, más inteligentes. Los Small Language Models (SLM) están diseñados para hacer lo que los LLM no pueden: aprender de los datos de la empresa y centrarse en problemas específicos.

He aquí por qué funcionan.

Primero, son eficientes. Los SLM tienen menos parámetros, lo que significa menores costos computacionales y tiempos de respuesta más rápidos. No necesita un centro de datos lleno de GPU sólo para ponerlas en funcionamiento.

En segundo lugar, son específicos de un dominio. En lugar de intentar responder todas las preguntas en Internet, están capacitados para hacer una cosa bien, como la codificación de riesgos de HCC, autorizaciones previas o codificación médica. Es por eso que brindan precisión donde los LLM genéricos tropiezan.

En tercer lugar, se ajustan a los procesos de la empresa. No se los deja de lado como una demostración brillante. Se integran con los datos que realmente impulsan su negocio (datos de facturación, facturas, reclamaciones, notas clínicas) y lo hacen teniendo en cuenta la gobernanza y el cumplimiento.

El futuro no es más grande, es más pequeño

He visto esta película antes: grandes inversiones, exageraciones interminables y luego darme cuenta de que el tamaño por sí solo no resuelve el problema.

El camino a seguir es resolver el problema de los datos y crear modelos más pequeños y más inteligentes que aprendan de la información que las empresas ya tienen. Así es como se puede hacer que la IA sea útil, no persiguiendo la grandeza por sí misma. Y no soy el único que dice eso. Incluso los propios investigadores de NVIDIA lo dicen ahora El futuro de la IA agente pertenece a los modelos de lenguajes pequeños.

La industria puede seguir usando GPU para modelos cada vez más grandes, o construir mejores modelos que realmente funcionen. La elección es obvia.

Foto: J Studios, Getty Images


Fawad a tope es cofundador y director ejecutivo de pingüino oh. Anteriormente se desempeñó como director de datos en Kaiser Permanente, UnitedHealthcare Group y Optum, liderando el equipo de expertos en análisis y datos más grande de la industria y administrando un estado de pérdidas y ganancias de cientos de millones de dólares.

Este artículo aparece en el Influencer de MedCity Programa. A través de MedCity Influencer, cualquiera puede publicar sus puntos de vista sobre negocios e innovación en la atención médica en MedCity News. Haga clic aquí para descubrir cómo.

Enlace de origen