El mismo modelo de inteligencia artificial que puede ayudarle a escribir un correo electrónico de marketing o una receta para una cena rápida también se ha utilizado para atacar a Irán. Según un informe del Wall Street Journal, el Comando Central de Estados Unidos utilizó Claude AI de Anthropic para “evaluaciones de inteligencia, identificación de objetivos y simulación de escenarios de combate” durante los ataques al país.
Horas antes, el presidente Donald Trump había ordenado a las agencias federales que dejaran de usar Claude después de una disputa con su fabricante, pero la herramienta estaba tan profundamente integrada en los sistemas del Pentágono que llevaría meses desenredarla en favor de un rival más dócil. También fue utilizado en la operación de enero que llevó a la captura de Nicolás Maduro.
Pero, ¿qué significan en la práctica las “evaluaciones de inteligencia” y la “identificación de objetivos”? ¿Claude marcó los lugares de los ataques o hizo estimaciones del número de víctimas? Nadie ha hecho esta divulgación y, sorprendentemente, nadie está obligado a hacerlo.
La inteligencia artificial se ha utilizado durante mucho tiempo en la guerra, como en el análisis de imágenes de satélite, la detección de ciberamenazas y el control de sistemas de defensa antimisiles. Pero el uso de chatbots (la misma tecnología subyacente que miles de millones de personas utilizan para tareas cotidianas como escribir correos electrónicos) se está utilizando ahora en el campo de batalla.
En noviembre pasado, Anthropic se asoció con Palantir Technologies Inc., una empresa de análisis de datos que realiza mucho trabajo para el Pentágono, y convirtió su gran modelo de lenguaje Claude en el motor de razonamiento dentro de un sistema de apoyo a las decisiones para los militares.
Luego, en enero, Anthropic presentó una propuesta de 100 millones de dólares al Pentágono para desarrollar tecnología de enjambre de drones autónomos controlados por voz, informó Bloomberg News. El discurso de la compañía: utilizar a Claude para traducir la intención de un comandante en instrucciones digitales para coordinar una flota de drones.
Su oferta fue rechazada, pero la competencia requería mucho más que simplemente sintetizar informes de inteligencia, como cabría esperar de un chatbot. El objetivo de este contrato era desarrollar “la conciencia y el intercambio de objetivos” y el “lanzamiento hasta la terminación” de enjambres de drones potencialmente mortales.
tierra de nadie
Sorprendentemente, todo esto ocurrió en un vacío regulatorio y con una tecnología que es famosa por cometer errores. Las alucinaciones causadas por modelos de lenguaje grandes son el resultado de su entrenamiento cuando se les recompensa por buscar una respuesta en lugar de admitir incertidumbre. Algunos científicos dicen que es posible que el desafío actual de la confabulación de la IA nunca se resuelva.
Esta no sería la primera vez que se utilizan sistemas de IA poco fiables en la guerra. Lavender era una base de datos impulsada por inteligencia artificial que se utilizaba para identificar objetivos militares vinculados a Hamás en Gaza. Este no era un modelo de lenguaje grande, sino que analizaba grandes cantidades de datos de vigilancia, como conexiones sociales e historial de ubicación, para asignar a cada individuo una puntuación del 1 al 100. Si la puntuación de una persona excedía un cierto umbral, Lavender la marcaba como un objetivo militar.
El problema era que Lavender se equivocaba el 10% de las veces, según un informe de investigación de la revista israelí-palestina +972. “Unas 3.600 personas fueron atacadas accidentalmente”, me dice Mariarosaria Taddeo, profesora de ética digital y tecnología de defensa en el Oxford Internet Institute.
“Existen vulnerabilidades tan increíbles en estos sistemas y una falta de confiabilidad tan extrema… para algo tan dinámico, sensible y humano como la guerra”, dice Elke Schwarz, profesora de teoría política en la Universidad Queen Mary de Londres y autora de Death Machines: The Ethics of Violent Technologies.
Schwarz señala que la IA se utiliza a menudo en la guerra para acelerar las cosas, lo que lleva a resultados indeseables. Se toman decisiones más rápidas a mayor escala y con menos control humano. Durante la última década y media, el uso militar de la IA se ha vuelto aún más opaco, afirma.
Y el funcionamiento de los laboratorios de IA ya se mantiene en secreto respecto de las aplicaciones bélicas. Estas empresas se niegan a revelar con qué datos se entrenan sus modelos o cómo llegan a conclusiones sus sistemas.
Por supuesto, las operaciones militares a menudo deben mantenerse en secreto para proteger a los combatientes y mantener a los enemigos fuera del camino. Pero la defensa está fuertemente regulada por el derecho internacional humanitario y las normas de prueba de armas, que en teoría también deberían tener en cuenta el uso de inteligencia artificial. Pero esas normas faltan o son completamente inadecuadas.
Reglas desactualizadas
Taddeo señala que el artículo 36 de la Convención de Ginebra exige que se prueben nuevos sistemas de armas antes de su despliegue, un sistema de IA que aprende de su entorno pero que se convierte en un nuevo sistema con cada actualización. Esto hace que sea casi imposible aplicar la regla.
En un mundo ideal, gobiernos como el de Estados Unidos revelarían cómo se utilizan estos sistemas en el campo de batalla, y existe un precedente. Los estadounidenses comenzaron a utilizar drones armados después del 11 de septiembre y ampliaron su uso bajo la administración de Barack Obama sin reconocer que existía tal programa.
Fueron necesarios casi 15 años para que la Casa Blanca de Obama finalmente publicara el número de muertos por ataques con aviones no tripulados en 2016, filtraciones de documentos, presión continua de la prensa y demandas presentadas por la Unión Estadounidense de Libertades Civiles. En general se los consideró demasiado bajos, pero permitieron al público, al Congreso y a los medios exigir responsabilidades al gobierno por primera vez.
La vigilancia mediante IA será aún más difícil y requerirá aún más presión pública y legislativa para obligar a una administración recalcitrante de Trump a crear un marco de presentación de informes similar.
El objetivo, según Schwarz, no sería revelar exactamente cómo se utilizó a Claude en algo como la Operación Furia Épica, sino más bien revelar las líneas generales. Y lo más importante, revelar cuando algo sale mal.
El actual debate público sobre la disputa entre Anthropic y el Pentágono (sobre qué es legal y ético para la IA cuando se trata de vigilancia masiva de estadounidenses o el desarrollo de armas totalmente autónomas) pasa por alto la cuestión más amplia sobre la falta de visibilidad sobre cómo la tecnología ya se está utilizando en la guerra. Dado que estos sistemas nuevos y no probados son propensos a errores, esto es una necesidad urgente. “Nosotros, como sociedad, todavía no hemos decidido si nos sentimos cómodos con que una máquina decida si matar o no a un humano”, dice Taddeo.
Es fundamental impulsar esta transparencia antes de que la IA en la guerra se vuelva tan rutinaria que a nadie se le ocurra preguntar al respecto. De lo contrario, podríamos esperar a que se produzca un fracaso catastrófico y sólo imponer la transparencia una vez que el daño ya esté hecho.
Parmy Olson es columnista de opinión de Bloomberg que cubre tecnología. Ex reportera del Wall Street Journal y Forbes, es autora de “Supremacy: AI, ChatGPT and the Race That Will Change the World”. ©2026 Bloomberg LP Visite Bloomberg.com/opinion. Distribuido por la agencia Tribune Content.
















