Por MATT O’BRIEN
Anthropic está demandando a la administración Trump y pidiendo a los tribunales federales que anulen la decisión del Pentágono de designar a la empresa de inteligencia artificial como un “riesgo para la cadena de suministro” porque se negó a permitir el uso militar sin restricciones de su tecnología.
Anthropic presentó dos demandas separadas el lunes, una en un tribunal federal de California y otra en el tribunal federal de apelaciones en Washington, D.C., cada una desafiando diferentes aspectos de las acciones del Pentágono contra la compañía.
El Pentágono designó oficialmente a la empresa de tecnología de San Francisco como un riesgo para la cadena de suministro la semana pasada después de una disputa inusualmente pública sobre cómo su chatbot de IA Claude podría usarse en la guerra.
“Estas acciones no tienen precedentes y son ilegales”, afirma la demanda de Anthropic. “La Constitución no permite que el gobierno use su enorme poder para castigar a una empresa por su discurso protegido. Ninguna ley federal autoriza las acciones tomadas aquí. Anthropic está utilizando el poder judicial como último recurso para hacer cumplir sus derechos y detener la campaña ilegal de represalias del poder ejecutivo”.
El Departamento de Defensa se negó a hacer comentarios el lunes, citando su política de no comentar sobre asuntos en litigio.
Anthropic dijo que quiere limitar el uso de su tecnología para dos propósitos de alto perfil: vigilancia masiva de estadounidenses y armas totalmente autónomas. El secretario de Defensa, Pete Hegseth, y otros funcionarios insistieron públicamente en que la empresa debe aceptar “cualquier uso legal” de Claude y amenazaron con sanciones si Anthropic no cumplía.
Designar a la empresa como un riesgo para la cadena de suministro interrumpe el trabajo de defensa de Anthropic con autoridad diseñada para evitar que adversarios extranjeros dañen los sistemas de seguridad nacionales. Se sabía que era la primera vez que el gobierno federal utilizaba el término contra una empresa estadounidense.
El presidente Donald Trump también dijo que ordenaría a las agencias federales que dejaran de usar Claude, incluso cuando le dio al Pentágono seis meses para retirar un producto profundamente arraigado en sistemas militares secretos, incluidos los utilizados en la guerra de Irán.
La demanda de Anthropic también nombra a otras agencias federales, incluidos los departamentos del Tesoro y de Estado, después de que funcionarios ordenaron a los empleados que dejaran de utilizar los servicios de Anthropic.
Incluso mientras Anthropic lucha contra las acciones del Pentágono, ha tratado de convencer a las empresas y otras agencias gubernamentales de que la sanción de la administración Trump es limitada y solo afecta a los contratistas militares si utilizan a Claude para el Departamento de Defensa.
Para Anthropic, una empresa privada, dejar clara esa distinción es crucial porque la mayor parte de los 14 mil millones de dólares en ingresos previstos para este año provienen de empresas y agencias gubernamentales que utilizan Claude para codificación informática y otras tareas. Más de 500 clientes pagan a Anthropic al menos 1 millón de dólares al año por Claude, según un reciente anuncio de inversión que valora la empresa en 380 mil millones de dólares.
Anthropic dijo en un comunicado el lunes: “Buscar una revisión judicial no cambia nuestro compromiso de larga data de utilizar la IA para proteger nuestra seguridad nacional, pero este es un paso necesario para proteger nuestra empresa, nuestros clientes y nuestros socios”.
















