El presidente Donald Trump dijo el viernes que ordenaría a todas las agencias federales que dejen de usar la tecnología de inteligencia artificial de Anthropic a partir de las 5 p.m. Se acercaba la fecha límite ET para que la compañía llegara a un acuerdo con el Pentágono.
“Habrá un período de eliminación gradual de seis meses para agencias como el Departamento de Guerra que utilizan los productos de Anthropic en varios niveles”, dijo Trump en una publicación en las redes sociales. “Será mejor que Anthropic actúe en conjunto y sea útil durante este período de salida, o usaré todo el poder de la presidencia para hacer que cumplan, lo que resultará en graves consecuencias civiles y penales”.
El director general de la empresa de IA ha dejado claro que, a pesar de las amenazas del Pentágono, se niega a abandonar sus dos demandas principales: no utilizar su inteligencia artificial para armas totalmente autónomas (es decir, IA, no humanos, que toman decisiones finales sobre los objetivos en el campo de batalla) y no realizar vigilancia interna masiva.
Anthropic dijo a ABC News que el reciente lenguaje contractual del Pentágono durante las negociaciones no refleja completamente la voluntad de los militares. no utilizar su tecnología para estos dos casos de uso.
De hecho, Anthropic dijo que el “nuevo lenguaje” que el departamento incluyó en el contrato permitiría que sus salvaguardas sean “ignoradas a voluntad”.
El Pentágono se ve desde el aire el 3 de marzo de 2022 en Washington, DC.
Josué Roberts/Reuters
“El texto del contrato que recibimos del Departamento de Guerra prácticamente no logró ningún progreso en la prevención del uso por parte de Claude de vigilancia masiva de estadounidenses o armas totalmente autónomas”, dijo Anthropic a ABC News.
La compañía agregó: “El nuevo lenguaje enmarcado como un compromiso fue combinado con un lenguaje legal que permitiría ignorar estas protecciones a voluntad. A pesar de las recientes declaraciones públicas de DOW, estas protecciones estrechas han estado en el centro de nuestras negociaciones durante meses”.
Altos miembros del Comité de Servicios Armados del Senado enviaron una carta privada a Anthropic y al Pentágono instándolos a resolver su lucha.
Los líderes del Senado están pidiendo al secretario de Defensa, Pete Hegseth, y al director ejecutivo de Anthropic, Dario Amodei, que amplíen sus negociaciones y trabajen con el Congreso para encontrar una solución, según la carta obtenida por ABC News.
El Pentágono afirma que no tiene intención de utilizar la IA de Anthropic para casos que impliquen vigilancia masiva doméstica u operaciones cinéticas autónomas. Sin embargo, se dice que las barandillas de Anthropic podrían poner en peligro las operaciones militares.
El Pentágono dijo que si Anthropic no acepta sus demandas antes de las 5 p.m. ET del viernes, pondrá fin a su asociación con Anthropic y designará a la empresa como un “riesgo de la cadena de suministro”, una designación normalmente reservada para adversarios extranjeros.
“El Departamento ha declarado que no tiene intención de realizar vigilancia masiva o desplegar armas autónomas sin que la gente sea informada, posiciones que apoyamos en el Congreso”, dijeron los líderes del Senado en la carta. “Está claro, sin embargo, que la cuestión del ‘uso legal’ requiere trabajo adicional de todas las partes involucradas. Debemos determinar si se requiere lenguaje legislativo o regulatorio adicional y, de ser así, qué deben incluir esas leyes y regulaciones”.
“Para el viernes 27 de febrero, el Departamento de Defensa podría esencialmente declarar la guerra no a una nación extranjera, sino a una de las empresas fronterizas de inteligencia artificial más exitosas de Estados Unidos si no cede a sus demandas”, dijo Adam Conner, vicepresidente de política tecnológica de American Progress. escribió en un artículo en su sitio web.
“Este sería un paso innecesario y sin precedentes en tiempos de paz que envía la señal a otras empresas privadas de que deben seguir las instrucciones de la administración Trump o enfrentar consecuencias existenciales”, escribió Conner.
















