En 1983, la película Juegos de guerra se convirtió en un éxito de taquilla. Protagonizada por un joven Matthew Broderick, contaba la historia de un pirata informático adolescente que se enfrenta a un superordenador controlado por una inteligencia artificial llamada Joshua. La máquina, que gestionaba el arsenal de misiles nucleares de Estados Unidos, estaba fuera de control y amenazaba con desatar una guerra atómica. Con el tiempo, la cinta se convirtió en una obra de culto por anticipar a varias generaciones los riesgos de dar a una máquina el poder de la guerra sin supervisión humana. Seguir leyendo
Donald Trump ha ordenado romper todos los contratos con Anthropic ante la insistencia de la empresa tecnológica de imponer líneas rojas al uso de esta tecnología
Feed MRSS-S Noticias
En 1983, la película Juegos de guerra se convirtió en un éxito de taquilla. Protagonizada por un joven Matthew Broderick, contaba la historia de un pirata informático adolescente que se enfrenta a un superordenador controlado por una inteligencia artificial llamada Joshua. La máquina, que gestionaba el arsenal de misiles nucleares de Estados Unidos, estaba fuera de control y amenazaba con desatar una guerra atómica. Con el tiempo, la cinta se convirtió en una obra de culto por anticipar a varias generaciones los riesgos de dar a una máquina el poder de la guerra sin supervisión humana. Cuatro décadas después del estreno de aquella icónica película, Estados Unidos parece revivir algunos de los dilemas morales que planteó el metraje dirigido por John Badham. El límite del uso de la inteligencia artificial con fines bélicos alimenta un debate planetario con consecuencias reales. Fotograma de la película Juegos de guerra (1983), con Matthew Broderick y Ally Sheedy. Bridgeman Images / ALBUM. U. S. El presidente Donald Trump ha ordenado cancelar todos los contratos con Anthropic, una de las empresas líderes en inteligencia artificial (IA), en una polémica decisión con implicaciones políticas, empresariales y tecnológicas. La Casa Blanca justifica quitar Anthropic por la negativa de su fundador, Dario Amodi, a liberar todas las funcionalidades de su herramienta de IA, llamada Claude. Amodi ha trazado dos líneas rojas esenciales por las que no está dispuesto a permitir el uso de su tecnología: que no sirva para el espionaje masivo de ciudadanos, ni para la gestión de armas autónomas sin gestión humana. Esta vez, en un hecho insólito, es la empresa la que pone los límites al gobierno. «Los acontecimientos de los últimos días han marcado un punto de inflexión para la independencia de las empresas privadas de IA del Gobierno estadounidense y han dejado claro que, sin legislación, el uso de estas herramientas para la guerra y la vigilancia no es una cuestión de si se hará, sino de cuándo», afirma Adam Cooner, analista del Center for American Progress. «También ha sido otro ejemplo del intento de la Administración Trump de abusar de su poder y tomar medidas probablemente ilegales para tratar de destruir un laboratorio de IA fronteriza que no estaba de acuerdo con el Gobierno», añade. La ruptura de los contratos del ejército estadounidense con Anthropic es un asunto delicado. Hasta ahora, Claude es la única IA utilizada por el Pentágono para gestionar archivos clasificados en la nube. Los mandos militares utilizaron Claude durante las operaciones de captura del expresidente venezolano Nicolás Maduro y su esposa en Caracas. También lo están utilizando en EE. S. ataque a Irán para derribar el régimen teocrático. Claude, el alter ego de Joshua de la película Juegos de guerra, es esencial en el sistema inteligente Maven. Un sofisticado programa, creado por Palantir y Anthropic, que recoge datos de numerosas fuentes digitales para analizarlos y ayudar al ejército en la toma de decisiones. Es la tecnología más avanzada jamás utilizada en operaciones militares. Está permitiendo al ejército obtener valiosa información de una enorme cantidad de datos clasificados de satélites, vigilancia y otras fuentes digitales, que sirve para planificar operaciones e identificar objetivos en tiempo real en la guerra de Irán. Una decisión delicada. El uso de Claude en esta operación es tan relevante que hace difícil que el Pentágono renuncie a esta herramienta del EI, cuando pasen los seis meses de la moratoria concedida por Trump. Pero varios responsables gubernamentales reconocen que Claude es mejor que sus competidores, como ChatGPT (OpenAI), Gemini (Google) y Grok (xAI) y admiten que retirar las herramientas de Anthropic de sus operaciones será una tarea complicada. El caso de Anthropic plantea un dilema que afecta no sólo a la guerra, sino al propio desarrollo de la tecnología: dónde están los límites de la IA, con cuestiones éticas y morales por resolver y probablemente por legislar. Pero en la industria de la IA las cosas van tan deprisa que las preguntas quedan sin respuesta antes de que un nuevo avance tecnológico plantee nuevas cuestiones. Modi, que se ha transformado en gurú, se asegura de que la mejora de la IA sea exponencial durante semanas, a una velocidad sin precedentes, lo que aumenta el riesgo de su uso. Las relaciones entre la Casa Blanca y Anthropic no siempre fueron tensas. Hace un año, la empresa de Dario Amodi firmó un contrato de 200 millones de dólares (172 millones de euros) con el Pentágono para gestionar archivos clasificados en un entorno seguro en la nube. Claude es la IA más desarrollada para entornos corporativos, con normas de seguridad más estrictas que sus rivales. Pero el 9 de enero, el secretario de Defensa, Pete Hegseth, presentó la nueva estrategia de seguridad que incluía un apartado especial para impulsar la IA en actividades militares. Entonces empezaron las preguntas. . Los recelos se convirtieron en desconfianza cuando el Pentágono se enteró de una conversación entre un empleado de Anthropic y otro de Palantir. El primero preguntó si Claude había sido utilizado en la operación de captura de Maduro. El Pentágono cree que los contratistas de defensa no deben poner límites al uso de los servicios. Utiliza el símbolo de las bombas: un fabricante de municiones no pregunta contra quién se va a disparar un determinado proyectil ni en qué condiciones se suministra y es el ejército el que debe determinar su uso. Y plantean la pregunta «¿Qué debe hacer un gobierno si una empresa privada consigue un arma nuclear con el AI? Eso es lo que estamos viendo». Hegseth, que ha rebautizado su ministerio como Departamento de Guerra (DoW), citó a Amodini en el Pentágono para convencerle de que el uso de Claude no podía tener limitaciones y podía emplearse «en cualquier uso legal». Es la fórmula legal utilizada para asegurarle que no lo utilizarían para espionaje masivo ni para armas autónomas sin supervisión. Pero la solución no satisfizo a Amodi. Durante la reunión, Hegseth le dio un ultimátum: si no aceptaba las condiciones, invocaría la Ley de Producción de Defensa de 1950, que se utilizó durante la guerra de Corea, para obligar a la empresa a trabajar con el Gobierno sin restricciones. Además, amenazó con referirse a Anthropic como un «riesgo para la cadena de suministro», una medida extraordinaria que impediría a la empresa realizar negocios con otros contratistas militares. Hay que recordar que Hegseth, una antigua estrella de televisión de FoxNews, reunió a los altos mandos militares a finales de septiembre para explicarles su idea de cómo la U. S. Fuerzas Armadas deberían ser: un ejército compuesto por «guerreros» y no por «defensores». A continuación, dejó una frase como declaración del inicio de su mandato: «El ejército estadounidense no está para proteger los sentimientos de nadie, sino para proteger a nuestro país, y no seremos políticamente correctos al defender la libertad estadounidense». Los directores de Anthropic, Dario Amodi (derecha) y OpenAI, Sam Altman (centro) junto al Presidente de la India, Narendra Modi, en Nueva Delhi, en febrero. LUDOVIC MARIN (AFP / GETTY IMAGES). Posible error. La escalada verbal entre ambos subió de tono. Amodi afirma que las amenazas de la Administración Trump son contradictorias. Por un lado, afirman que Claude era esencial y, por otro, que es prescindible. También afirma que no se opone categóricamente a fabricar armas completamente autónomas, un paso que podría violar el derecho internacional, pero que su tecnología no está lo suficientemente madura como para evitar errores. En cuanto a la vigilancia, señala que aunque el Pentágono asegura que cumplirá la ley, el problema es que la legislación no está adaptada al uso de la IA. El Gobierno, dice Amodi, ya puede recabar información, realizar escaneos masivos, recoger datos biométricos, huellas, información fiscal, intervenir comunicaciones telefónicas y geolocalizar, entre otros. La IA puede recopilar estos datos dispersos e inofensivos individualmente para obtener una imagen completa de la vida de cualquier persona, de forma automática y a gran escala. Amodi pone el siguiente ejemplo: «Un enjambre de millones o miles de millones de drones armados totalmente automatizados, controlados localmente por una IA poderosa y coordinados estratégicamente en todo el mundo por una IA aún más poderosa, podría constituir un ejército imbatible, capaz tanto de derrotar a cualquier ejército del mundo como de reprimir la disidencia dentro de un país siguiendo a cada ciudadano». Existiría un riesgo mucho mayor de que los países democráticos volvieran a los ejércitos de IA contra su propia población, afirma Amodi, a quien preocupa que el Gobierno pueda comprar datos masivos de los ciudadanos para hacer perfiles con la IA sobre afiliación política, descontento, opositores, etc. El presidente de EEUU, Donald Trump, asiste a unas maniobras militares en Carolina del Norte en junio de 2025. BRENDAN SMIALOWSKI (AFP / GETTY IMAGES) El Pentágono, por su parte, plantea la hipótesis de un ataque sorpresa. «¿Qué pasaría si un misil balístico intercontinental con armas nucleares se dirigiera a Estados Unidos con apenas 90 segundos de antelación y la IA de Anthropic fuera la única forma de desencadenar una respuesta misilística para salvar al país, pero las medidas de seguridad de la empresa no lo permitieran? «. reflexionó un alto funcionario en una llamada telefónica a Anthropic en diciembre. Las versiones de la respuesta son contradictorias. El Departamento de Guerra afirma que Amodi respondió «llámame», una posibilidad que les dio vértigo porque sería dejar en manos de un empresario la respuesta militar a un asalto. Anthropic sostiene que el Pentágono podría utilizar en estos casos sus herramientas de IA para la defensa antimisiles y operaciones cibernéticas ilimitadas. Antes de que expirara el plazo de Hegseth, Trump lo cortó en seco. «¡Los Estados Unidos de América nunca permitirán que una empresa radical de izquierdas y ‘ wooke ‘ decida cómo nuestro ejército lucha y gana las guerras! Esa decisión corresponde a su comandante en jefe y a los extraordinarios líderes que designo para dirigir nuestras fuerzas armadas», escribió en su red social Truth. De esta forma, la Administración Trump cortó todos los contratos con Anthropic, pero dejó seis meses para poder desengancharse sin causar grandes daños. Ese mismo día por la noche, OpenAI, rival de Anthropic anunciaba un contrato con el Pentágono por 200 millones para gestionar archivos clasificados como hacía la empresa de Amodi. «Ningún contratista, proveedor o socio que haga negocios con la U. S. podrá hacer ningún negocio con Anthropic», escribió Hegseth en X para cumplir su amenaza. Anthropic anunció que demandaría a la Casa Blanca por romper el contrato y lo catalogó como un riesgo para la cadena de suministro. El contrato del Pentágono no significa gran cosa para una empresa valorada en más de 350. 000 millones de dólares y una facturación anual de 20. 000 millones, pero Anthopic tiene una amplia cartera de clientes como Amazon, Boeing, Lockhead Martin, Palantir, etc. , con estrechos vínculos con la administración estadounidense. Si Trump cumple su palabra, sería mortal para Claude. Amodi argumenta que la prohibición de contratar con otras empresas sólo se aplicaría a usos militares, lo que aliviaría el golpe económico. Pero eso aún está por ver. La cadena CNBC publicó esta semana que varias empresas de tecnología de defensa están pidiendo a sus empleados que dejen de utilizar Claude de Anthropic y cambien a otros modelos de IA. La inclusión de Anthropic en la lista negra del gobierno es completamente inusual para una empresa estadounidense, y había sido utilizada en casos como Huawei o ZTE, con supuestas conexiones con China, o la firma de ciberseguridad Kaspersky, vinculada a Moscú. Por este motivo y por las consecuencias de romper con Anthropic, el Information Technology Industry (ITI) Council, una organización de empresas tecnológicas, en la que participan Nvidia, AMD, Google o Apple envió una carta a Hegseth expresando su preocupación por la designación de una empresa estadounidense como riesgo para la cadena de suministro. «Aunque sólo afecta directamente a Anthropic, incluir a la empresa en listas negras también señalaría a muchas otras compañías lo que el Gobierno está dispuesto a hacer para forzar determinadas acciones en sus productos, enviando un efecto dominó en este momento crítico del desarrollo tecnológico. El resultado podría perjudicar no sólo a los avances aquí en Estados Unidos, sino también al éxito general de líderes de la IA como Anthropic», explica Jennifer Huddleston, destacada investigadora de política tecnológica del Cato Institute. Orígenes diferentes. Para entender el conflicto, hay que conocer el origen de ambas empresas. Anthropic fue fundada en 2021 por siete investigadores que abandonaron OpenAI por principios éticos alarmados por los problemas de seguridad de ChatGPT. Han abanderado el compromiso moral con el desarrollo de la IA, a la que han dotado de una «constitución», la testean para evitar errores éticos y, aunque recientemente han aligerado las barreras de seguridad para acelerar el desarrollo del negocio, insisten en que la IA debe ser segura para la sociedad. También hay un aspecto político. Amodi apoyó a Joe Biden y Kamala Harris en las últimas elecciones presidenciales. Ha cuestionado varias veces a Trump al defender una mayor regulación del EI. Cuando el presidente estadounidense autorizó la venta de chips de Nvidia a China, lo criticó. «Es como vender armas nucleares a Corea del Norte», dijo hace unas semanas en Davos. Además, ha reclutado a varios altos cargos de la Administración Biden. Por su parte, Sam Altman, líder de OpenAI, es amigo de Elon Musk, fundador de Tesla, y coquetea con el entorno de Trump. «La gobernanza del sector privado no es suficiente para detener el uso y el posible abuso de la IA avanzada por parte del Gobierno. El Congreso no puede esperar para actuar y debe empezar a celebrar audiencias para investigar las acciones de la administración y desarrollar una legislación que proteja a los ciudadanos de la vigilancia masiva», afirma Conner (CAP). Mientras las bombas siguen cayendo sobre Teherán con la ayuda de Claude, Amodi sigue negociando con el Pentágono para recuperar el contrato roto por Trump, como avanzó esta semana el Financial Times. Pero no será fácil por el espeso intercambio verbal entre ambos contendientes. Emil Michael, director de tecnología del Departamento de Defensa, acusó de «mentiroso» a Amodini, de quien dijo: «Quiere jugar a ser Dios». «Se ha hecho mucho daño a la industria. Incluso en la designación más restringida de riesgo de la cadena de suministro, la U. S. UU sigue diciendo que te tratará como a un adversario extranjero por negarte a ceder a sus condiciones comerciales. Simplemente por tener ideas diferentes, expresarlas en el discurso y materializar ese discurso en decisiones sobre cómo desplegar o no la propia propiedad. Cada uno de estos es fundamental para nuestra república, y cada uno fue asaltado por el Departamento de Guerra la semana pasada. La mayoría de las empresas, actores políticos y otros tendrán que operar bajo el supuesto de que ahora reinará la lógica de la tribu», afirma Dean W. Ball, que fue el principal asesor político de la Oficina de Política Científica y Tecnológica de la Casa Blanca.
