Donald Trump ha instado a todas las agencias gubernamentales a dejar de utilizar tecnología de IA antrópica «despierta» y a establecer rápidamente un contrato de reemplazo con OpenAI de Sam Altman.
Trump, el secretario de Defensa, Pete Hegseth, y otros funcionarios recurrieron a las redes sociales para reprender a Anthropic por no permitir el uso irrestricto de la tecnología de inteligencia artificial por parte de los militares antes de la fecha límite del viernes.
Anthropic acusó a la empresa de poner en peligro la seguridad nacional después de que el director ejecutivo, Dario Amodei, se negara a dar marcha atrás ante las preocupaciones de que los productos de la empresa pudieran utilizarse de forma que pudieran violar su seguridad.
‘¡No lo necesitamos, no lo necesitamos, no volveremos a hacer negocios con ellos!’ Trump dijo en las redes sociales.
Hegseth también ve a la empresa como un «riesgo para la cadena de suministro», que normalmente se atribuye a adversarios extranjeros que descarrilan las asociaciones críticas de la empresa con otras empresas.
En una declaración publicada el viernes por la noche, Anthropic dijo que impugnaría lo que llamó una acción sin precedentes y legalmente absurda «nunca antes aplicada públicamente a una empresa estadounidense».
Anthropic dijo que buscaba garantías limitadas del Pentágono de que su chatbot de IA Clad no se utilizaría para la vigilancia masiva de estadounidenses ni en armas totalmente autónomas.
El Pentágono dice que no está interesado en tales usos y que sólo utilizará la tecnología de manera legal, pero insiste en el acceso sin restricciones.
Donald Trump ha instado a todas las agencias gubernamentales a dejar de utilizar la tecnología de IA antrópica para «despertar» y establecer rápidamente un contrato de reemplazo con OpenAI de Sam Altman.
Anthropic ha sido acusada de poner en peligro la seguridad nacional después de que el director ejecutivo Dario Amodei (en la foto) se negara a dar marcha atrás ante la preocupación de que los productos de la empresa pudieran utilizarse para violar su seguridad.
«Ninguna amenaza o castigo por parte del Departamento de Guerra cambiará nuestra posición sobre la vigilancia interna masiva o las armas totalmente autónomas», dijo la compañía.
«Impugnaremos cualquier designación de riesgo en la cadena de suministro ante los tribunales».
Estados Unidos utilizó inteligencia artificial durante una operación militar para capturar al presidente venezolano Nicolás Maduro.
El uso de la herramienta antrópica de inteligencia artificial resalta cómo el uso de la IA está ganando terreno en el Pentágono.
Se entiende que Anthropic es el primer desarrollador de modelos de IA utilizado en operaciones clasificadas por el Departamento de Defensa de EE. UU. después de 200 millones de dólares con la compañía el año pasado.
Sin embargo, los desarrolladores se negaron a comentar si el software se utilizó en alguna operación específica.
También dicen que las pautas de uso antropogénico prohíben el uso de vestidos para facilitar la violencia, desarrollar armas o realizar vigilancia.
Sin embargo, el 3 de enero, varios lugares de la capital venezolana, Caracas, fueron bombardeados en un intento por capturar a Maduro y su esposa.
El secretario de Defensa, Pete Hegseth, y otros funcionarios recurrieron a las redes sociales para reprender a Anthropic por no permitir el uso irrestricto de la tecnología de inteligencia artificial por parte de los militares antes de la fecha límite del viernes.
La presión del gobierno para afirmar su dominio sobre la toma de decisiones internas de la agencia se produce en medio de una fricción más amplia sobre el papel de la IA en la seguridad nacional y preocupaciones sobre cómo se podrían utilizar máquinas más capaces en situaciones de alto riesgo que involucran fuerza letal, información sensible o vigilancia gubernamental.
Horas después de reprender a su competidor, el director ejecutivo de OpenAI, Sam Altman, anunció el viernes por la noche que su compañía había firmado un acuerdo con el Pentágono para suministrar su IA a redes militares clasificadas, llenando potencialmente un vacío creado por el derrocamiento de Anthropic.
Pero las líneas rojas que quedaron atrapadas en la disputa de Anthropic con el Pentágono ahora están integradas en la nueva asociación de OpenAI, dijo Altman.
«Dos de nuestros principios de seguridad más importantes son las prohibiciones de la vigilancia masiva interna y la responsabilidad humana por el uso de la fuerza, incluidos los sistemas de armas autónomos», escribió Altman.
El Departamento de Defensa «está de acuerdo con estos principios, los refleja en leyes y políticas y los mantenemos en nuestro contrato», dijo.
Altman dijo que espera que el Pentágono «proporcione las mismas reglas a todas las empresas de IA» para evitar acciones legales y gubernamentales y acuerdos razonables.
Trump dijo que Anthropic cometió un error al tratar de endurecer al Pentágono.
Escribió en Truth Social que la mayoría de las agencias deberían dejar de usar inmediatamente la IA de Anthropic, pero le dio al Pentágono seis meses para eliminar gradualmente la tecnología ya integrada en las plataformas militares.
Horas después de reprender a su competidor, el director ejecutivo de OpenAI, Sam Altman (en la foto), dijo el viernes por la noche que su compañía había firmado un acuerdo con el Pentágono para suministrar su IA a redes militares clasificadas, llenando potencialmente un vacío creado por el derrocamiento de Anthropic.
Estados Unidos utilizó inteligencia artificial durante una operación militar para capturar al presidente venezolano Nicolás Maduro (en la foto)
‘¡Los Estados Unidos de América nunca permitirán que una compañía despierta y de izquierda radical dicte cómo ganar nuestras mayores batallas y guerras militares!’ Escribió en mayúsculas.
Meses de conversaciones privadas estallaron en debate público esta semana y se produjo un impasse después de que Amodei dijera que su empresa «no accedería en conciencia» a las demandas.
Anthropic podría haber perdido el contrato, pero las acciones del gobierno han ampliado lo que está en juego en el meteórico ascenso de la compañía desde un poco conocido laboratorio de investigación en ciencias informáticas en San Francisco hasta una de las nuevas empresas más valiosas del mundo.
Los principales funcionarios designados por Trump del Pentágono y el Departamento de Estado recurrieron a las redes sociales para criticar a Anthropic antes de la decisión del presidente, pero sus quejas contenían contradicciones.
Sean Parnell, un alto portavoz del Pentágono, dijo que la falta de voluntad de Anthropic para cumplir con las demandas militares «pone en riesgo operaciones militares críticas y potencialmente pone en riesgo a nuestros combatientes».
El Pentágono «debería tener acceso total y sin restricciones a modelos antrópicos para todos los fines legítimos en defensa de la República», afirmó Hegseth.
La publicación de Trump en las redes sociales decía que «será mejor que la compañía tome medidas y sea útil» durante la eliminación gradual o «se producirán importantes consecuencias civiles y penales».
Sin embargo, Hegseth optó por identificar a Anthropic como un riesgo para la cadena de suministro, utilizando una herramienta administrativa diseñada para empresas propiedad de adversarios estadounidenses para evitar que vendan productos que perjudiquen los intereses estadounidenses.
El senador Mark Warner de Virginia, el principal demócrata del Comité de Inteligencia del Senado, expresó su preocupación por todo el proceso.
El general retirado de la Fuerza Aérea Jack Shanahan, exlíder de las iniciativas de IA del Pentágono, escribió en las redes sociales esta semana que el gobierno «pintar la diana en lo antrópico genera titulares picantes, pero al final todos pierden».
El senador Mark Warner de Virginia, el demócrata de mayor rango en el Comité de Inteligencia del Senado, dijo que esta dinámica, «combinada con una retórica incendiaria que ataca a la compañía, genera serias preocupaciones sobre si las decisiones de seguridad nacional están impulsadas por un análisis cuidadoso o consideraciones políticas».
La controversia ha sorprendido a los desarrolladores de IA en Silicon Valley, donde capitalistas de riesgo, destacados científicos de IA y un gran número de trabajadores de los principales rivales de Anthropic (OpenAI y Google) han respaldado la postura de Amodei en cartas abiertas y otros foros.
Las medidas benefician a ChatGPT de OpenAI y al chatbot competidor de Elon Musk, Grok, al que el Pentágono también planea dar acceso a redes militares clasificadas.
Esto debería servir de advertencia a Google, que todavía tiene un contrato en desarrollo para suministrar sus herramientas de inteligencia artificial al ejército.
Musk recurrió a su plataforma de redes sociales X para ponerse del lado de la administración Trump y dijo que «Anthropic odia la civilización occidental».
Altman adoptó un enfoque diferente, expresando solidaridad con Anthropic Security y oponiéndose al enfoque de «intimidación» del gobierno, mientras trabajaba para asegurar el acuerdo OpenAI con el Pentágono.
Marca el último giro en la larga y a veces feroz rivalidad de OpenAI con Anthropic, que fue fundada en 2021 por un grupo de exlíderes de OpenAI.
El general retirado de la Fuerza Aérea Jack Shanahan, exlíder de las iniciativas de IA del Pentágono, escribió en las redes sociales esta semana que el gobierno «pintar la diana en lo antrópico genera titulares picantes, pero al final todos pierden».
Shanahan dijo que Clad ya se usa ampliamente en todo el gobierno, incluso en entornos clasificados, y que las líneas rojas antrópicas son «razonables».
Incluso los grandes modelos lingüísticos de IA que impulsan los chatbots como Claude, Grok y ChatGPT «no están listos para el horario de máxima audiencia en entornos de seguridad nacional», especialmente para armas totalmente autónomas.
Anthropic «no intenta ser amable aquí», escribió en LinkedIn. «No encontrará un sistema con un alcance tan amplio y profundo en todo el ejército».















