El enfrentamiento público entre la administración Trump y Anthropic ha llegado a un punto muerto Los oficiales militares exigen La firma de inteligencia artificial cambiará sus políticas éticas antes del viernes o correrá el riesgo de dañar su negocio.
El director general de Anthropic, Dario Amodei, trazó una clara línea roja 24 horas antes de la fecha límite, declarando que «no estaba de acuerdo en conciencia» con la última exigencia del Pentágono de permitir el uso ilimitado de la tecnología de su empresa.
Anthropic, el fabricante del chatbot revestido, podría perder el contrato de defensa. Pero el ultimátum de esta semana del secretario de Defensa, Pete Hegseth, en la cima del meteórico ascenso de la compañía desde un poco conocido laboratorio de investigación en ciencias informáticas en San Francisco hasta una de las nuevas empresas más valiosas del mundo plantea riesgos más amplios.
Si Amodei no cede, los funcionarios militares han advertido que los «considerarán un riesgo para la cadena de suministro» sin retirar el contrato de Anthropic, que generalmente está dirigido a adversarios extranjeros que descarrilan las asociaciones críticas de la compañía con otras empresas.
Y si Amodei cede, podría perder la fe en la floreciente industria de la IA, especialmente entre los mejores talentos atraídos a la empresa por sus promesas de construir responsablemente una IA mejor que la humana que, sin protección, podría plantear riesgos catastróficos.
Anthropic dijo que buscó garantías limitadas del Pentágono de que Clad no sería utilizado para la vigilancia masiva de estadounidenses o en armas totalmente autónomas. Pero después de que meses de negociaciones privadas entraron en el debate público, el nuevo lenguaje del contrato fue «combinado con una legalidad elaborada por un compromiso que permitiría renunciar a esas protecciones a voluntad», dijo en un comunicado el jueves.
Después de que Sean Parnell, el principal portavoz del Pentágono, publicara en las redes sociales: «No permitiremos que ninguna empresa establezca las reglas sobre cómo tomamos decisiones operativas» y agregara que la empresa «tiene hasta las 5:01 p.m. ET para decidir» si cumple con las demandas de la empresa o enfrenta las consecuencias.
Emil Michael, subsecretario de defensa para investigación e ingeniería, arremetió más tarde contra Amody, diciendo que «tiene un complejo de Dios» y «no quiere nada más que tratar de controlar personalmente al ejército estadounidense y poner en riesgo la seguridad de nuestra nación».
Ese mensaje no resonó mucho en Silicon Valley, donde los principales rivales de Anthropic, OpenAI y un número creciente de trabajadores tecnológicos de Google, respaldaron la postura de Amodei en una carta abierta el jueves por la noche.
OpenAI y Google, junto con xAI de Elon Musk, tienen contratos para suministrar sus modelos de IA al ejército.
«El Pentágono está en conversaciones con Google y OpenAI, tratando de que Anthropic acepte lo que rechazó», decía la carta abierta. «Están tratando de dividir cada empresa por miedo a que la otra ceda».
Los legisladores republicanos y demócratas y el exlíder de las iniciativas de inteligencia artificial del Departamento de Defensa también han expresado su preocupación por el enfoque del Pentágono.
«Pintar la diana en Anthropic genera titulares picantes, pero al final todos pierden», escribió el general retirado de la Fuerza Aérea Jack Shanahan en una publicación en las redes sociales.
Shanahan enfrentó la oposición de los trabajadores tecnológicos durante la primera administración Trump cuando dirigió Maven, un proyecto que utiliza tecnología de inteligencia artificial para analizar imágenes de drones y apuntar armas. Muchos empleados de Google protestaron por su participación en el Proyecto Maven en ese momento, cuando el gigante tecnológico se negó a renovar el contrato, y después Se comprometió a no utilizar IA en armas.
“Porque estoy en medio del Proyecto Maven & Google, es razonable pensar que me pondré del lado del Pentágono», escribió Shanahan en las redes sociales el jueves. Más de los que he venido a Google en 2018″.
Clad ya se utiliza ampliamente en todo el gobierno, incluso en entornos clasificados, y las líneas rojas de Anthropic son «razonables», dijo. Incluso los grandes modelos lingüísticos de IA que impulsan los chatbots como Claude «no están listos para el horario de máxima audiencia en entornos de seguridad nacional», especialmente para armas totalmente autónomas, dijo.
«No están tratando de jugar bien aquí», escribió.
Parnell enfatizó el jueves que el Pentágono quiere » Utilice el modelo antrópico para todos los fines legítimos” y que comenzar a utilizar la tecnología evitaría que la empresa “ponga en peligro operaciones militares críticas”, pero no explicó cómo él u otros funcionarios planean utilizar la tecnología.
El ejército «no tiene ningún interés en utilizar la IA para llevar a cabo una vigilancia masiva de los estadounidenses (lo cual es ilegal), ni queremos usar la IA para desarrollar armas autónomas que funcionen sin intervención humana», escribió Parnell.
Cuando Hegseth y Amodei se reunieron el martes, los oficiales militares advirtieron que podrían ser nombrados. antrópico Como riesgo para la cadena de suministro, rescindir su contrato o hacer cumplir la legislación de la época de la Guerra Fría. Así es la Ley de Producción de Defensa. Dar a los militares una autoridad más amplia para utilizar sus productos, incluso si la empresa no lo aprueba.
Amody dijo el jueves: «Esas dos últimas amenazas son inherentemente contradictorias: una nos etiqueta como un riesgo para la seguridad; la otra etiqueta a Claude como esencial para la seguridad nacional». Dijo que espera que el Pentágono reconsidere el valor de Claude para el ejército, pero si no, Anthropic «trabajará para hacer una transición sin problemas a otro proveedor».
—-
El periodista de AP Konstantin Toropin contribuyó a este informe.















