Por Sona Ghosh, Bloomberg
El chatbot de inteligencia artificial Claude de Anthropologie PBC y las aplicaciones orientadas al consumidor relacionadas cayeron el lunes temprano, y la startup dijo que se vio abrumada por una «demanda sin precedentes» de sus servicios la semana pasada.
Alrededor de 2.000 usuarios informaron de una interrupción del servicio de inteligencia artificial en la nube en el punto álgido de la interrupción, alrededor de las 6:40 a. m., hora de Nueva York, según el sitio web de monitoreo de servicios Downdetector. Anthropic dijo en un comunicado en WhatsApp que las «superficies orientadas al consumidor» como claude.ai y la aplicación de la compañía estaban fuera de línea. Las empresas que han integrado los modelos de IA de Claude en sus propios sistemas no se ven afectadas.
«Apreciamos la paciencia de todos mientras trabajamos para volver a poner todo en línea durante la demanda sin precedentes que experimentó Claude la semana pasada», dijo Anthropic en un comunicado. A las 10:50 a. m., hora de Nueva York, la compañía dijo que la interrupción se había resuelto y que todos los sistemas estaban operativos, según un sitio web de actualización de estado.
Anthropic ha visto un mayor uso de sus servicios mientras disputa el uso potencial de su tecnología para desarrollar vigilancia masiva y armas autónomas con el Departamento de Defensa de Estados Unidos. El Pentágono ha declarado Anthropic como un riesgo para la cadena de suministro, una medida sin precedentes contra una empresa estadounidense que amenaza con profundas consecuencias para su negocio. El número de usuarios gratuitos de la nube ha crecido más del 60% desde enero, y los clientes de pago se han más que duplicado desde octubre, según Anthropic.
Anthropic ha estipulado que sus productos no se utilizarán para monitorear a los estadounidenses ni desarrollar armas totalmente autónomas, y dijo el viernes que «ninguna intimidación o castigo por parte del Departamento de Guerra cambiará nuestra posición». La compañía ha prometido impugnar cualquier notificación oficial de que ha sido designada como un riesgo para la cadena de suministro, y su director ejecutivo, Dario Amodei, calificó la medida de «represalia y punitiva» en una entrevista con CBS News.
Horas después de que Anthropic fuera declarado un riesgo para la cadena de suministro, su rival más grande OpenAI acordó desplegar sus propios modelos de IA dentro de la red clasificada del Departamento de Defensa, diciendo que había llegado a un acuerdo que refleja los principios de la empresa que prohíben la vigilancia masiva nacional y la «responsabilidad humanitaria por el uso de la fuerza, incluidos los sistemas de armas autónomos».
OpenAI, al defender su nuevo contrato, dijo que ha incorporado varias salvaguardas en su contrato que funcionarán para garantizar que sus modelos se utilicen y traten como parte de la implementación. Pero algunos ya estaban en línea durante el fin de semana instando a los usuarios a cancelar sus suscripciones a ChatGPT como resultado del acuerdo.
Mientras tanto, la aplicación Cloud ha encabezado la App Store de Apple Inc. durante varios días y los trabajadores de Silicon Valley se han manifestado en torno a la posición de la empresa.















