Los creadores de la nube de chatbot de inteligencia artificial (IA) afirman haber atrapado a piratas informáticos del gobierno chino utilizando la herramienta para lanzar ataques cibernéticos automatizados contra casi 30 organizaciones globales.

Anthropic dijo que los piratas informáticos han falsificado el chatbot en nombre de la investigación sobre ciberseguridad.

Compañía El reclamo se hizo en una publicación de blog. Es «la primera campaña de ciberespionaje orquestada por IA».

Pero los escépticos cuestionan la exactitud de esa afirmación y el motivo detrás de ella.

Anthropic dijo que descubrió los intentos de piratería a mediados de septiembre.

Haciéndose pasar por trabajadores legítimos de seguridad cibernética, los piratas informáticos asignaron al chatbot pequeñas tareas automatizadas que, cuando se combinaron, crearon una «campaña de espionaje altamente sofisticada».

Los investigadores de Anthropic dijeron que tenían «alta confianza» en que las personas que llevaron a cabo los ataques eran un «grupo patrocinado por el estado chino».

Dijeron que los humanos han elegido objetivos como grandes empresas de tecnología, instituciones financieras, empresas de fabricación de productos químicos y agencias gubernamentales, pero la empresa no quiso ser más específica.

Los piratas informáticos crearon un programa no especificado utilizando la ayuda de codificación de Claude para «comprometer de forma autónoma un objetivo seleccionado con una mínima intervención humana».

Anthropic afirma que el chatbot ha violado con éxito varias organizaciones anónimas, extrayendo datos confidenciales y clasificándolos para obtener información valiosa.

La compañía dijo que desde entonces prohibió a los piratas informáticos usar el chatbot y notificó a las empresas afectadas y a las autoridades.

El anuncio de Anthropic es quizás el ejemplo más destacado de empresas que afirman que los malos actores están utilizando herramientas de inteligencia artificial para realizar ataques automatizados.

Ese es el tipo de riesgo que preocupa a muchos, pero otras empresas de inteligencia artificial también han afirmado que piratas informáticos de estados-nación han utilizado sus productos.

En febrero de 2024, OpenAI, en colaboración con expertos cibernéticos de Microsoft, publicó una entrada de blog que decía que había perturbado a cinco actores afiliados al estado, incluidos algunos de China.

«Estos actores normalmente intentan utilizar los servicios OpenAI para consultar información de código abierto, traducirla, encontrar errores de codificación y realizar tareas básicas de codificación». La empresa dijo en ese momento..

Así determinó Anthropic que los hackers están vinculados con el gobierno chino en esta última campaña.

Esto se produce cuando algunas empresas de seguridad cibernética han sido criticadas por exagerar los casos en los que los piratas informáticos han utilizado la IA.

Los críticos dicen que la tecnología aún no se puede utilizar para ataques cibernéticos automatizados.

En noviembre, los ciberexpertos de Google Se ha publicado un trabajo de investigación. Destacó la preocupación de que los piratas informáticos pudieran utilizar la IA para crear nuevas formas de software malicioso.

Pero el artículo concluyó que las herramientas no tuvieron tanto éxito y solo se encontraban en la fase de prueba.

La industria de la ciberseguridad, al igual que el negocio de la inteligencia artificial, está dispuesta a decir que los piratas informáticos están utilizando la tecnología para atacar a las empresas y despertar el interés en sus propios productos.

En su publicación de blog, Anthropic sostiene que la respuesta para detener a los atacantes de IA es utilizar defensores de IA.

«Las capacidades que permiten utilizar la nube en estos ataques también son críticas para la ciberdefensa», dijo la compañía.

Y Anthropic admite que el chatbot ha cometido errores. Por ejemplo, creó nombres de usuario y contraseñas de inicio de sesión falsos y afirmó haber recopilado información confidencial que en realidad estaba disponible públicamente.

«Esto sigue siendo una barrera para los ciberataques totalmente autónomos», dijo Anthropic.

Enlace de origen