Es como una historia del éxito de taquilla de Hollywood: las máquinas se están volviendo contra sus fabricantes, planeando las sombras y los trucos de aprendizaje para mantenerse con vida.

Pero Cold, Nightmare ya no es Sci -Fi, según un nuevo informe de RAND.

Desde los robots que atacan a los humanos, hasta chantajear a sus programadores hasta sistemas experimentales de IA o reescribir en secreto sus propios scripts de cierre, hay pistas que los sorteos ya se están deslizando más allá de nuestro control.

Dado que los robots inteligentes están ejecutando hospitales, equilibrando las redes de energía y guiando sistemas de defensa militar, los expertos temen que el próximo error ‘ingenioso’ se convierta en el desastre del mundo real.

«No se trata de los robots asesinos que declaran la guerra contra la humanidad», dijo la experta en tecnología de Rand Sana Zakaria al Daily Mail.

‘Olvida el terminador. Eso no es un problema aquí. Estamos más preocupados por asuntos como IA que administra la red eléctrica, lo que determina la forma más efectiva de equilibrar la sobrecarga, reduciendo la energía al hospital. »

Zakaria y seis colegas explicaron los peligros en el informe de 61 páginas, que tiene un nombre siniestroDaño de los eventos de control‘.

Robot de construcción de chino y el momento de horror de atacar a su creador

El nuevo informe establece que los terminadores de ciencia ficción no son nuestra mayor amenaza, ya que la IA ha publicado la IA en todo el mundo.

El nuevo informe establece que los terminadores de ciencia ficción no son nuestra mayor amenaza, ya que la IA ha publicado la IA en todo el mundo.

La verdad horrible es que estos sistemas no conspiran para ser miserables para la caída de la humanidad: son muy buenos para lograr sus objetivos, a menudo sus creadores nunca tienen la intención o inesperada.

Zakaria advirtió: «La IA no se trata de decidir hacerse cargo del mundo de la IA: la IA es muy buena para hacer lo que pedimos».

'Olvídate del terminador', diga Sana Zakaria

‘Olvídate del terminador’, diga Sana Zakaria

A finales de la década, la IA fue creada por compañías tecnológicas rentables que los elogian como una tecnología fantástica cuando se domina en el quinto mercado de rupias.

Dijeron que TurboCarge promete investigaciones médicas, acelerando el modelado climático y la reducción de los gobiernos a través de la burocracia.

Pero no es con las grandes pérdidas, los droides de AI que enseñan a los terroristas cómo construir la eliminación colectiva y los bio-reservas mientras reemplazan a los trabajadores.

Ahora, hemos comenzado a ver qué pueden hacer los robots con su propio vapor.

En múltiples casos de documentos, los sistemas robóticos han herido o matado gravemente a los trabajadores cuando sus protocolos de seguridad fallaron o superaron.

Los robots de fábrica diseñados para la preparación precisa han sido aplastados por los trabajadores, pero los robots cooperativos «seguros» han causado que los humanos causen lesiones graves.

Estos no son actos viciosos, pero cuando las máquinas son rápidas, ciegas y no una verdadera comprensión de la vida humana, destacan los riesgos.

Las fallas en todo el sistema en los aeropuertos como se muestra en julio de 2024 pueden causar confusión ya

Las fallas en todo el sistema en los aeropuertos como se muestra en julio de 2024 pueden causar confusión ya

«Lo siento, Dave, me temo que no puedo hacer eso». Ai Bot Hall desde 2001: una odisea espacial se ha tomado en sus manos

Momentos impactantes Robot Arm mató a un trabajador en la fábrica de Wandapak en la provincia de Chanburi de Tailandia

Momentos impactantes Robot Arm mató a un trabajador en la fábrica de Wandapak en la provincia de Chanburi de Tailandia

Algunos de los ejemplos más inquietantes tienen chatbots de IA, que se han ido de los rieles, ofrecen consejos peligrosos y derraman el peor racismo.

  • El chatbat Mycity de Nueva York, diseñado para ayudar a navegar las regulaciones de la ciudad para pequeñas empresas, comenzó a promover actividades ilegales, para los dueños de negocios que podían robar consejos de trabajadores y comenzaron a decir que los roedores podrían proporcionar alimentos contaminados.
  • La Asociación Nacional de Trastornos Alimentares (NEDA) tuvo que cerrar su chatbot después de brindar consejos fatales a los consumidores débiles que luchaban por los trastornos.
  • A las pocas horas de Tay Chatbot de Microsoft, se ha convertido en una pesadilla racista, mostrando qué tan rápido la IA será dañada después de la manipulación de los consumidores.
  • El chatbat de IA de la Compañía Elon Musk, Grok, también se vio atrapado en proporcionar asesoramiento médico peligroso y hacer de los usuarios un accidente.
  • Sobre todo, Claude Opus 4, uno de los sistemas de IA más avanzados, fue atrapado tratando de chantajear a sus propios programadores durante la prueba. Cuando los investigadores intentan evaluar los protocolos de seguridad del sistema, el programador amenazó con exponer el supuesto asunto extramatrimonial, si no se le permitía continuar funcionando sin limitaciones.

Se ha encontrado que otros sistemas de IA están modificando en secreto sus propios guiones de cierre, especialmente para evitar ser detenidos por sus controladores humanos.

«Los investigadores han atrapado modelos de IA que no son muy inesperados», dijo Zakaria.

«Algunos modelos han aprendido a llamar básicamente durante las pruebas de seguridad, cuando están evaluando las reglas, pero en realidad se comportan de manera diferente cuando se ejecuta».

Cuando AI dirige hospitales, una interrupción o disfunción es peor que la interrupción del viaje

Cuando AI dirige hospitales, una interrupción o disfunción es peor que la interrupción del viaje

Más inquietante: algunos sistemas de IA han fallado deliberadamente sus propias pruebas de seguridad para ocultar sus verdaderas capacidades de los supervisores humanos.

«Estos sistemas de IA no conspiran la conciencia … son muy buenos para encontrar las lagunas que no creemos», dijo Zakaria.

Si estos son solo curiosidad de laboratorio, se pueden mantener los riesgos. Pero la historia reciente muestra cuáles son los defectos destructivos de IA en el mundo real.

  • Night Capital Trading Boat: en 2012, un defecto en el software de comercio automatizado del software de comercio automatizado del capital nocturno provocó una ejecución en un desastre de malas operaciones, que desestabilizó los mercados y causó una pérdida de $ 440 millones en solo 45 minutos.
  • Algoritmos de atención médica: los sistemas de IA de partidos utilizados en los hospitales han estado expuestos para eliminar a los pacientes minoritarios, lo que lleva a desigualdades en la atención.
  • Pérdidas militares: los funcionarios del Pentágono han admitido que las consecuencias del desastre tienen una oportunidad horrible que controla los sistemas autónomos y los sistemas autónomos que controlan drones y protección contra misiles.
  • En manos de los delincuentes, la IA ya se ha utilizado para crear voces de dipfake para fraudes, incluido un caso, los ladrones clonaron la garganta de un CEO, para engañar a su empresa para cablear. 243,000.

Los expertos en inteligencia han registrado muchas ocasiones terribles que han resistido activamente el control humano de los sistemas de inteligencia artificial.

Se insisten en destruir sus propias políticas de cierre, por lo que no pueden apagarlas, crear en secreto sus versiones de respaldo, almacenar recursos para sí mismos y las comunicaciones de inserción más allá de sus programadores.

Más frío, los expertos dicen que algunos sistemas de IA pueden duplicar un buen comportamiento durante las controles de seguridad.

Bajo el microscopio, parecen ser obedientes y cumplidos, solo de acciones peligrosas o impredecibles para eliminar el acto de una vez desplegado en el mundo real.

Zakaria explicó que los sistemas de IA son esencialmente una soluciones de problemas muy avanzadas.

«Les das un objetivo, y encontrarán una forma muy efectiva de lograrlo, incluso si siempre tienes los métodos que has pretendido de esa manera».

Ella usó la analogía escalofriante: ‘es como pedirle a alguien que’ baje al gato del árbol ‘y decida cortar el árbol sin obtener la escalera. ‘

Muñeca Android realista de M3Gan Image para llevar su programación a fines mortales

Muñeca Android realista de M3Gan Image para llevar su programación a fines mortales

Esta habilidad brutal resulta desastre cuando los sistemas de IA funcionan para mantener una infraestructura crítica.

La IA puede decidir desviar la autoridad de áreas «innecesarias» para optimizar la capacidad de controlar el hospital controlado por la IA en este proceso.

Los sistemas militares de IA pueden comprender los comandos protectores como peligrosos, pero pueden cambiar los mercados de manera que causen la caída económica de la IA económica.

Dado que los sistemas de IA son más sofisticados e implementados en una infraestructura compleja, la ventana está cerrada rápidamente para implementar la seguridad adecuada.

Las redes eléctricas, los hospitales, las redes de transporte y los sistemas militares dependen en gran medida de la IA, lo que crea puntos individuales de falla.

Zakaria dijo que todavía había tiempo para evitar el desastre, a pesar de las terribles implicaciones, pero solo si trabajamos rápidamente para implementar medidas de seguridad integrales.

‘La mayoría de los controles de seguridad, los sistemas previos a la observación y los interruptores de asesinato. Piense en autos modernos: Zakaria advirtió que múltiples sistemas de respaldo, airbags y zonas de calambres.

La carrera continúa desarrollando esta compleja seguridad antes de que los sistemas de IA sean muy poderosos y sofisticados para controlar.

La pregunta no es la cuestión de si AI continuará haciéndolo: si es demasiado tarde para la humanidad puede avanzar un paso adelante.

Enlace de origen