Opena dijo que una demanda alegaba que el joven que se suicidó este año confió en el chatbot para recibir consejos, entrenaría a Chatgt para identificar signos de angustia mental.

Chatgipiti recibirá capacitación para reconocer y responder a la intención del suicidio, incluso en largas conversaciones que permiten a los usuarios aflojar su seguridad y proporcionar respuestas nocivas Dijo el martes.

El mismo día, Opensa y su director ejecutivo Sam Altman presentaron un caso contra los padres de Adam Rain de 16 años, ChatGPT la ayudó a planificar su muerte.

«En este momento difícil, estamos expresando nuestra profunda simpatía por la lluvia y revisando la presentación», dijo el portavoz de Operai a la BBC.

Según el litigio de la BBC, un estudiante de California se quitó la vida en abril durante meses después de discutir su vida en abril con chatbat de inteligencia artificial (IA) durante meses. Sus padres alegaron que el chatbat había confirmado las ideas de suicidio de sus hijos y había dado información detallada sobre las formas de dañarlo.

A medida que aumenta el uso de IA, algunos usuarios se han inclinado hacia los chatbots para el asesoramiento y el entrenamiento de la vida, así como la escritura y la codificación, dijo en la publicación del blog de OpenAI, que no resuelve el reclamo directamente.

«A veces nos enfrentamos a personas con angustia mental y mental grave», agregó.

«Sin embargo, creemos que los casos desgarradores recientes de personas que usan ChatGpiti en medio de crisis serias son fuertemente fuertemente fuertemente y ahora es importante compartirlo más».

La organización basada en San Francisco también ha enumerado las defensas existentes construidas en su chatbot junto con cambios planificados.

Entre ellos, los padres introducirán nuevos controles para monitorear el uso de ChatGPT de sus hijos.

Enlace de origen