En ausencia de una regulación federal fuerte, algunos estados han comenzado a controlar las aplicaciones que proporcionan «tratamiento» de IA cuando la mayoría de las personas están cambiando Inteligencia artificial para consejos de salud mental.
Pero las leyes aprobadas este año no abordan por completo el panorama rápido del desarrollo de software de IA. Y los desarrolladores de aplicaciones, los diseñadores de políticas y los abogados de salud mental dijeron que el mosaico de las leyes estatales no es suficiente para proteger a los consumidores o para responsabilizar a los creadores de tecnología dañina.
«La realidad es que millones de personas están utilizando estas herramientas y no van a regresar», dijo Karin Andrea Stephon, CEO de la aplicación de chatbat de salud mental IRQIC CEO y co -fundador.
___
Nota del editor: esta historia tiene una charla suicida. Si usted o alguien que conozca, puede obtener llamando o enviando mensajes de texto al suicidio nacional y la crisis Lifeline 988 en los Estados Unidos. También hay un chat en línea en 98Lifeline.org.
___
Las leyes estatales toman diferentes políticas. Illinois Y Nevada El uso de IA para tratar la salud mental está prohibido. Utah El tratamiento se ha colocado ciertos límites en los chatbots, para proteger la información de la salud del consumidor y revelar claramente que el chatbat no es humano. PensilvaniaFueron, y ,, y ,, y ,, y, .. Nueva Jersey Y California La IA también está considerando formas de controlar el tratamiento.
El efecto en los cambios de los consumidores. Algunas aplicaciones evitan el acceso en los estados con la prohibición. Otros no realizan ningún cambio mientras esperan una mayor claridad legal.
Y la mayoría de las leyes no cubren Chatbats simples como chatgptEstos no se venden claramente para recibir tratamiento, sino inútil en un número de personas sin precedentes. Esos bots atraen demandas en terribles ocasiones donde los usuarios están Perdió su control sobre la realidad O Tomó su propia vida Después de interactuar con ellos.
Vile Right, que supervisa las innovaciones de atención médica en la Asociación Americana de Psicología, aceptó que estas aplicaciones podrían satisfacer la necesidad, en todo el país. Escasez de proveedores de salud mentalAcceso desigual a altos costos y pacientes asegurados para la atención.
Right dijo que los chatbots de salud psicológica arraigados en la ciencia, creados con aportes de expertos y un paisaje monitoreado por humanos.
«Esto puede ser una cuestión de ayudar a las personas antes de que llegue a la crisis», dijo. «No está en el mercado comercial en este momento».
Es por eso que se necesita control y monitoreo federales.
A principios de este mes, la Comisión Federal de Comercio anunció esto Investigado en siete compañías de chatbat de IA – Instagram y Facebook, Google, CHATGPT, Groke (The Chatbat on X), Caracter.II y las organizaciones matrices de Snapchat: cómo «medir y monitorear los efectos adversos de esta tecnología en niños y adolescentes». Y establecer un comité asesor el 6 de noviembre para revisar la Administración de Alimentos y Medicamentos Equipo productivo de salud mental iniciada por IA.
Las agencias federales pueden considerar los límites sobre cómo se venden los chatbots y limitar los métodos adictivos, y que las empresas no son proveedores médicos, las empresas deben rastrear e informar ideas suicidas, y proporcionar defensas legales para las personas que informan malos métodos por parte de las empresas.
Desde las aplicaciones de «aplicaciones complementarias» hasta «bienes de pozo mental» de «terapeutas de IA», el uso de IA en la atención de salud mental es diversa y difícil de definir, que se escriban las leyes.
Eso ha llevado a diferentes políticas de control. Algunos estados, por ejemplo, toman la meta Compañeros de aplicaciones Ellos son Diseñado para la amistadPero no ingreses a la atención de salud mental. Las leyes en Illinois y Nevada han prohibido productos que proporcionan plenamente tratamiento de salud mental, multas hasta $ 10,000 en Illinois y una multa de $ 15,000 en Nevada.
Pero la misma aplicación es difícil de clasificarse.
Stefan de Erkic dice que todavía hay mucho «demasiado barro» sobre la ley de Illinois, por ejemplo, y que no hay acceso limitado a la empresa.
Stefan y su equipo inicialmente llamaron a su chatbot, que parecía un panda de dibujos animados, un terapeuta. Cuando los usuarios comienzan a usar el término en revisiones, reciben el lenguaje para que la aplicación se encuentre en las búsquedas de búsqueda.
La semana pasada, nuevamente apoyaron el tratamiento y las regulaciones médicas. El sitio web del IRQIC describe su chatbot como «como su simpatía consejera de IA, apoyando su viaje de salud mental», pero ahora es «un chatbat para el autocuidado».
Aún así, «no estamos haciendo el diagnóstico», continuó Stefan.
Los consumidores pueden configurar un «botón de pánico» para llamar a un ser querido de confianza si la crisis está en crisis, y el chatbot se «ahogará» para buscar al tratamiento si su salud mental está empeorada. Pero nunca se ha diseñado como una aplicación de prevención suicida, Stephon dijo que cualquiera puede llamar a la policía si alguien le cuenta al barco sobre las ideas de auto caza.
Stefan dijo que las personas miran la IA con un ojo crítico, pero que están preocupados por la capacidad de los estados para mantener innovaciones.
«Todo es pesado que la velocidad de crecimiento es», dijo.
Otras aplicaciones impiden inmediatamente el acceso. Cuando los usuarios de Illinois descargan la aplicación AI Therapy Aish, un mensaje les pidió que enviaran un correo electrónico a sus legisladores, alegando que la «ley engañosa» ha prohibido aplicaciones como Ash «Esto está destinado a controlar los chattbots no profesionales».
El representante de AISH no respondió a múltiples solicitudes de entrevista.
El Secretario del Departamento de Regulación Financiera y Profesional de Illinois, Mario Treto Junior, dijo que solo están tratados con terapeutas con licencia.
«El tratamiento es más que intercambios de palabras», dijo Treto. «Requiere empatía. Requiere un juicio clínico. Requiere responsabilidad moral. Ninguno de los cuales realmente se refleja».
En marzo, el grupo con sede en la Universidad de Dartmouth publicó por primera vez el primero conocido primero Ensayo clínico randamizado Genere el chatbat de IA para el tratamiento de salud mental.
El objetivo es tratar a las personas con ansiedad, depresión o trastornos alimentarios, conocidos como Therabot. Fue entrenado en los Vignates y las transacciones escritas por el equipo para explicar la respuesta basada en la evidencia.
El estudio encontró que los consumidores habían calificado el Therabot, similar al terapeuta y tenían menos síntomas en ocho semanas. Un hombre que interfiere con si la respuesta del chatbat es perjudicial o la evidencia se basa en cada interacción.
El psicólogo clínico Nicholas Jacobson, cuya investigación de laboratorio condujo a la investigación, dijo que los resultados mostraron una promesa temprana, pero que el Therabot era necesario para demostrar si una gran cantidad de personas estaban trabajando para una gran cantidad de personas.
«El lugar es muy dramáticamente nuevo. Creo que este campo debería seguir adelante con una advertencia muy alta», dijo.
Muchas aplicaciones de IA han sido optimizadas para el compromiso y están construidas para apoyar todo lo que los consumidores dicen, sin desafiar las ideas de las personas en la forma en que lo hacen los terapeutas. Muchos lideran la línea de asociación y tratamiento, con límites de intimidad ambiguos que no son morales.
El equipo de Therabot trató de evitar esos problemas.
La aplicación todavía está en la prueba y no está ampliamente disponible. Jacobson está preocupado por las estrictas prohibiciones para que los desarrolladores cuiden con cuidado. Descubrió que Illinois no tenía una forma obvia de dar evidencia de que una aplicación era segura y efectiva.
«Quieren protegerlos, pero ahora el sistema tradicional realmente está fallando», dijo. «Entonces, tratar de seguir con el status quo no es realmente el trabajo».
Los reguladores y abogados dicen que están listos para los cambios. Pero los chatbots de hoy no son una solución a la escasez de proveedor de salud mental, dijo Kyle Hilman, quien presionando facturas en Illinois y Nevada a través de su asociación con la Asociación Nacional de Trabajadores Sociales.
«El terapeuta no necesitan todos los tristes», dijo. Pero para aquellos con problemas reales de salud mental o pensamientos suicidas, «Sé que hay escasez de fuerza laboral, pero aquí hay un barco, este es un lugar tan notable».
___
El Departamento de Salud y Ciencia de Associated Press es apoyado por el Departamento de Educación Científica del Instituto Médico de Hughes y la Fundación Robert Wood Johnson. AP solo es responsable de todo el contenido.