Después de confiar en ChatGPT para obtener asesoramiento legal, el hecho de que Kim Kardashian no aprobara un examen de derecho público ha renovado el debate sobre los peligros del uso de la inteligencia artificial (IA) generativa en contextos profesionales de alto riesgo. A medida que crece la adopción de la IA en los sectores legal, médico y otros, la experiencia de la estrella de reality pone de relieve la preocupación de que las alucinaciones generadas por la IA puedan socavar la confianza del público, crear responsabilidad legal y confundir tanto a los estudiantes como a los profesionales en ejercicio.

Semana de noticias El representante de Kardashian fue contactado por correo electrónico el viernes para hacer comentarios.

Kim Kardashian no aprueba el examen de la abogacía

El cofundador de Kardashian-Schemes y aspirante a abogado reveló en Feria de la vanidad Entrevistado a principios de este mes, dijo que usó ChatGPT para responder preguntas legales mientras se preparaba para sus exámenes de la facultad de derecho. Según Kardashian, el chatbot de IA a menudo proporcionaba respuestas incorrectas, lo que contribuyó a que reprobara múltiples exámenes legales.

«Utilizo (ChatGPT) para asesoramiento legal, así que cuando necesito saber la respuesta a una pregunta, tomo una foto y la pongo allí. Siempre se equivocan. Eso me hizo reprobar la prueba». Todas las ferias La actriz describe cómo la respuesta confiada, aunque equivocada, de la herramienta la lleva directamente a su ruina.

La franqueza del hombre de 45 años llamó la atención del público sobre una tendencia más amplia: los estudiantes y profesionales del derecho utilizan cada vez más herramientas de inteligencia artificial generativa como ChatGPT para investigar, redactar resúmenes y estudiar para exámenes. A pesar de estar diseñadas como máquinas de predicción en lugar de bases de datos objetivas, estas herramientas a menudo proporcionan información que parece lógica pero inexacta. La profesión jurídica ha documentado varios casos de abogados que presentaron documentos ante los tribunales que contenían citaciones inexistentes generadas por IA, con acciones disciplinarias y sanciones tanto en Estados Unidos como a nivel internacional.

Insegura sobre sus ambiciones legales, Kardashian ha anunciado planes para volver a tomar el examen de la barra de California y continuar sus estudios legales, pero su historia ha llevado a los expertos a emitir nuevas advertencias sobre las limitaciones de la inteligencia artificial en entornos legales.

Peligros de ChatGPT

Duncan Levine, exfiscal y profesor de derecho en la Universidad de Harvard, dijo: «Kim Kardashian dice que está usando ChatGPT para obtener asesoramiento legal es como decir que has contratado a una Magic 8 Ball como co-abogada. La IA puede tener confianza y al mismo tiempo estar completamente equivocada, y esa es una combinación peligrosa desde el punto de vista legal». Semana de noticias.

Añadió que «el riesgo no es que esté estudiando tecnología», sino que sus millones de seguidores «pueden pensar que la experiencia jurídica está a sólo un paso de distancia».

«Pasar el examen requiere juicio, ética y experiencia: tres cosas: no hay algoritmo. ChatGPT puede escribir un buen argumento final, pero no puede mantenerte fuera de la cárcel», dijo Levine.

Matthew Sagg, profesor de derecho de la Facultad de Derecho de la Universidad de Emory, enfatizó en un comunicado Semana de noticias Que «la IA productiva puede ser una herramienta muy útil para los abogados, pero sólo en manos de personas que realmente conocen la ley».

«Todo lo que ChatGPT te dice sobre la ley suena razonable, pero es peligroso si no tienes alguna habilidad o contexto para ver lo que falta y lo que es alucinante», dijo.

Según OpenAI, creador de ChatGPT, las alucinaciones son «casos en los que un modelo produce con confianza una respuesta que no es cierta».

El abogado y experto en inteligencia artificial Logan Brown informó esta información Semana de noticias Que «ChatGPT (y otras herramientas de inteligencia artificial) pueden estar equivocados, y a menudo lo están».

«Estos sistemas parecen seguros a pesar de estar prácticamente cerrados y pueden ser peligrosos si la gente confía en ellos para asuntos serios como asesoramiento legal», afirmó. «Usar ChatGPT como autoridad de elección legal sin una guía confiable es realmente arriesgado. Es exactamente por eso que tenemos colegios de abogados».

El profesor de derecho de la Facultad de Derecho de la Universidad de Colorado, Harry Sarden, añadió: «Cuando alguien tiene una pregunta legal, la mejor opción es preguntarle a un abogado, si hay uno disponible. Sin embargo, las investigaciones muestran que alrededor del 80 por ciento de los estadounidenses tienen problemas legales pero no tienen acceso a abogados o no pueden pagarlos. En situaciones como ésta, ChatGPT probablemente no sea una opción perfecta para mejorarlas legalmente. Las preguntas, y ciertamente no son tan buenas como las de un abogado, tan modernas como ChatGPT, las herramientas de IA generalmente brindan respuestas bastante razonables a preguntas legales básicas».

Aclaró: «Para ser claros, no recomiendo usar IA en asuntos legales complejos, y en esos casos, la gente siempre debe consultar a un abogado. Pero para cuestiones legales básicas en las que un abogado no es una opción, la IA tiende a ser una mejora con respecto a la alternativa, que a menudo son conjeturas de amigos y familiares o un mal asesoramiento legal».

Consecuencias de la sobredependencia

Mark Bartholomew, profesor de derecho y vicedecano de investigación y desarrollo docente de la Facultad de Derecho de la Universidad de Buffalo, dijo Semana de noticias Que Kardashian está «haciendo lo correcto», pero «el peligro es la dependencia excesiva».

«Como en otros campos, la IA está perturbando la educación jurídica. No hay manera de desconectar completamente la educación jurídica de la IA», explicó. «La IA alucina: inventa casos y puede equivocarse en la ley. Por lo tanto, cualquier estudiante de derecho o abogado responsable debe verificar las respuestas del chatbot a sus preguntas. Además, ser abogado implica algo más que encontrar respuestas. Los abogados tienen que desarrollar sus habilidades leyendo tantos casos, analizando leyes, formulando argumentos, etc., que pueden desarrollar preocupaciones sobre la ley. Como abogado, a veces no hay otra alternativa que hacer su propio trabajo».

Thomas R. de la Universidad de Drexel. La Dra. Anat Leor, profesora asistente de derecho en la Facultad de Derecho de Cline, se hizo eco de la advertencia sobre la dependencia: «Cuando (Kardashian) habla de esa parte de la entrevista, inmediatamente dice que ‘siempre se equivocan’ y sugiere que el uso de la herramienta le ha fallado. Su combinación de confiar en ella y confiar en ella para responder correctamente. Esa es una advertencia importante para cualquiera que use ChatGPT en situaciones de alto riesgo, como estudiar para el colegio de abogados o cualquier examen con consecuencias reales».

El «problema» emergente de la IA

Frank Pasquale, profesor de derecho en Cornell Tech y Cornell Law School, señaló que los documentos legales inexactos generados por IA «ya son un gran problema».

«Muchos abogados han sido autorizados a citar casos falsos, incluso en Estados Unidos y Australia. El problema sólo empeorará a medida que se propague la IA», afirmó.

Bartholomew estuvo de acuerdo y dijo: «Ya estamos viendo muchos problemas con el uso de la IA para crear documentos legales. El problema es que los abogados dependen de las respuestas de los chatbots sin examinarlas y luego dan escritos legales que contienen tonterías. Los jueces están empezando a imponer mandatos judiciales contra este tipo de ley para hacer cumplir la pereza de sus propias reglas y utilizar la pereza de la ley».

¿Qué pasa después?

A pesar de los riesgos, los expertos legales coinciden en que la IA generativa probablemente seguirá siendo un componente importante de la práctica profesional.

El consenso es que las herramientas de IA sólo deberían servir como punto de partida (sujetas a un riguroso escrutinio humano) y no como sustituto de un asesoramiento jurídico competente. Para estudiantes, profesionales y el público en general, la experiencia de Kardashian subraya la necesidad crítica de abordar los resultados de la IA con escepticismo y defender los estándares tradicionales de responsabilidad profesional donde están en juego vidas y medios de subsistencia.

Enlace de origen