Los jueces reciben autorización para usar ChatGPT en fallos legales

38

Un brazo robot usando un mazo de juez.

Los robots pueden ayudar a determinar su destino legal si termina en un tribunal británico. La Oficina Judicial del Reino Unido emitió una guía el martes que permite a los jueces use ChatGPT y otras herramientas de IA para escribir resoluciones legales y realizar otras tareas.

“El uso de la Inteligencia Artificial (IA) en toda la sociedad continúa aumentando, al igual que su relevancia para el sistema judicial y judicial. ”, dijo la Oficina Judicial, que supervisa a jueces, magistrados y miembros de los tribunales en Inglaterra y Gales, en un declaración. “La guía es el primer paso en un conjunto propuesto de trabajo futuro para apoyar al poder judicial en sus interacciones con la IA”.

Publicidad

Es un cambio que puede sorprender a cualquiera que haya estado prestando atención a la tambaleante introducción de la IA en nuestros diversos sistemas legales. este año, dos abogados en Nueva York fueron multados con 5.000$ después de que presentaron documentos legales escritos por ChatGPT, en los cuales la IA inventó varias citas y citas imaginarias. En octubre, condenado Fugees rapero Prakazrel “Pras” Michél dijo que su ex abogado estropeó su juicio con un argumento final escrito por AI.

Publicidad

Pero las historias sobre los peligros potenciales de la IA no han impedido que abogados y otros funcionarios se sumerjan de cabeza en esta tecnología.

Publicidad

Esto es especialmente cierto en el Reino Unido, donde los jueces parecen entusiasmados con la tecnología. En septiembre, el juez Birss del Tribunal de Apelaciones de Inglaterra y Gales utilizaron ChatGPT para resumir teorías legales con las que no estaba familiarizado y copiaron y pegaron los resultados en una resolución oficial. Birss llamado la IA a “muy útil” herramienta.

el guía despeja el camino para que los jueces británicos experimenten con la tecnología, aunque la Oficina Judicial sí sugirió algunos límites a la IA, reconociendo su potencial escollos.

Publicidad

El Poder Judicial señaló que las respuestas de IA “pueden ser inexactas, incompletas, engañosas o sesgadas” y sugirió que ChatGPT y otros modelos en grandes idiomas “son una forma deficiente de realizar investigaciones para encontrar nueva información que no se puede verificar”. La guía también recomendó que los jueces verifiquen la exactitud de La IA responde antes de que, ya sabes, adopte decisiones que alteren el curso de la vida de las personas. Una muy buena idea, por cierto.

La guía también advierte contra las preocupaciones de privacidad, señalando que las empresas de inteligencia artificial cosechan los resultados de las interacciones de los usuarios. La Oficina Judicial dijo que los jueces deberían supongamos que escribir algo en la interfaz de un chatbot es lo mismo que publicarlo para que todo el mundo lo vea.

Publicidad

En general, las seis páginas de orientación proporcionan detalles tan básicos sobre la tecnología que está claro que el poder judicial asume que algunos jueces no tienen ningún conocimiento sobre inteligencia. Dado lo astronómico en juego, uno debe preguntarse si es una buena idea dejar que los jueces se vuelvan locos con la IA con menos de 2.000 palabras de suaves recomendaciones dirigiendo sus nuevos mazos robóticos.

Este contenido ha sido traducido automáticamente del material original. Debido a los matices de la traducción automática, pueden existir ligeras diferencias. Para la versión original, haga clic aquí.

Leave A Reply

Your email address will not be published.