Home Noticias ¡Objeto AI, su señoría! Los jueces de inmigración están utilizando chatbots para...

¡Objeto AI, su señoría! Los jueces de inmigración están utilizando chatbots para revisar y redactar fallos para abordar los atrasos judiciales sin precedentes

8
0

Los jueces de inmigración están utilizando inteligencia artificial para ayudar a redactar fallos y han recibido permiso de los funcionarios para revisar sus decisiones mediante chatbots.

Los jueces en casos de inmigración han sido capacitados para utilizar una versión limitada de la herramienta AI Copilot de Microsoft para prepararse para audiencias y redactar fallos marco.

El sistema de justicia británico sufre una acumulación récord de quejas de inmigración, lo que retrasa los intentos del gobierno de deportar a inmigrantes ilegales.

El número de solicitantes de asilo que apelaron sus solicitudes rechazadas casi se duplicó el año pasado a 104.400.

Quienes se opongan pueden alojarse en alojamientos financiados por los contribuyentes, incluidos hoteles.

En febrero, un asesor del gobierno dijo que la IA debería utilizarse para comprender el riesgo de liberar a los delincuentes.

Martyn Evans, presidente de la Comisión de Política Penal y Sentencias, dijo que la IA debería tener un “papel” en el sistema de justicia penal y podría ser utilizada por los jueces que deciden si encarcelan a los delincuentes.

Y el año pasado, el Ministro de Justicia, David Lammy, dijo que el sistema estaba “poniendo a prueba la transcripción en los juzgados y tribunales… y en la Cámara de Inmigración y Asilo algunos jueces la están utilizando para ayudar a formular notas y escribir comentarios”.

Los jueces de inmigración han recibido capacitación sobre el asistente de inteligencia artificial Copilot de Microsoft

El Ministro de Justicia, David Lammy, dijo anteriormente que

El Ministro de Justicia, David Lammy, dijo anteriormente que “algunos jueces” estaban utilizando IA “para ayudar en la formulación de notas y comentarios”.

Ahora El observador ha informado que los materiales de capacitación alientan a los jueces a utilizar la IA para crear un “esquema del caso” (una descripción general de las pruebas de las partes) y un “resumen del paquete”, que crea una cronología de los eventos y describe el caso de cada parte.

Según se informa, también puede hacer una lista de las cuestiones en disputa y utilizarla para crear un “modelo de decisión”.

En un vídeo de formación, Lord Justice Dingemans, presidente de alto rango de los tribunales, dijo que los jueces podrían utilizar la IA y su “árbol de decisiones” para producir resúmenes de sus conclusiones sobre temas como el anonimato, los antecedentes del caso, las declaraciones de los testigos y los argumentos.

Y añadió: “Todo este trabajo se hace con antelación”. “Significa que será un mejor juez en la audiencia porque tendrá control total de la situación”.

Se espera que los jueces tomen sus decisiones dentro de las dos semanas posteriores a la audiencia. Se les ha dicho que no pueden utilizar la IA para realizar análisis y que son los únicos responsables de la sentencia.

Sin embargo, un chatbot puede verificar la decisión basándose en un resumen de la evidencia y los aportes.

También se puede utilizar para “comentar en qué medida la decisión aborda las cuestiones planteadas en las pruebas y presentaciones y destaca cualquier omisión”.

El Servicio de Juzgados y Tribunales de HM dijo que AI no contribuiría al análisis o ponderación de las pruebas ni a los argumentos presentados.

Dijo que los chatbots podrían usarse para convertir las grabaciones de audio de los jueces en texto y que el juez las revisaría antes de su publicación.

Un portavoz dijo que el HMCTS acogió con satisfacción el “uso apropiado de la inteligencia artificial para respaldar un sistema judicial eficiente y eficaz”.

“Si bien la tecnología puede ayudar con parte del trabajo legal y las tareas administrativas asociadas, no puede reemplazar el juicio crítico y la responsabilidad necesarios para tomar decisiones en los casos”.

En octubre, un abogado de inmigración fue acusado de utilizar inteligencia artificial para preparar un caso de asilo después de que supuestamente confundió a un juez al citar casos que eran “completamente ficticios” o “completamente irrelevantes”.

Chowdhury Rahman utilizó software como ChatGPT para preparar su investigación jurídica, según escuchó un tribunal.

Se descubrió que el veterano abogado de inmigración no solo utilizó IA para preparar su trabajo, sino que también “no realizó controles de precisión adecuados después”.

Enlace de origen

Previous articleUConn vs Michigan: Cómo ver el partido del campeonato nacional masculino de la NCAA de esta noche en vivo sin cable
Next articleCómo pasaron los Dodgers las primeras horas después de ganar la Serie Mundial
Eliseo Ortiz
Eliseo Ortiz es un periodista muy respetado con más de 23 años de experiencia dedicada en la cobertura de noticias. A lo largo de su destacada carrera, Eliseo ha demostrado una gran experiencia en la cobertura de una amplia gama de temas críticos, incluyendo política, asuntos sociales, desarrollos económicos y eventos actuales importantes. Su enfoque meticuloso en la investigación y su compromiso constante con un periodismo equilibrado y objetivo le han valido un amplio reconocimiento y confianza dentro de la industria mediática. El trabajo de Eliseo se caracteriza por un análisis profundo y una comprensión aguda de las complejas dinámicas que dan forma al panorama informativo actual. Proporciona a los lectores una cobertura precisa, oportuna y completa que contribuye a informar el debate público y promover una perspectiva equilibrada sobre los temas de mayor relevancia. Su voz autorizada y sus altos estándares éticos lo han convertido en una pieza fundamental de la sección de Noticias y un colaborador senior valioso para nuestra publicación. Contacto: +34 699 528 374 Correo electrónico: eliseo.ortiz@wradio.com.pa

LEAVE A REPLY

Please enter your comment!
Please enter your name here