Por Khari Johnson, calmatters
La multa parece ser la más grande de las invenciones de IA de un tribunal de California y vino con uno Opinión brillante Se inventaron los gastos de 21 de 23 citas de casos que se citaron en la tarea de apertura del abogado. También encontró que numerosos fuera de los tribunales estatales y federales confrontaron a los abogados por la cita de una autoridad legal falsa.
“Por lo tanto, publicamos esta opinión como una advertencia”, continuó. “En pocas palabras, no hay breve, suplicante, solicitado u otro documento presentado en la corte debe contener citas, independientemente de si el abogado que no fue leído y revisado personalmente para la presentación de la declaración de culpabilidad”.
La declaración publicada hace 10 días en el segundo tribunal de apelación del Tribunal de Apelaciones de California por el Tribunal de Apelaciones del Tribunal de Apelaciones es un claro ejemplo de por qué las autoridades legales estatales regulan el uso de la IA en el poder judicial. El Consejo de Estado del Estado hace dos semanas Pautas emitidas según las cuales se requieren jueces y empleados de la corte Para prohibir la IA generativa o para adoptar una guía de uso de IA generativa antes del 15 de diciembre. Mientras tanto, la Asociación de Abogados de California está considerando si su código de conducta debe fortalecerse para tener en cuenta varias formas de IA de acuerdo con una solicitud de la Corte Suprema de California el mes pasado.
El abogado de la región de Los Ángeles, que fue castigado la semana pasada con una multa de Amir Mostafavi, le dijo a la corte que no había leído el texto generado por el modelo de IA. Pasar la prueba de barra. Un comité de tres jueces lo castigó debido a una queja descuidada, violó las reglas de la corte, citó casos falsos y desperdició el tiempo de la corte y el dinero del contribuyente después de la opinión.
Mostafavi le dijo a Calmatters que escribió la apelación y luego usó Chatgpt para tratar de mejorarlos. Dijo que no sabía que agregaría citas de otoño o inventaría cosas.
Considera que es poco realista, esperar que los abogados no usen IA. Se ha convertido en un instrumento importante cuando las bases de datos en línea reemplazaron en gran medida las bibliotecas de ala correcta, y hasta que los sistemas de IA detengan la alucinación de información falsa, propone abogados que usan IA para cuidar.
“Mientras tanto, tendremos algunas víctimas, tendremos algún daño, tendremos algunos restos”, dijo. “Espero que este ejemplo ayude a otros a no caer en el hoyo. Pigo el precio”.
La multa que Mostafavi exhibió es el castigo más costoso que un abogado de un tribunal estatal de California y una de las multas más altas que se emitieron a través del uso de abogados de AI, según Damien Charlotin, que ha estado enseñando una clase sobre KI y la ley en una escuela de negocios en París. Él Pista Los casos de abogados citan casos falsos principalmente en Australia, Canadá, Estados Unidos y el Reino Unido.
En un caso generalizado en mayo, un juez del Tribunal de Distrito de los Estados Unidos en California, en California Designados dos firmas de abogados para pagar $ 31,100 de los defensores y la Corte de Costos asociados con el uso de “investigación generada por Schein a”. En esta decisión, el juez describió la sensación de ser inquieto, citaron materiales casi falsos en una orden judicial y dijo: “Es necesario un fuerte elemento disuasorio para garantizar que los abogados no sucumban a esta simple abreviatura”.
Charlotin cree que los tribunales y el público deberían esperar un aumento exponencial en estos casos en el futuro. Cuando comenzó a buscar solicitudes judiciales con IA y casos falsos a principios de este año, cumplió algunos casos al mes. Ahora ve algunos casos al día. Los modelos de lenguaje grande indican con confianza la incorrección como hechos, especialmente si no hay datos de apoyo.
“Cuanto más difícil sea su argumento legal, más el modelo tenderá a alucinar porque intentará complacerlo”, dijo. “La confirmación de la confirmación comienza aquí”.
A Análisis de mayo de 2024 Von Reglab de la Universidad de Stanford descubrió que tres de cada cuatro abogados para usar IA generativa en su práctica, crean algunas formas de IA en una de las tres preguntas. Reconociendo material falso que se cita en presentaciones legales Podría ser más difícil si los modelos crecen en tamaño.
Otro rastreador De casos en los que los abogados citan una autoridad legal no existente debido al uso de IA, 52 de estos casos identifican dichos casos en California y más de 600 en todo el país. Se esperará esta cantidad en el futuro cercano porque la innovación de IA excede la capacitación de abogados, dijo Nicholas Sanctis, un estudiante de derecho de la Facultad de Derecho de la Universidad de Capital en Ohio.
Jenny Wondracek, que dirige el proyecto Tracker, espera que esta tendencia empeore porque todavía se encuentra regularmente a los abogados que no saben que la IA está preparando cosas o que las herramientas de tecnología legal pueden eliminar todos los materiales falsos o falsos generados por los modelos de idiomas.
“Creo que veríamos una reducción si (los abogados) solo entendieran los conceptos básicos de la tecnología”, dijo.
Al igual que Charlotin, sospecha que hay más casos de casos exentos generados por AI al presentar tribunales federales que antes de los tribunales federales, pero la falta de métodos de registro estándar complica verificar esto. Ella dijo que conoce casos falsos que con mayor frecuencia se reunieron bajo abogados sobrecargados o personas que representan al tribunal de familia.
Sospecha que el número de argumentos presentados por los abogados que usan IA y continúan aumentando los casos falsos, pero no solo participan en abogados en la práctica. En las últimas semanas ha documentado tres Casos de jueces Refiriéndose a una autoridad legal falsa en sus decisiones.
Cómo California está considerando cómo se pueden tratar las citas de citas generativas y falsas de casos Enseñe a los estudiantes de derecho cómo evitar cometer el mismo error.
Mark McKenna, codirector del Instituto de Tecnología, Derecho y Política de la UCLA, elogió multas como contra Mostafavi como un castigo de los abogados por “una abdicación de su responsabilidad como parte que representa a alguien”. Él cree que el problema “peor antes de que mejore” porque ha habido prisa bajo las escuelas correctas y las firmas de abogados privadas para adoptar la IA sin pensar en la forma correcta.
Andrew Selfst, profesor de la Facultad de Derecho de la UCLA, está de acuerdo y señaló que los empleados que trabajan para jueces son los últimos graduados de la facultad legal, y los estudiantes son bombardeados con el mensaje de que tienen que usar IA o permanecer atrás. Pedagogos y otros especialistas Registrar una presión similar.
“Esto se empuja por todas nuestras gargantas”, dijo. “Está impulsado en empresas y escuelas y en muchos lugares, y aún no hemos tratado las consecuencias”.
Publicado originalmente: