La razón insoportable del abogado de Utah presentó un caso falso en la corte después de un error idiota

A Utah El abogado ha sido sancionado por el Tribunal de Apelaciones del Estado después de que se encontró que una presentación que utilizó había utilizado Chatgpt y contenía una referencia a un caso judicial falso.
Richard Bednar, abogado de Durbano Law, fue reprendido por funcionarios después de presentar una ‘petición oportuna de apelación interlocutoria’, que hizo referencia al caso falso.
El caso referenciado, según documentos, era ‘Royer v. Nelson’, que no existía en ninguna base de datos legal y se descubrió que estaba compuesto por ChatGPT.
El abogado opuesto dijo que la única forma en que encontrarían cualquier mención del caso fue mediante el uso de AI.
Incluso llegaron a preguntarle a la IA si el caso era real, señalando en una presentación que luego se disculpó y dijo que era un error.
El abogado de Bednar, Matthew Barneck, dijo que la investigación fue realizada por un empleado y Bednar asumió toda la responsabilidad de no revisar los casos.
Él le dijo El Tribune Salt Lake: ‘Ese fue su error. Él poseía y me autorizó decir eso y cayó sobre la espada.
Según los documentos, el abogado del demandado dijo: «Parece que al menos algunas partes de la petición pueden ser generadas por AI, incluidas las citas e incluso las citas a al menos un caso que no parece existir en ninguna base de datos legal (y solo se puede encontrar en ChatGPT y referencias a casos que no están relacionados con el tema mencionado».

Richard Bednar, abogado de Durbano Law, fue reprendido por los funcionarios después de presentar una ‘petición oportuna de apelación interlocutoria’, que hizo referencia al caso falso

El caso referenciado, según documentos, era ‘Royer v. Nelson’, que no existía en ninguna base de datos legal y se descubrió que estaba compuesto por Chatgpt
El tribunal dijo en su opinión: «Estamos de acuerdo en que el uso de IA en la preparación de alegatos es una herramienta de investigación que continuará evolucionando con avances en tecnología».
«Sin embargo, enfatizamos que cada abogado tiene el deber continuo de revisar y garantizar la precisión de sus presentaciones judiciales».
Como resultado, se le ha ordenado pagar al abogado honorarios de la parte contraria en el caso.
También se le ordenó reembolsar cualquier tarifa que tuviera cargos a los clientes para presentar la moción generada por IA.
A pesar de las sanciones, el tribunal finalmente dictaminó que Bednar no tenía la intención de engañar a la corte.
Dijeron que la oficina de conducta profesional del bar se tomaría el asunto «en serio».
Según el tribunal, el Colegio de Abogados del Estado está «activamente involucrado con profesionales y expertos en ética para proporcionar orientación y educación jurídica continua sobre el uso ético de la IA en la práctica legal».

El abogado opuesto dijo que la única forma en que encontrarían cualquier mención del caso fue mediante el uso de la IA, cuyo logotipo se ve aquí

A pesar de las sanciones, el tribunal, visto aquí, finalmente dictaminó que Bednar no tenía la intención de engañar al tribunal

Como resultado, se le ha ordenado pagar al abogado honorarios de la parte contraria en el caso
DailyMail.com se ha acercado a Bednar para hacer comentarios.
No es la primera vez que un abogado ha sido sancionado por Usando IA en sus informes legales, después de una situación increíblemente similar en 2023 en Nueva York.
Los abogados Steven Schwartz, Peter Loduca y su firma Levidow, Levidow y Oberman recibieron la orden de pagar una multa de $ 5,000 por presentar un breve que contiene citas de casos ficticios.
El juez encontró que los abogados actuaron de mala fe e hicieron «actos de evitación consciente y declaraciones falsas y engañosas al tribunal».
Antes de la multa Schwartz admitió que había usado Chatgpt para ayudar a investigar el informe en el caso.
Anuncio