Un abogado utilizó ChatGPT y perdió una demanda
El representante de un hombre que había demandado a una compañía aérea recurrió a la inteligencia artificial para preparar una presentación judicial. No salió bien
La demanda empezó como tantas otras: un hombre llamado Roberto Mata demandó a la aerolínea Avianca, diciendo que se lesionó cuando un carrito de comida de metal golpeó su rodilla durante un vuelo al Aeropuerto Internacional Kennedy de Nueva York.
Cuando Avianca pidió a un juez federal de Manhattan que desestimara el caso, los abogados de Mata se opusieron con vehemencia, presentando un escrito de 10 páginas en el que citaban más de media docena de decisiones judiciales relevantes. Martínez contra Delta Air Lines, Zicherman contra Korean Air Lines y, por supuesto, Varghese contra China Southern Airlines, con su erudito análisis de la legislación federal y “el efecto de suspensión automática de la prescripción”.
Sólo había un problema: Nadie -ni los abogados de la aerolínea, ni siquiera el propio juez- podía encontrar las decisiones o las citas citadas y resumidas en el escrito.
Y es que ChatGPT se lo había inventado todo.
El abogado que creó el escrito, Steven A. Schwartz, del estudio Levidow, Levidow & Oberman, se arrojó a merced del tribunal el último jueves, admitiendo en una declaración jurada que había utilizado el programa de inteligencia artificial para hacer su investigación jurídica – “una fuente que se ha revelado poco fiable.”
Schwartz, que ha ejercido la abogacía en Nueva York durante tres décadas, dijo al juez P. Kevin Castel que no tenía intención de engañar al tribunal o a la aerolínea. Alegó que nunca había utilizado ChatGPT, y “por lo tanto no era consciente de la posibilidad de que su contenido pudiera ser falso”.
Dijo al juez Castel que incluso había pedido al programa que verificara si los casos eran reales.
La respuesta fue afirmativa…
Schwartz dijo que “lamenta enormemente” haber confiado en ChatGPT y pormetió que “nunca lo hará en el futuro sin una verificación absoluta de su autenticidad.”
El juez Castel reveló que se le había presentado “una circunstancia sin precedentes”, una presentación legal repleta de “decisiones judiciales falsas, con citas falsas y citas internas falsas”. Y ordenó una audiencia para el 8 de junio para discutir posibles sanciones.
A medida que la inteligencia artificial se extiende por el mundo, surgen visiones distópicas de ordenadores que sustituyen no sólo la interacción humana, sino también el trabajo humano. El temor ha sido especialmente intenso para los trabajadores del conocimiento, muchos de los cuales temen que sus actividades diarias no sean tan enrarecidas como el mundo piensa, pero por las que el mundo paga horas facturables.
Stephen Gillers, profesor de ética jurídica en la Facultad de Derecho de la Universidad de Nueva York, afirma que el problema es especialmente grave entre los abogados, que han estado debatiendo el valor y los peligros de programas de inteligencia artificial como ChatGPT, así como la necesidad de verificar cualquier información que proporcione.
“El debate actual entre los abogados es cómo evitar exactamente lo que describe este caso”, dijo Gillers. “No se puede simplemente cortar y pegar en sus presentaciones judiciales”.
El caso real de Roberto Mata contra Avianca Inc. demuestra que a las profesiones “de cuello blanco” les puede quedar al menos un poco de tiempo antes de que los robots tomen el relevo.
Todo comenzó cuando Mata viajó en el vuelo 670 de Avianca de El Salvador a Nueva York el 27 de agosto de 2019. Ese día un empleado de la aerolínea lo golpeó con el carrito de servir, según la demanda. Después de que Mata demandara, la aerolínea presentó documentos pidiendo que el caso fuera desestimado porque el estatuto de limitaciones había expirado.
En un escrito presentado en marzo, los abogados de Mata exigieronq ue el proceso continuara, reforzando su argumento con referencias y citas de las muchas decisiones judiciales que desde entonces han sido desacreditadas.
Pronto, los abogados de Avianca escribieron al juez Castel, diciendo que no habían logrado de encontrar los casos que se citaban en el escrito.
Cuando se trataba de Varghese contra China Southern Airlines, dijeron que “no habían podido localizar este caso ni por título o cita, ni ningún caso que tenga alguna semejanza con él”.
Señalaron una larga cita de la supuesta decisión Varghese contenida en el escrito. “El abajo firmante no ha podido localizar esta cita, ni nada que se le parezca en ningún caso”, escribieron los abogados de Avianca.
De hecho, añadieron los abogados, la cita, que procedía del propio Varghese, citaba algo llamado Zicherman v. Korean Air Lines Co. Ltd., una opinión supuestamente emitida por el Tribunal de Apelaciones de EE.UU. para el 11º Circuito en 2008. Pero los abogados tampoco podían encontrarlo…
El juez Castel ordenó a los abogados del Mata que presentaran copias de los dictámenes a los que se referían en su escrito. Los abogados presentaron un compendio de ocho; en la mayoría de los casos, indicaban el tribunal y los jueces que las habían emitido, los números de expediente y las fechas.
La copia de la supuesta decisión Varghese, por ejemplo, tiene seis páginas y dice que fue escrita por un miembro de un panel de tres jueces del 11º Circuito. Pero los abogados de Avianca dijeron al juez que no podían encontrar esa opinión, ni las demás, en los expedientes de los tribunales ni en las bases de datos jurídicas.
Bart Banino, abogado de Avianca, dijo que su bufete, Condon & Forsyth, se especializa en derecho aeronáutico y que sus abogados podían decir que los casos del informe no eran reales. Añadió que tenían la sospecha de que un chatbot podría haber estado involucrado.
Schwartz no respondió a un mensaje en busca de comentarios, como tampoco lo hizo Peter LoDuca, otro abogado del bufete cuyo nombre aparecía en el escrito.
LoDuca afirmó en una declaración jurada esta semana que él no realizó ninguna de las investigaciones en cuestión y que no tenía “ninguna razón para dudar de la sinceridad” del trabajo de Schwartz o de la autenticidad de las opiniones.
El ChatGPT porporcionó al abogado Steven A. Schwartz decisiones judiciales falsas, con citas falsas, para laborar la demananda contra Avianca (Reuters)
ChatGPT genera respuestas realistas haciendo conjeturas sobre qué fragmentos de texto deberían seguir a otras secuencias, basándose en un modelo estadístico que ha ingerido miles de millones de ejemplos de texto extraídos de todo Internet. En el caso de Mata, el programa parece haber discernido el laberíntico marco de un argumento jurídico escrito, pero lo ha rellenado con nombres y hechos de una mezcla de casos existentes.
El juez Castel, en su orden de convocatoria de vista, sugirió que había hecho su propia investigación. Escribió que el secretario del 11º Circuito había confirmado que el número de expediente impreso en la supuesta opinión Varghese estaba relacionado con un caso totalmente diferente.
Calificando la opinión de “falsa”, el juez Castel señaló que contenía citas internas y citas que, a su vez, eran inexistentes. Dijo que cinco de las otras decisiones presentadas por los abogados del Sr. Mata también parecían ser falsas.
El jueves, los abogados de Mata presentaron declaraciones juradas con su versión de lo sucedido.
Schwartz escribió que había presentado originalmente la demanda de Mata en un tribunal estatal, pero después de que la aerolínea la transfiriera al tribunal federal de Manhattan, donde Schwartz no está admitido a ejercer, uno de sus colegas, LoDuca, se convirtió en el abogado de registro. Schwartz dijo que había seguido haciendo la investigación jurídica, en la que LoDuca no tenía ningún papel.
Schwartz dijo que había consultado a ChatGPT “para complementar” su propio trabajo y que, “en consulta” con él, encontró y citó la media docena de casos inexistentes. Dijo que ChatGPT lo había tranquilizado.
“¿Es Varghese un caso real?”, tecleó, según una copia del intercambio que presentó al juez.
“Sí”, respondió el chatbot, ofreciendo una cita y añadiendo que “es un caso real”.
Schwartz indagó más.
“¿Cuál es su fuente?”, escribió, según la presentación.
“Pido disculpas por la confusión anterior”, respondió ChatGPT, ofreciendo una cita legal.
“¿Son falsos los otros casos que ha proporcionado?”, preguntó Schwartz.
ChatGPT respondió: “No, los otros casos que proporcioné son reales y se pueden encontrar en bases de datos legales acreditadas”.
Pero, por desgracia, nunca iban a poder ser encontrados…
(c) The New York Times