La Cámara de Apelaciones de Rosario confirmó recientemente un fallo de primera instancia por una demanda, pero la resolución incluyó un llamado de atención para un abogado por citas de jurisprudencia inexistente. La resolución incluyó una advertencia formal sobre el uso incorrecto de Inteligencia Artificial (IA), que ya está regulado a nivel local.
El juez Oscar Puccinelli confirmó el error cuando empezó a buscar fallos mencionados en el escrito del representante de la parte actora y no pudo encontrarlos. Si bien aclaró que su veredicto no implica una sanción, el magistrado decidió dar cuenta del problema de las alucinaciones a la hora de emplear chatbots para los escritos.
"Es un fallo muy controvertido en cuanto a los efectos que produce", opinó este martes la presidenta del Instituto de Inteligencia Artificial Aplicado al Derecho en Rosario, Claudia Guardia. Además del debate general en torno al uso ético y responsable de los sistemas de IA, señaló a través de LT8 que el caso es muy extraño porque el profesional involucrado argumentó que actuó "de buena fe" y su equivocación no modificó el rumbo del proceso: "Tenía todo para ganar y de hecho lo ganó. En vez de sumarle, esta cita le restó".
Un abogado en problemas con inteligencia artificial
Durante la revisión del fallo en la Sala II de la Cámara de Apelación en lo Civil y Comercial, el abogado se retractó de las citas de jurisprudencia que había hecho cuando contestó los agravios de la parte demandada. Entonces reconoció que ese material fue introducido con IA generativa, de modo que no pudo hallarlo cuando le solicitaron los fallos correspondientes.
"Corresponde hacer un llamado de atención al letrado en cuestión y, además, a fin de prevenir que este tipo de situaciones se generalice en el fuero", puntualizó Puccinelli. Así anunció la comunicación formal con el Colegio de Abogados de Rosario (Colabro) para tomar cartas en el asunto.
>> Leer más: Rosario tendrá semáforos con inteligencia artificial para agilizar el tráfico en tiempo real
Guardia aclaró que la institución aún no recibió la notificación, pero ya están al tanto del episodio. De hecho, recordó que en marzo difundieron una serie de recomendaciones para el uso ético de la IA.
La titular del instituto especializado consideró que el potencial de un chatbot a la hora de litigar es tan grande como riesgoso. "Cuando le planteás un caso, se ajusta tanto a lo que le pedís, que te confunde", indicó.
En este caso, Puccinelli enfatizó que el error le llamó la atención rápidamente: "Resulta claro que las citas mencionadas no fueron chequeadas". Luego apuntó que el abogado citó un precedente inexistente atribuido a la misma sala encargada de revisar la resolución de primera instancia.
Cómo usar IA en documentos jurídicos
El Colabro asumió la responsabilidad del control disciplinario sobre el uso de Inteligencia Artificial. De acuerdo a los lineamientos definidos este año, la institución puede aplicar sanciones si detecta faltas éticas en estas prácticas.
>> Leer más: "La inteligencia artificial es una herramienta para el bien de los seres humanos, no para sustituirlos"
Además de la buena fe invocada por el letrado de este caso, los sistemas generativos deben aplicarse al derecho siguiendo los principios de probidad, lealtad y veracidad, así como el anonimato de los datos de los clientes. "La IA nos da una respuesta que aparentemente es muy linda y está ajustada a la situación, pero tenemos que corroborarla. Hay muchas ocasiones en que no es real", previno Guarda.
El tema también fue abordado del lado de los funcionarios del Poder Judicial. En abril, la Corte Suprema de Justicia de Santa Fe publicó la circular 25 para la aprobación de una guía de buenas prácticas. Por entonces ya se habían implementado protocolos de actuación similares en San Juan, San Luis y Río Negro. Por su parte, la presidenta del instituto especializado en Inteligencia Artificial remarcó: "No está mal utilizarla, pero siempre hay que tener un control y avisarle a la otra parte".