La reforma constitucional santafesina de 2025 trazó una línea nítida para el siglo XXI judicial: toda persona tiene derecho a conocer, de forma clara, accesible y comprensible, los criterios, parámetros y lógicas utilizados por los sistemas automatizados de toma de decisiones; y, cuando esas decisiones puedan afectar derechos, a la intervención de una persona humana. A la par, la provincia y quienes prestan servicios de interés público deben adoptar sistemas transparentes y auditables, con evaluación de impacto y resguardos frente a sesgos y discriminación. No es una declaración programática: es una regla de validez.
En 2025, la Corte Suprema de Justicia de la provincia habilitó el uso de IA generativa e instituyó una Guía de Buenas Prácticas como estándar mínimo de implementación, delegando su monitoreo en la Secretaría de Gobierno (circulares 19/25 y 25/25). Ese andamiaje cumple una función de gobernanza: ordena, gradualiza, capacita. Pero el parámetro decisivo es superior, la Constitución Provincial. Allí aparece la tensión que hoy debemos resolver con rigor: una habilitación administrativa tecnológicamente abierta que, por su generalidad, no distingue entre herramientas explicables y herramientas opacas, frente a un mandato constitucional que exige, cuando hay incidencia en derechos, explicabilidad, trazabilidad y auditoría efectivas. La conclusión práctica es sencilla: IA en la Justicia, sí; “caja negra”, no.
Qué exige el artículo 29 cuando la Inteligencia Artificial toca derechos
El artículo 29 no pide un manual técnico, exige algo más concreto y jurídicamente verificable: que el operador pueda reconstruir y justificar la lógica decisoria relevante; que exista trazabilidad del uso (qué se ingresó, con qué versión, bajo qué instrucciones, qué salida arrojó); y que esa cadena sea auditada por terceros con competencia institucional. Este es el corazón del estándar: comprensión funcional, registro confiable y control humano significativo. No se trata de frenar la innovación, sino de orientarla para que aumente la inteligibilidad de la decisión judicial, no solo su velocidad.
Desde el plano técnico, la llamada "caja negra" describe sistemas cuyos procesos internos de inferencia, la relación entre entradas (datos o indicaciones), transformaciones intermedias y salidas, no pueden ser explicados de modo comprensible y verificable por quien decide ni por las partes. Si no puedo explicar lo relevante no puedo motivar; si no puedo trazar, no puedo auditar; y si no puedo auditar, se resienten la impugnación eficaz, la igualdad de armas y el debido proceso.
Por contraste, la caja blanca designa herramientas cuyo diseño o implementación permiten explicar el resultado de forma suficiente para el decisor y las partes; trazar la interacción (entradas, versión, instrucciones, salida); y auditar su funcionamiento con criterios claros. No se exige abrir el modelo matemático línea por línea, sino asegurar una explicabilidad funcional que habilite la motivación, la contradicción y la revisión jurisdiccional. Ese es, precisamente, el piso que impone el artículo 29 cuando dispone conocer, criterios, parámetros y lógicas, y adoptar sistemas, transparentes y auditables.
La lectura es consistente con los estándares internacionales más recientes. La Relatora Especial de Naciones Unidas sobre la independencia de magistrados y abogados advirtió contra el tecnosolucionismo y enfatizó que la IA solo agrega valor cuando refuerza las garantías del debido proceso, la imparcialidad y la independencia. Alertó, además, que la opacidad típica de ciertos sistemas generativos puede volver las decisiones incontestables para las partes. No se trata, entonces, de prohibir la IA, sino de gobernarla: alfabetización específica para jueces y juezas, funcionarios y operadores de la justicia, publicidad de información de los sistemas y, especialmente, capacidad real de decidir qué sistemas emplear, o no, en función de su explicabilidad y auditabilidad.
IA en tribunales: selección responsable
La arquitectura institucional que inauguraron las circulares es un punto de partida: habilita un uso gradual, impulsa capacitación y enmarca una guía como estándar mínimo perfectible. Pero no sustituye el parámetro constitucional cuando la herramienta incide en derechos. Queda a la vista que la promesa de eficiencia y mayor acceso puede chocar con riesgos muy serios para derechos fundamentales: un juicio justo, la igualdad y la independencia judicial. La clave, entonces, no está en la euforia tecnológica, sino en una implementación extremadamente cuidadosa, siempre centrada en la persona y gobernada por quienes imparten justicia. En ese marco, el único punto de encuentro legítimo entre tecnología y proceso es claro: algoritmos auditables, explicables y trazables, capaces de reconstruir la ruta entre los datos y la decisión, de dejar constancia verificable de su uso y de abrirse a controles independientes. La innovación vale cuando puede contarse y revisarse; ahí empieza y termina su lugar en el expediente. Hasta tanto, conviene recordar que la aceleración no es un valor jurídico si se paga con opacidad epistémica y pérdida de control humano.
Santa Fe hizo exigible la claridad algorítmica. Ese es el aporte institucional más potente de la reforma: la tecnología mejora la Justicia cuando vuelve más comprensibles sus decisiones. El futuro cercano no pide euforia ni temor, sino criterio. Innovación, sí; pero alineada con el artículo 29 y con el estándar internacional que reclama transparencia, rendición de cuentas y control humano significativo. Si una herramienta no explica lo que hace, no deja una traza verificable y no admite auditoría, no suma transparencia ni legitimidad, en definitiva, no atraviesa la puerta que la Constitución abrió al porvenir judicial de la Provincia. Y esa puerta conduce, invariablemente, al mismo destino: decisiones motivadas, comprensibles y revisables, con jueces humanos al mando.