#DebidoProceso

#IAyJusticia

#Perú

#TransparenciaJudicial

enero 19, 2026

Transparencia judicial y aversión algorítmica: cómo evitar que la legitimidad de las sentencias se diluya en la era de la IA

Lawyer With Smartphone

La incorporación acelerada de herramientas de inteligencia artificial (IA) en los sistemas de justicia ha instalado un nuevo estándar normativo y ético homogeneo: los órganos jurisdiccionales deben ser transparentes respecto de cuándo y cómo utilizan IA, especialmente cuando ello puede afectar derechos fundamentales. Las Directrices de la UNESCO para el uso de sistemas de IA en juzgados y tribunales formulan este mandato como principio de “uso transparente”: informar adecuadamente y de manera oportuna cuándo se emplean sistemas de IA, cómo funcionan y cómo se integran en la toma de decisiones. Esta tendencia conecta, además, con desarrollos regulatorios más amplios, como el Reglamento de IA de la Unión Europea y otros marcos comparados que enfatizan transparencia, trazabilidad y supervisión humana en contextos de alto riesgo, entre ellos la justicia. Sin embargo, este deber de transparencia convive con un hecho psicológico que la literatura empírica empieza a documentar con fuerza: la sola revelación del uso de IA puede gatillar una penalización en la evaluación del producto (una sentencia, un auto o un informe pericial), no por su contenido intrínseco, sino por su origen algorítmico. En otras palabras, el sistema puede hacer “todo bien” en términos formales y, aun así, perder legitimidad percibida cuando se confiesa haber utilizado IA.

El trabajo experimental de Raj, Berg y Seamans sobre la “The Artificial Intelligence Disclosure Penalty” (https://dx.doi.org/10.1037/xge0001889) ayuda a entender bien este problema. En 16 experimentos con 27.491 personas, comparan cómo se evalúan los mismos textos creativos cuando se dice que los escribió una IA (o que la IA ayudó) frente a cuando se dice que los escribió solo un humano. Cuando se revela la participación de la IA, las calificaciones bajan en promedio alrededor de un 6% y este efecto, aunque pequeño, aparece una y otra vez en distintos tipos de textos y situaciones de evaluación, incluso cuando los autores intentan diferentes estrategias para reducirlo. Lo más relevante para el diseño institucional es el mecanismo: el efecto está mediado por la autenticidad percibida; cuando se controla esta variable, la influencia directa de la divulgación de IA sobre la evaluación se vuelve estadísticamente insignificante. En términos psicológicos, el “castigo” no recae sobre la calidad objetiva del contenido, sino sobre la sensación de que “ya no es auténtico”. Traducido al terreno judicial, la transparencia sobre el uso de IA puede activar intuiciones de “menor autenticidad” o de “menor artesanía jurídica”, agravando un contexto en el que la confianza en las resoluciones ya es frágil e incluso cuando la motivación es sólida y la decisión cumple con los estándares de debido proceso que la doctrina sobre IA y justicia exige.

Las Directrices de la UNESCO son claras en que la transparencia no debe entenderse como un gesto aislado, sino como parte de un paquete de garantías institucionales que incluyen rendición de cuentas, trazabilidad, auditabilidad, explicabilidad, precisión, fiabilidad, supervisión humana efectiva y responsabilidad. El principio de “uso transparente” se articula con la exigencia de “rendición de cuentas y auditabilidad”: los poderes judiciales deben poder explicar por qué adoptan una herramienta de IA, con qué fines y bajo qué condiciones, y asegurar la trazabilidad de procesos y resultados, especialmente cuando la herramienta incide en la toma de decisiones. A ello se suman la “explicabilidad” (ofrecer información comprensible sobre el funcionamiento, los datos de entrenamiento, las limitaciones y el margen de error de los sistemas) y la obligación de no confiar exclusivamente en la IA para tomar decisiones que puedan afectar negativamente derechos o libertades, manteniendo un nivel adecuado de control humano en todas las fases del ciclo de vida de la herramienta. Esta arquitectura de gobernanza se alinea con la Recomendación sobre la Ética de la IA y con el Global Toolkit on AI and the Rule of Law for the Judiciary (https://unesdoc.unesco.org/ark:/48223/pf0000387331_spa.locale=es), que insisten en que la IA debe complementar, y no reemplazar, el juicio jurisdiccional. La literatura jurídica comparada sobre IA en la justicia, tanto en Europa como en América Latina, coincide en que sin este andamiaje de garantías, la introducción de IA corre el riesgo de debilitar antes que fortalecer la confianza en los tribunales.

En el plano probatorio, las Directrices avanzan un paso más al abordar la IA generativa y la integridad de los contenidos. Proponen que todos los documentos jurídicos, pruebas u opiniones judiciales generados con IA sean claramente etiquetados como asistidos por IA, que se implementen sistemas robustos para rastrear el desarrollo y las modificaciones de estos contenidos, y que las herramientas utilizadas en sede judicial estén sometidas a protocolos de certificación que verifiquen precisión, fiabilidad y compatibilidad con estándares de derechos humanos y normas locales. En clave de debido proceso, UNESCO introduce la idea de “transparencia significativa”: no basta con decir “se usó IA”, sino que debe identificarse qué herramienta, qué versión, con qué función y cómo se distinguieron los aportes de la IA (por ejemplo, mediante comillas o citas específicas cuando se integran pasajes generados). Esta lógica se conecta con la exigencia de impugnabilidad: las partes deben tener la posibilidad real de cuestionar tanto el contenido de la decisión como el uso de IA que la respalda, con acceso a información básica sobre funcionamiento, entrenamiento, insumos y peso que los resultados algorítmicos tuvieron en la motivación judicial. Buena parte de estos debates puede rastrearse en análisis doctrinales sobre “justicia automatizada” y sobre la regulación procesal de la IA, que subrayan la necesidad de marcos normativos capaces de combinar eficiencia, transparencia y garantías.

Todo lo anterior permite formular la tensión central de este trabajo: empíricamente, la divulgación de IA puede disminuir las evaluaciones por pérdida de autenticidad percibida; normativamente, los estándares globales empujan hacia una mayor transparencia y visibilidad del rol de la IA en los procesos judiciales. Si el Poder Judicial adopta la transparencia solo como una cláusula genérica —una línea al final de la resolución que indique “este texto fue elaborado con el apoyo de herramientas de IA”—, pero prescinde del resto de la arquitectura (trazabilidad, control humano documentado, explicabilidad mínima, certificación y reglas claras de impugnación), es altamente probable que la divulgación sea interpretada como un atajo tecnológico y no como una manifestación de buena gobernanza. En ese escenario, la legitimidad de las decisiones puede verse doblemente afectada: se activa el sesgo psicológico identificado por la “AI disclosure penalty” y, al mismo tiempo, no se ofrecen a la ciudadanía ni a las partes los elementos que permitirían reconstruir el proceso de decisión y verificar el uso responsable de la IA. La “transparencia sin arquitectura” corre así el riesgo de convertirse en un factor adicional de desconfianza, exactamente lo contrario del efecto que se busca cuando se apela a la transparencia como garantía. Este dilema dialoga, además, con debates paralelos en otros campos, como la ciencia abierta y las políticas editoriales que exigen revelar el uso de modelos de lenguaje en artículos académicos, donde también se discute cómo evitar que la confesión de IA erosione el valor percibido del trabajo humano.

La alternativa no pasa por reducir transparencia o promover la simulación —esto es, usar IA sin decirlo—, lo que chocaría frontalmente con las Directrices de la UNESCO, con los marcos regulatorios emergentes y con las exigencias éticas que comienzan a observarse en la práctica judicial y académica. La respuesta institucional tiene que ser más sofisticada: se trata de diseñar una transparencia cualificada, acompañada de trazabilidad, control humano efectivo, mecanismos de explicabilidad mínima, certificación institucional y canales claros de impugnación. En la práctica, ello puede traducirse en: (i) fórmulas estándar de divulgación que especifiquen fase de uso (búsqueda de jurisprudencia, síntesis de hechos, elaboración de borradores, verificación formal), alcance de la intervención algorítmica (qué hizo y qué no hizo la IA) y revisión humana realizada; (ii) anexos internos de trazabilidad (audit trails) sobre el proceso de redacción y análisis, accesibles bajo reglas procesales o de acceso a la información; (iii) fichas breves de herramienta, análogas a “tarjetas de modelo”, que resuman propósito, datos relevantes de entrenamiento, límites y riesgos; (iv) esquemas de certificación y registro de herramientas autorizadas para su uso judicial, con evaluación periódica de desempeño y riesgos; y (v) reglas procesales que definan qué se revela, a quién, en qué momento y con qué salvaguardas de privacidad, protección de datos y seguridad de la información. Lo importante es que la transparencia deje de ser una declaración ex post y se integre en una gobernanza de la IA que, lejos de diluir la legitimidad de las sentencias, la refuerza al hacer visible que la tecnología está al servicio del juicio humano y no al revés.

Referencias
Raj, M., Berg, J. M., & Seamans, R. (2026). The artificial intelligence disclosure penalty: Humans persistently devalue AI-generated creative writing. Journal of Experimental Psychology: General. Advance online publication. https://doi.org/10.1037/xge0001889
UNESCO. (2023). Global toolkit on AI and the rule of law for the judiciary. UNESCO. https://unesdoc.unesco.org/ark:/48223/pf0000387331
UNESCO. (2024). Artificial intelligence and the rule of law. UNESCO. https://www.unesco.org/en/artificial-intelligence/rule-law

Elaborado por: Elías Munayco Chávez

 

Comparte este artículo

  • Facebook
  • Twitter
  • LinkedIn
  • WhatsApp