#Argentina

#InteligenciaArtificial

#JusticiaPredictiva

#ÉticaJurídica

enero 16, 2026

Sesgos algorítmicos: Los límites éticos del uso de Inteligencia Artificial en la abogacía

Startup Employee Looking Business Charts Using AI Software

1. Conceptualización de la Inteligencia Artificial

Como punto de partida, corresponde considerar la definición de Inteligencia Artificial (IA) brindada por la Real Academia Española (RAE), que la describe como “disciplina científica que se ocupa de crear programas informáticos que ejecutan operaciones comparables a las que realiza la mente humana, como el aprendizaje o el razonamiento lógico” (Real Academia Española, s. f.).

Dicha conceptualización, de naturaleza eminentemente informática, pone de relieve que la esencia de la IA radica en la asimilación funcional de ciertos procesos cognitivos humanos. En particular, a través de técnicas de machine learning, estos sistemas pueden ser entrenados para resolver tareas, problemas, trámites y decisiones a partir del análisis de grandes volúmenes de datos, mejorando su desempeño en función de la experiencia acumulada (Saavedra Vera et al., 2023). 

2. Autonomía de los sistemas de IA y desafíos ético-jurídicos

En este sentido, Pérez Ugena advierte que los sistemas de IA se caracterizan por su capacidad de adaptar su comportamiento a condiciones cambiantes, analizar los efectos de sus acciones previas y operar con un alto grado de autonomía funcional (Pérez Ugena, 2024).

Sin embargo, dicha autonomía plantea una serie de interrogantes relevantes desde una perspectiva ética y jurídica. Entre los principales riesgos identificados se destacan por un lado, la dificultad de determinar el grado y los límites de la responsabilidad derivada de las decisiones o recomendaciones producidas por sistemas de IA; y, por otro, los problemas vinculados a la falta de transparencia en su funcionamiento, especialmente cuando se trata de algoritmos opacos o de difícil explicabilidad (Saavedra Vera et al., 2023).

Asimismo, uno de los aspectos más sensibles en el ámbito de la abogacía es la existencia de sesgos algorítmicos (Saavedra Vera et al., 2023). 

3. Justicia predictiva y límites a la función jurisdiccional

Según el profesor Batelli (2020) la justicia predictiva implica prever el desenlace de un proceso judicial usando algoritmos para anticipar posibles sentencias y para esto se deben crear bases de datos con normativas y jurisprudencia, modelar decisiones judiciales, utilizar un lenguaje jurídico predefinido y sistematizar argumentos presentes en los contenidos. Actualmente, muchos autores señalan la posibilidad de aplicar algoritmos para prever la actividad jurisdiccional, los mismos adoptarían un enfoque estadístico con el propósito de anticipar fallos de diversos órganos jurisdiccionales. Sin embargo, se estaría limitando el proceso del sistema de justicia, impidiendo la obtención de sentencias innovadoras que generen precedentes (Saavedra Vera et al., 2023).

Keddel (2019) sostiene que si bien la justicia ya evalúa riesgos usando estadísticas, promedios y patrones históricos antes de la IA, la justicia predictiva refuerza ese modo de decidir basado en datos.

En el ámbito penal, Richardson, Schultz & Crawford (2019), manifiestan su preocupación por los sesgos en los sistemas policiales predictivos ya que se pueden violar derechos fundamentales al depender exclusivamente de datos que podrían malinterpretarse, perpetuando exclusiones. Dichos autores se centran especialmente en el sistema COMPAS[1], cuyos resultados fueron cuestionados en varios estudios debido a sesgos discriminatorios relacionados con la raza y la clase social. Este sistema predijo resultados más desfavorables para la comunidad afrodescendiente en contraste con la comunidad blanca.

 4. ¿Cómo inciden los sesgos algorítmicos en la justicia predictiva del sistema judicial?

La incidencia de los sesgos algorítmicos en el sistema judicial mediante la justicia predictiva es un tema cuestionable. El sesgo algorítmico es la tendencia de un sistema basado en algoritmos a producir resultados discriminatorios o desiguales como consecuencia de los datos utilizados. En la justicia predictiva, esto puede conllevar consecuencias graves al influir en decisiones legales basadas en patrones históricos (Batelli, 2020).

Consecuentemente, las decisiones judiciales se alejaran de los principios de imparcialidad y equidad al verse comprometidas por la influencia de sesgos en el proceso algorítmico. Por ende, es fundamental entender que el sesgo algorítmico no solo refleja prejuicios en datos históricos, sino que también puede amplificar desigualdades en el sistema judicial. Si los datos de entrenamiento tienen sesgos, los modelos predictivos tienden a reproducir esas disparidades, perpetuando un ciclo pernicioso afectando derechos fundamentales de los ciudadanos. 

5. ¿Los modelos de aprendizaje automático son transparentes?

La transparencia en los modelos de aprendizaje automático y la apertura de auditorías externas podría contribuir significativamente a garantizar la equidad y la justicia en la aplicación de la ley. Sin embargo, la carencia de transparencia en determinados modelos algorítmicos de aprendizaje, catalogados como “cajas negras”, dificulta la comprensión de cómo estos toman decisiones. Dicha opacidad puede afectar la imparcialidad, equidad, la no discriminación y la privacidad, generando inquietudes sobre la vulneración de derechos individuales. Por ende, abogar por la transparencia en estos procesos es un imperativo ético para preservar la integridad del sistema judicial y proteger los derechos y principios fundamentales (Barona 2019).

6. Armonización entre la innovación y la protección

El avance tecnológico supera la capacidad de previsión de los marcos regulatorios, lo que potencialmente podría generar brechas en la salvaguarda de los derechos individuales y en la prevención de posibles arbitrariedades. Es importante abordar estas cuestiones fomentando la armonización entre la innovación tecnológica y la protección de los principios fundamentales que rigen el ámbito judicial. 

7. Conclusión

La automatización de la justicia a través de algoritmos conlleva el riesgo significativo del debilitamiento de la dimensión humana y ética en la resolución de los conflictos jurídicos. La interpretación matizada, el discernimiento ético y la comprensión contextual, podrían verse comprometidos frente a un enfoque excesivamente mecanizado.

En este sentido, la dependencia desmedida de sistemas algorítmicos para anticipar decisiones judiciales puede derivar en la omisión de particularidades y circunstancias específicas que exigen un análisis profundo y sensible. La capacidad humana de captar la complejidad inherente a los casos legales y de ponderar factores éticos supone un nivel de intuición y sensibilidad que, por su propia naturaleza, los algoritmos no logran reproducir de manera integral.

Si bien la optimización de los procesos y el aumento de la eficacia constituyen objetivos legítimos, resulta indispensable preservar la dimensión humana en la toma de decisiones judiciales. Una implementación indiscriminada de algoritmos, sin la debida consideración del contexto singular de cada caso y de los principios éticos involucrados, podría despojar a la justicia de su carácter flexible, compasivo y adaptativo, limitando su capacidad para responder adecuadamente a las complejidades propias de la condición humana. En definitiva, alcanzar un equilibrio entre la eficiencia de la automatización y la preservación de la sensibilidad humana en la administración de la justicia es fundamental para garantizar un sistema jurídico equitativo y orientado por valores éticos (Ramió, 2019).

Referencias

Barona, S. (2019). Inteligencia artificial o algoritimización de la vida y de la justicia: ¿solución o problema?. Revista Boliviana de Derecho. N. 28, julio-2019. ISSN 2070-8157. https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3510300.  

Batelli, E. (2020). La decisión robótica: algoritmos, interpretación y justicia predictiva. En Revisa de Derecho Privado, Nº 38.

Pérez-Ugena, M. (2024). La inteligencia artificial: definición, regulación y riesgos para los derechos fundamentales. Estudios de Deusto. Revista de Derecho Público, 72. 307-337.

Ramió, C. (2019). Inteligencia Artificial y Administración Pública. Robots y humanos compartiendo el servicio público. Ed. Catarata. Instituto Nacional de Administración Pública (INAP). https://www.redalyc.org/journal/2815/281561305009/html/.

Real Academia Española. (s. f.). Inteligencia artificial. Diccionario de la lengua española. https://dle.rae.es/inteligencia?m=form#2DxmhCT

Richardson, R. Schultz, J. & Crawford, k. (2019). Datos sucios, malas predicciones: cómo las violaciones de los derechos civiles afectan los datos policiales, los sistemas policiales predictivos, y justicia. NYUL Rev. Online, 2019, vol. 94. https://ouci.dntb.gov.ua/en/works/7p2eJvrl/.

Kedell, E. (2019). Justicia algorítmica en la protección infantil: equidad estadística, justicia social y sus implicaciones para la práctica. Revista de Ciencias Sociales, vol. 8, no 10. https://www.mdpi.com/2076-0760/8/10/281.

Saavedra Vera, C. O., Jáuregui Bustamante, K. del R., & Arista Bustamante, L.L. (2023). La incidencia del sesgo algorítmico en la justicia predictiva del sistema judicial. Revista Tzhoecoen, 79-97 https://revistas.uss.edu.pe/index.php/tzh/article/view/2592

Elaborado por: Carolina Belén Rey

Comparte este artículo

  • Facebook
  • Twitter
  • LinkedIn
  • WhatsApp