#Colombia

#DerechoDigital

#InteligenciaArtificial

#LegalTech

marzo 19, 2026

La Despersonalización de la Relación Intuito Personae Abogado-Cliente.

Business Woman Showing Information Phone Screen Coworker

“Un estudio publicado en el Journal of Legal Analysis de Harvard Law School
concluyó que los LLMs alucinan en al menos el 58% de las consultas jurídicas
verificables (Dahl et al., Large Legal Fictions: Profiling Legal Hallucinations in
Large Language Models, 2024)”.

Probablemente el lector, después de haber leído el título y el epígrafe, está anticipando su mente a encontrar en las siguientes líneas una especie de tribunal inquisitorial frente al uso de herramientas de inteligencia artificial generativa (en adelante “IA”) en las ciencias jurídicas y especialmente en la relación abogado–cliente. Lejos de tratar de detener la llegada del hombre a la Luna (guardadas sus proporciones), mi propósito no es otro sino esbozar una serie de riesgos propios de la intervención de la IA en la práctica jurídica, y cómo ello, a mi juicio, obliga a reinterpretar la concepción de la relación intuito personae, hoy día entre cliente, abogado e IA. La conversación está abierta y recién empieza.

El internet fue el motor primigenio de transformación del camino a través del cual las personas buscaban información acerca de situaciones legales en las cuales se encontraban inmersas o que, simplemente, les generaban inquietud alguna. En 2013, el 96% de quienes buscaban asesoría legal ya acudían a un motor de búsqueda para ello. Así, las personas interesadas en asesoría legal empezaron a buscar asistencia a través de la web.

Actualmente no se necesita acudir a un motor de búsqueda para información preliminar sobre los asuntos legales; ahora pueden acceder a alguna herramienta generalista de IA en su versión gratuita, como ChatGPT de OpenAI, Claude de Anthropic, Gemini de Google, etc., preguntarle y tener una respuesta interactiva y cómoda, casi como chatear con un abogado de cualquier especialidad.

Asimismo, sería imperdonable no reconocer que estas mismas herramientas de IA han influido en la forma en que los abogados y firmas de abogados prestan sus servicios, optimizando el recurso más valioso: el tiempo, en la elaboración de tareas operativas, e incluso, a través de herramientas de IA especializadas como Harvey AI, CoCounsel, Vincent AI o Juztina AI, se ha logrado la eficiencia en tareas más complejas como investigación jurisprudencial, redacción y revisión de contratos, entre otras.

Es así como la IA ha intervenido en la relación abogado-cliente (este último cada vez más informado), y en este curso del servicio legal es de suma relevancia considerar los riesgos a los que se exponen con el uso de estas herramientas. Los cuales se elevan exponencialmente cuando un usuario de IA considera que una herramienta generalista pueda ser su “lazarillo” en las honduras del ejercicio del derecho y/o de sus derechos.

Nos vamos a referir entonces a dos riesgos que deben considerarse cuando los usuarios no abogados y los abogados acuden a la IA: i) las alucinaciones (LLM hallucinations) y ii) la responsabilidad. Valga la pena señalar que será una aproximación muy somera, con el firme objetivo de que el lector se interese e indague de manera más profunda sobre los mismos, según el rol que ocupe, cliente o abogado.

En este contexto, las alucinaciones son “afirmaciones plausibles pero falsas generadas por modelos de lenguaje, que se producen porque los procedimientos estándar de entrenamiento y evaluación recompensan adivinar en lugar de reconocer la incertidumbre”. Esta ha sido la definición propuesta por la empresa OpenAI, propietaria de ChatGPT, el LLM que para mayo de 2025 concentraba un 74,2% del mercado.

En línea con lo anterior, un estudio publicado en el Journal of Legal Analysis de Harvard Law School concluyó que los LLMs alucinan en al menos el 58% de las consultas jurídicas verificables (Dahl et al., Large Legal Fictions: Profiling Legal Hallucinations in Large Language Models, 2024). Con estos datos sobre la mesa, queda a juicio del lector determinar si las respuestas de los LLMs generalistas son o no confiables. De mi lado, no puedo sino instar a quienes, en palabras del maestro Carnelutti, son los “obreros del derecho” a cuestionar y revisar cada tarea que le piden a la IA.

Por su parte, la responsabilidad cuando se acude a los LLMs es un asunto que cada vez más se discute en los tribunales y la comunidad jurídica en general. Sobre ello, es necesario precisar lo siguiente: las empresas que han desarrollado estas herramientas generalistas han optado por aclarar en sus términos y condiciones que su modelo no reemplaza el criterio de un jurista y que su uso es exclusiva responsabilidad del usuario. Además, el usuario no abogado no cuenta con la protección del secreto profesional ni conoce el destino final de su información.

En línea con ello, la American Bar Association en 2024 emitió la Opinión Formal 512 respecto al uso de herramientas de IA, en la que parte de reconocer el margen de error de las mismas para advertir lo obvio: cuando un abogado la emplea, es este el responsable del uso de dicha información. En cumplimiento del deber de diligencia, consagrado en Colombia en la Ley 1123 de 2007, el profesional debe revisar la información que la herramienta le provee, pues su responsabilidad profesional es la que se compromete. Frente a esto, ya se han conocido varias sanciones a abogados por citar en escritos precedentes judiciales inexistentes.

Alucinaciones y responsabilidad son dos frentes abiertos y relacionados directamente que no pueden ignorarse, y que paradójicamente conviven con ventajas reales: reducción de costos operativos, democratización del acceso a orientación jurídica básica, automatización de tareas repetitivas y mayor eficiencia en la gestión documental. Estas ventajas serán abordadas en otra oportunidad, pues el respeto que las mismas merecen exige un desarrollo adecuado para cada una.

Después de todo lo anterior, es innegable que la forma de relacionamiento abogado-cliente ha sufrido una transformación profunda. Quienes consideran que empezamos el camino para la muerte de la relación intuitu personae olvidan algo esencial: la IA no verifica, no asume responsabilidad, no protege el secreto profesional y no ejerce una estrategia por sí sola. Todo esto sigue siendo del resorte exclusivo del abogado.

Lejos del pesimismo, considero que es la hora de reinterpretar esta relación. La IA es una herramienta valiosa, pero cuyo beneficio depende enteramente de quien la dirige con criterio. El abogado tiene la oportunidad de ser un director de orquesta: verificar, cuestionar, proteger y asumir. Ese rigor es precisamente lo que garantizará un ejercicio responsable y eficiente del derecho en favor del cliente.

Elaborado por: Rivaldo Rojas

Comparte este artículo

  • Facebook
  • Twitter
  • LinkedIn
  • WhatsApp