#InteligenciaArtificialYDerecho

#JusticiaDigital

#ÉticaJurídica

diciembre 17, 2025

La Inteligencia Artificial Generativa y sus consecuencias en la profesión jurídica a la luz de las Sentencias T-323 DE 2024 Y T-440 De 2025 de La Corte Constitucional de Colombia.

12

La inteligencia artificial dejó de ser una promesa futurista para convertirse en una herramienta cotidiana en el entorno laboral colombiano. Hoy, abogados, contadores, ingenieros, comunicadores y equipo administrativos utilizan sistemas de IA para redactar textos, analizar información o automatizar tareas. Sin embargo, este uso acelerado plantea una pregunta clave que aún no tiene una respuesta clara en la práctica empresarial: ¿quién es responsable cuando un trabajador utiliza inteligencia artificial en el ejercicio de sus funciones? Según un estudio citado por Portafolio, elaborado por PageGroup y WeWork, el 97 % de los trabajadores en Colombia considera necesario recibir capacitación formal en inteligencia artificial, mientras que el 78 % la percibe como una herramienta de apoyo fundamental. A pesar de ello, solo el 7 % de las empresas cuenta con políticas internas que regulen su uso, lo que evidencia una brecha preocupante entre adopción tecnológica y gobernanza organizacional, por otra parte, los trabajadores que la usan a diario reportan ser 64 % más productivos y 81 % más satisfechos, según el Workforce Index de Slack, pero el mismo estudio revela una creciente delegación de tareas completas a agentes de IA, como redacción, análisis o búsqueda de información, lo que plantea interrogantes jurídicos
relevantes: ¿qué ocurre si la información generada es incorrecta?, ¿si se vulneran derechos de terceros?, ¿o si se toman decisiones basadas en datos sesgados?

Desde una perspectiva jurídica, en Colombia se han observado diferentes esfuerzos por regular el uso de estas herramientas, como la jurisprudencia de la Corte Constitucional o proyectos de ley como el 130 de 2023, mediante el cual se buscaba "la armonización de la inteligencia artificial y protección al derecho al trabajo de las personas", el cual aunque fue archivado por tránsito de legislatura, reflejaba una preocupación creciente por garantizar principios como la transparencia algorítmica, la intervención humana y la capacitación de los trabajadores frente al uso de tecnologías emergentes.


Más recientemente, la Ley 2466 de 2025 incorporó disposiciones relacionadas con la automatización como el artículo 57 que establece que el Estado debe crear una política pública de protección laboral ante la
automatización, y Los artículos 29 y 30 de esta reforma obligan a las empresas de plataformas digitales de reparto a informar sobre los sistemas automatizados que supervisan o toman decisiones, y garantizan el derecho de los trabajadores a solicitar revisión humana de cualquier decisión adoptada por estos sistemas. Paralelamente, en julio de 2025 fue radicado el Proyecto de Ley 043 de 2025, que busca establecer un marco regulatorio integral para el desarrollo, uso y gobernanza de la inteligencia artificial en Colombia, con principios como supervisión humana, transparencia, ética e innovación responsable.
Sin embargo, en ausencia de una regulación laboral específica y plenamente vigente, la responsabilidad frente al uso de IA en el trabajo debe analizarse a la luz de los principios generales del derecho laboral colombiano, en particular el deber de diligencia, la buena fe contractual y la potestad disciplinaria del empleador. Es por esto por lo que, cuando un trabajador utiliza una herramienta de IA en el marco de sus funciones, la responsabilidad jurídica no se traslada automáticamente a la tecnología, sino que, en principio, el empleador responde por los actos ejecutados por sus trabajadores durante el desarrollo del contrato de trabajo. No obstante, esta regla se complejiza cuando el uso de inteligencia artificial se realiza sin lineamientos claros, sin capacitación adecuada o por iniciativa exclusiva del trabajador, fenómeno que, según Portafolio, ocurre en el 63 % de las empresas colombianas que ya han implementado software de IA sin una política institucional definida. En estos escenarios, surge una pregunta clave: ¿puede el empleador ejercer su potestad disciplinaria frente al uso indebido de herramientas de IA? La respuesta es afirmativa, pero con límites claros.


El empleador puede iniciar procesos disciplinarios cuando el uso de la inteligencia artificial implique el incumplimiento de obligaciones laborales, la vulneración de políticas internas, la exposición indebida de información confidencial o la afectación de derechos de terceros. Sin embargo, para que estos procesos sean válidos, deben respetar estrictamente el debido proceso laboral, lo que implica la existencia previa de reglas claras, la tipificación de las conductas sancionables y la proporcionalidad de la sanción. Sancionar a un trabajador por el uso de IA sin que exista una política interna que regule su alcance, sin haber brindado capacitación previa o sin advertencias claras sobre sus riesgos, puede resultar jurídicamente cuestionable.

Uno de los consensos más claros en materia de inteligencia artificial es que la tecnología no puede desplazar la responsabilidad humana. La IA no decide, no responde ni asume consecuencias jurídicas. quienes lo hacen son las personas que la diseñan, la implementan o la utilizan. Por ello, la supervisión humana no es un complemento opcional, sino un elemento esencial para garantizar decisiones justas, razonables y respetuosas de los derechos fundamentales. Desde una perspectiva ética, el uso responsable de IA en el trabajo exige transparencia, proporcionalidad y rendición de cuentas, por lo cual el enfoque más sólido desde el punto de vista laboral es la regulación interna del uso de la IA, definir qué herramientas están autorizadas, para qué fines pueden utilizarse, en qué casos se requiere validación humana y cuáles son las consecuencias disciplinarias de su uso indebido. De esta manera, se protege tanto al empleador como al trabajador y se reducen los riesgos jurídicos.


La inteligencia artificial representa una oportunidad significativa para mejorar la productividad y transformar positivamente el entorno laboral en Colombia. No obstante, su uso sin lineamientos claros puede generar riesgos legales, laborales y reputacionales. Mientras el marco normativo colombiano se consolida, las empresas tienen la oportunidad y la necesidad de anticiparse mediante políticas internas claras. La IA puede ser una aliada del trabajo humano, siempre que se mantenga bajo el control, la supervisión y la responsabilidad de quienes la emplean. En definitiva, la inteligencia artificial ya forma parte del trabajo en Colombia, pero su uso responsable no puede depender únicamente de la iniciativa individual del trabajador. La clave está en combinar tecnología, capacitación y reglas claras, entendiendo que la responsabilidad jurídica sigue siendo humana, incluso cuando las decisiones se apoyan en sistemas inteligentes.

Elaborado por: Angi Camila Correa Correa 


Bibliografía:


Gómez, C. (2025, julio 28). Uso de IA en la oficina: los trabajadores reclaman capacitación.
Portafolio. https://www.portafolio.co/tecnologia/uso-de-ia-en-la-oficina-los-trabajadores-reclamancapacitacion-636391


Lorduy, J. P. M. (2025a, julio 14). Se dispara el uso de la IA en el trabajo: ¿usuarios más
productivos? Portafolio. https://www.portafolio.co/tecnologia/se-dispara-el-uso-de-la-ia-en-el-trabajousuarios-mas-productivos-635316


Lorduy, J. P. M. (2025b, agosto 25). IA en el trabajo: ¿qué tan preparados están los
empleados? Portafolio. https://www.portafolio.co/tecnologia/ia-en-el-trabajo-que-tan-preparadosestan-los-empleados-638418

Comparte este artículo

  • Facebook
  • Twitter
  • LinkedIn
  • WhatsApp