#Chile

#InteligenciaArtificial

#LegalTech

#ResponsabilidadLegal

marzo 17, 2026

La Inteligencia Artificial como Órtesis Cognitiva

Qualified Technicians Brainstorm Ways Use AI Cognitive Computing Extract Usable Information From Complex Data Team Specialists Implement Artificial Intelligence Process Massive Datasets

I. El problema que nadie está nombrando

Hay una conversación que ocurre en todos los despachos legales, en todos los ministerios, en todas las organizaciones que han empezado a usar inteligencia artificial: ¿quién es responsable cuando la IA se equivoca? La respuesta habitual apunta al sistema, al proveedor, al algoritmo. Rara vez apunta al humano que activó la herramienta sin entender lo que producía.

Ese es el vacío que ningún marco regulatorio ha resuelto con precisión. Los enfoques existentes —incluyendo el EU AI Act, que Chile ha adoptado parcialmente— clasifican tecnologías según su nivel de riesgo técnico. Lo que no clasifican es la arquitectura de la integración humana: cómo usa la herramienta la persona que la activa, qué comprende de lo que produce, y si puede responder por sus conclusiones.

"El límite de la inteligencia artificial no es técnico. Es cognitivo. El límite está donde el humano ya no puede explicar el razonamiento de la IA con sus propias palabras."

Este artículo propone que esa brecha —cognitiva, no tecnológica— es el objeto de regulación que el debate actual está omitiendo. Y que para abordarla se requiere una nueva categoría conceptual: la Órtesis Cognitiva™.

 

II. Órtesis Cognitiva™: una categoría operativa, no una metáfora

En kinesiología clínica, una órtesis es un dispositivo externo que amplifica, asiste o estabiliza una función corporal sin sustituir el órgano que la ejecuta. La distinción es fundamental:

•         Una prótesis reemplaza una estructura física perdida.

•         Una órtesis acompaña y potencia una función existente, manteniendo la agencia del sujeto.

 

Trasladado al ámbito cognitivo, la inteligencia artificial opera como Órtesis Cognitiva™ cuando amplifica la capacidad de análisis, reduce la carga cognitiva en la toma de decisiones, organiza información compleja y facilita la integración conceptual —pero mantiene la agencia decisional en el sujeto humano. La decisión final, la evaluación ética y la asunción de consecuencias permanecen radicadas en quien activó la herramienta.

Esta no es una metáfora estética. Es una herramienta clasificatoria operativa con consecuencias normativas precisas. Si la IA opera como órtesis, la pregunta jurídica central no es "qué quiere el algoritmo", sino: ¿quién decidió integrarlo?, ¿bajo qué condiciones?, ¿con qué nivel de comprensión?, ¿y quién asume las consecuencias?

Ejemplo concreto. Un abogado que utiliza IA para sintetizar jurisprudencia y redactar un informe pericial está usando la IA como órtesis: amplifica su capacidad analítica, pero él selecciona, valida y firma. Un abogado que recibe un informe de IA, no comprende el razonamiento detrás, y lo presenta como propio ante un tribunal, está en lo que este marco denomina Dependencia Estructural No Gobernada —y eso, en decisiones de alto impacto, es una falla de gobernanza sancionable.

 

III. El Método MIAH™: medir lo que importa

El Método MIAH™ —Modelo de Integración y Alineación Humano–Inteligencia Artificial— es un instrumento diagnóstico estructural diseñado para evaluar la calidad de la integración entre personas, organizaciones y sistemas de IA. No evalúa la capacidad técnica del modelo de IA. Evalúa cómo lo integra el ser humano que lo usa.

El método opera mediante el cruce de cuatro dimensiones:

•         Nivel de Uso Funcional: ¿qué hace efectivamente la persona con la IA?

•         Riesgo Operativo: ¿cuál es el impacto potencial de sus decisiones asistidas?

•         Higiene y Supervisión Cognitiva: ¿verifica, cuestiona, valida?

•         Madurez Organizacional: ¿tiene protocolos, trazabilidad, gobernanza institucional?

 

El resultado es una coordenada estructural en el Sistema de Coordenadas MIAH™: un plano cartesiano con eje de Integración Funcional (1 a 4) y eje de Impacto y Gobernanza (α a δ). Cada coordenada describe un perfil de usuario —desde el uso reactivo básico hasta la arquitectura de ecosistemas de IA— y genera recomendaciones de gobernanza proporcionales al riesgo.

Figura 1. Sistema de Coordenadas MIAH™ — Modelo de Integración y Alineación Humano–IA © Catalina Espinoza Lagos

Ejemplo aplicado al mundo legal. Un estudio jurídico que usa IA para búsqueda documental pero sin protocolos de verificación ni responsabilidad nominal puede ubicarse en una coordenada 2β: uso funcional moderado, riesgo organizacional medio, sin gobernanza formal. El diagnóstico MIAH™ identifica esa brecha y prescribe las obligaciones mínimas para transitar hacia una integración estratégica supervisada.

El Método MIAH™ transforma la integración humano-IA en una dimensión medible, trazable y regulable. Es el primer instrumento de este tipo desarrollado desde América Latina, con validación aplicada en Chile —el país con mayor adopción de IA en la región por tercer año consecutivo.

 

IV. El Sello de Declaración de Uso de IA™

El tercer componente del ecosistema es el Sello de Declaración de Uso de Órtesis Cognitiva™: un instrumento de transparencia que cualquier profesional, organización o institución debe completar cuando usa IA en decisiones de alto impacto.

El Sello no es una sanción ni una restricción. Es un estándar de integridad. Requiere declarar:

•         Qué herramienta de IA se utilizó (GPT, Gemini, etc.)

•         Cuál fue su rol en el proceso: búsqueda, síntesis, redacción, análisis, generación de alternativas.

•         Cuál fue la metodología de discernimiento: cómo la persona verificó, ajustó y validó los resultados.

•         Quién asume la responsabilidad autoral final del documento o decisión.

 

El principio que articula el Sello es contundente: si quien lo emite no puede explicar con sus propias palabras el razonamiento que lo llevó de la asistencia de la IA a la conclusión adoptada, no está habilitado para usar IA en ese acto.

"Imaginemos dos jueces. El primero usa IA para organizar jurisprudencia, contrasta los resultados con las fuentes originales y puede explicar: 'La IA organizó los precedentes; mi criterio determinó la ponderación.' El segundo recibe el mismo output, lo incorpora sin verificar y firma una sentencia que no comprende. Ambos usaron IA. Pero el segundo es un agente de alto riesgo: está tomando decisiones de carácter jurídico sin tener criterio propio sobre lo que produjo el sistema. Uno gobernó la herramienta. El otro simplemente la obedeció — y lo escribió muy bonito."

Esta lógica aplica con la misma fuerza a abogados, médicos, auditores, legisladores, líderes empresariales y funcionarios públicos. La gobernanza de la IA no es un problema de ingenieros. Es un problema de quien toma decisiones.

Ejemplo en medicina. El primer médico toma la ficha clínica de su paciente, copia el nombre completo, el RUT y los antecedentes sensibles, y los pega directamente en un sistema de IA para obtener una orientación diagnóstica. Recibe una respuesta útil —pero acaba de exponer datos privados de su paciente a un sistema externo sin consentimiento, vulnerando normativas de privacidad y ética médica. Está usando la IA, pero no la está gobernando. El segundo médico escribe: 'Paciente masculino, 58 años, hipertensión controlada, cuadro de disnea progresiva de tres semanas.' Entrega el contexto clínico relevante, protege la identidad del paciente, recibe orientación diagnóstica y la contrasta con su propio criterio antes de decidir. Ambos usaron la misma herramienta. Solo uno la usó como órtesis cognitiva: con responsabilidad, con criterio, y sin delegar lo que no se puede delegar.

 

V. Implicancias para el mundo legal y legaltech

Tres instrumentos. Un solo propósito: que quien usa IA en decisiones que afectan a otros pueda responder por lo que hizo. Estas son las implicancias concretas para el mundo legal:

Responsabilidad profesional

La figura jurídica de la responsabilidad civil ya no puede ignorar la integración de IA en la cadena decisional. El Principio de Atribución Primaria de Uso —desarrollado en este marco— establece que la responsabilidad recae en quien activa e integra el sistema, con desplazamiento calificado al proveedor solo ante defectos estructurales verificables. Esto ofrece una solución técnicamente más precisa que la responsabilidad objetiva genérica que varios proyectos legislativos han intentado sin éxito.

Explicabilidad como estándar de auditoría

El compliance tradicional verifica si se firmó un papel. La gobernanza de IA que este marco propone verifica si quien firmó comprende lo que el sistema produjo. Esa diferencia —entre cumplimiento formal y capacidad real de supervisión— es la frontera entre uso legítimo y Dependencia Estructural No Gobernada.

Una conversación que vale la pena tener

La publicación de este artículo en el blog de Juztina.ai no es un detalle menor. Es un gesto de apertura: una plataforma legaltech que decide hacer visible un ecosistema de gobernanza cognitiva, reconociendo que el futuro del derecho y la inteligencia artificial se construye en conversación, no en silos. La autora agradece ese espacio, porque es exactamente el tipo de diálogo —entre tradición jurídica e innovación tecnológica, entre rigor y apertura— que este marco necesita para crecer.

 

VI. Un modelo latinoamericano propio

El debate regulatorio global sobre IA ha sido dominado por dos polos: el modelo europeo, basado en riesgo tecnológico y compliance formal; y el modelo anglosajón, basado en autorregulación del mercado. Ambos comparten un vacío: no regulan la arquitectura de la integración humana.

El ecosistema presentado en este artículo ofrece una tercera vía, construida desde la tradición clínica latinoamericana —la kinesiología, disciplina clínica profesional que estudia el movimiento y la función humana, como epistemología operativa— y validada en el contexto chileno. No reemplaza los marcos existentes: los complementa con una capa de gobernanza cognitiva que es exactamente lo que les falta.

Chile tiene la oportunidad de ser el primer país que incorpore la Órtesis Cognitiva™ como categoría jurídica en su legislación de IA —y al hacerlo, abrir el camino para toda América Latina. La propuesta de indicaciones complementarias al Boletín 16821-19 —actualmente en segundo trámite en el Senado— no es solo una iniciativa chilena: es el primer intento sistemático desde la tradición clínica latinoamericana de construir un marco de gobernanza de IA con identidad propia. Lo que Chile legisle hoy, otros países de la región tendrán la posibilidad de adoptar, adaptar y mejorar. Esa es la ambición real de este ecosistema: no competir con Europa, sino ofrecerle a Latinoamérica un modelo que nació de su propia experiencia.

"La Historia no recordará al país que copió la regulación europea. Recordará a la región que construyó la suya propia, desde su tradición clínica, su contexto social y su visión latinoamericana de la dignidad humana."

 

VII. El origen: cómo nació este marco

Este ecosistema no nació en un laboratorio. Nació en una crisis. En un momento muy duro de vida personal, aprender inteligencia artificial fue un escape lindo —una forma de mantenerse vigente, de estudiar, de no quedarse atrás. Lo que comenzó como un hobby se convirtió en algo más serio cuando, al testear decenas de herramientas de IA con curiosidad genuina y sin agenda previa, emergió una pregunta que nadie parecía estar haciéndose con suficiente claridad: ¿quién responde por lo que la IA produce?

"Fue la formación clínica la que abrió el camino. Una kinesióloga no piensa en reemplazo: piensa en función, en asistencia, en lo que el cuerpo necesita para seguir siendo el agente de su propio movimiento. Aplicado a la IA, la conclusión fue inevitable: si el sistema amplifica sin sustituir, si asiste sin decidir, entonces estamos ante una órtesis. Una órtesis cognitiva. Y si el uso de una órtesis es intransferible —porque depende del cuerpo que la porta, del contexto que la activa, del criterio que la gobierna— entonces la responsabilidad tampoco puede transferirse. Siempre hay un humano que responde."

De esa intuición nació todo lo demás. El detalle completo de cómo se construyó este razonamiento —las herramientas usadas, el proceso de verificación, y la responsabilidad autoral— está declarado en el Sello que sigue a continuación.

 

Conclusión

Gobernar la IA no significa limitarla. Significa entenderla lo suficiente como para responder por lo que produce. Ese es el estándar que la Órtesis Cognitiva™ propone: no más burocracia, sino más criterio. No más papeles firmados, sino más razonamiento propio.

El Método MIAH™ hace ese criterio medible. El Sello lo hace visible. Y juntos, constituyen el primer ecosistema de gobernanza cognitiva desarrollado desde América Latina con vocación de convertirse en estándar legal. La industria legal —donde cada decisión afecta derechos, patrimonios y libertades— es el territorio donde este marco tiene más urgencia, más responsabilidad y más potencial transformador.

 

 

Sello de Declaración de Uso de Órtesis Cognitiva™

Método MIAH™ — Estándar de Integridad Autoral

Nota de origen. El concepto de sello de declaración de uso de IA no es una creación original de la autora en términos de su existencia como idea: el proyecto de ley del Presidente Boric (Boletín 16821-19) lo menciona en su articulado como instrumento de transparencia. Lo que la autora identificó fue que dicha mención era embrionaria —sin definición operativa, sin componentes mínimos, sin estándar de competencia para emitirlo. Su aporte fue tomar esa semilla legislativa y desarrollarla hasta convertirla en un instrumento funcional, vinculado al Método MIAH™ y al principio de Responsabilidad Humana No Delegable. Complementar una idea del Ejecutivo con arquitectura propia es exactamente el trabajo legislativo que este marco propone.

a) Herramienta de IA utilizada.  Este artículo fue desarrollado con asistencia exclusiva de Claude (Anthropic). No se utilizó ninguna otra herramienta de inteligencia artificial en ninguna etapa del proceso.

b) Rol de la IA en el proceso.  Claude asistió en la estructuración, redacción y organización académica del artículo. La IA operó exactamente como una órtesis cognitiva: amplificó la capacidad de expresión escrita y dio forma a conceptos ya desarrollados por la autora. No generó ideas, marcos conceptuales ni conclusiones originales. La analogía clínica, el Método MIAH™, los niveles de integración, el Principio de Responsabilidad Humana No Delegable y el Sello preexistían en el pensamiento y obra de la autora antes de esta conversación.

c) Metodología de discernimiento y verificación.  La verificación del contenido se realizó mediante contraste directo con el Working Paper MIAH™ —documento que constituye el registro más profundo y sistemático del pensamiento de la autora, producto de años de trabajo, estudio y observación clínica aplicada a la integración humano-IA. Cada afirmación del artículo fue cotejada con ese documento base. Lo que la IA redactó, la autora lo reconoció, corrigió y validó como expresión fiel de su propio razonamiento.

d) Razonamiento de la autora: cómo llegué a estas conclusiones.  Este marco no nació de una hipótesis académica. Nació de un proceso personal muy duro, donde aprender inteligencia artificial fue un escape lindo —una forma de mantenerme vigente, de estudiar, de no quedarme atrás. Partió como un hobby. Al testear decenas de herramientas de IA, algo se volvió evidente: todas eran una extensión del pensamiento del usuario. Cuando alguien no tiene facilidad para sintetizar, la IA lo hace. Cuando alguien no logra explicar con claridad, la IA asiste. Mi intuición de kinesióloga dijo entonces: órtesis cognitiva. Porque nunca reemplazará un órgano como el cerebro, pero lo asistirá según lo que el usuario —según su nivel en la tabla MIAH— necesite. De ahí se dedujo que, al ser intransferible el uso de una órtesis, siempre habrá un responsable. La responsabilidad no puede delegarse al sistema. Luego vino el Sello. Luego investigué y supe que era una idea innovadora. Y quise continuar con el libro y el Working Paper donde explicé el Método MIAH™ con claridad.

e) Responsabilidad autoral final.  La autora y responsable final de todo el contenido de este artículo es Catalina Espinoza Lagos, kinesióloga, creadora del Método MIAH™ y de la categoría jurídica Órtesis Cognitiva™. Puede explicar con sus propias palabras cada conclusión aquí presentada porque cada una de ellas es, antes que un texto, un pensamiento suyo.

Elaborado por: Catalina Espinoza

Comparte este artículo

  • Facebook
  • Twitter
  • LinkedIn
  • WhatsApp