#Chile

#DerechosFundamentales

#InnovaciónTecnológica

#RegulaciónIA

enero 16, 2026

Regulación de la inteligencia artificial en Chile: entre la protección de derechos y el desafío del desarrollo tecnológico

Face Recognition Personal Identification Collage

La inteligencia artificial (“IA”) está impulsando transformaciones económicas y sociales a nivel global, con aplicaciones crecientes en salud, finanzas, educación, industria y gestión pública, mejorando la eficiencia, la productividad y la innovación. En este contexto, el proyecto de ley sobre IA en Chile (Boletín N.º 16821- 19) busca establecer un marco normativo que proteja los derechos fundamentales y promueva el desarrollo responsable de esta tecnología.

Sin embargo, la versión actual del proyecto evidencia tensiones relevantes entre dichos objetivos. En particular, presenta riesgos de sobrerregulación y un uso extensivo de conceptos jurídicos indeterminados, lo que puede generar incertidumbre normativa y erigir barreras significativas para empresas pequeñas y medianas, que representan aproximadamente el 98% del tejido empresarial chileno1. El desafío del legislador consiste en encontrar un equilibrio adecuado, utilizando criterios proporcionales y basados en evidencia empírica, y adaptando las mejores prácticas regulatorias extranjeras al contexto institucional y económico local. La cuestión central —aún no resuelta— es cómo proteger eficazmente los derechos sin inhibir la innovación tecnológica.

Regulación basada en riesgos: una buena idea, con problemas de diseño

El proyecto propone un enfoque regulatorio basado en niveles de riesgo, lo que resulta conceptualmente razonable: no todos los sistemas de IA plantean los mismos desafíos para los derechos fundamentales. No obstante, el diseño específico de estas categorías presenta dificultades relevantes desde una perspectiva jurídico-regulatoria.

En particular, la categoría de “riesgo inaceptable” se define a partir de estándares amplios que otorgan un margen significativo de discrecionalidad a la autoridad administrativa. Por su parte, la noción de “alto riesgo” se formula en términos tan extensos que podría abarcar numerosas aplicaciones legítimas y socialmente valiosas en ámbitos como la salud, las finanzas, los recursos humanos y otros sectores productivos.

En la práctica, esta configuración puede generar un efecto inhibitorio sobre la innovación2. El desarrollo de tecnologías de IA suele caracterizarse por procesos iterativos de prueba, error y mejora continua. Someter las etapas tempranas de estos procesos a exigencias formales intensas, auditorías costosas o elevados riesgos sancionatorios puede desalentar la experimentación y favorecer, de facto, a grandes actores con mayor capacidad para absorber cargas regulatorias complejas. El resultado probable es un ecosistema menos dinámico, con menor competencia y una capacidad reducida para generar soluciones locales adaptadas a las necesidades del país.

Diversos aspectos legales controvertidos del proyecto refuerzan esta preocupación. En su objeto, la iniciativa declara promover el desarrollo de sistemas de IA respetuosos del Estado de Derecho y de los derechos fundamentales, incorporando además consideraciones de igualdad de género. Este propósito es loable y ampliamente compartido. Sin embargo, para que sea coherente con sus propios objetivos, la ley debería enfatizar con mayor claridad la evitación de restricciones innecesarias y su adecuada articulación con el marco jurídico existente, en particular con la Ley N.º 19.628 sobre protección de la vida privada y sus modificaciones en tramitación. La duplicación de principios, la introducción de obligaciones técnicas rígidas el uso excesivo de conceptos jurídicos indeterminados pueden erosionar la certeza regulatoria y desincentivar tanto la inversión como la adopción responsable de la IA.

Ámbito de aplicación e I+D: la necesidad de exclusiones claras

El ámbito de aplicación del proyecto constituye otro foco de debate relevante. Las distintas versiones del texto identifican múltiples sujetos regulados —operadores, proveedores, implementadores e importadores— y contemplan exenciones para ámbitos como la defensa nacional, la investigación científica y las fases de prueba y desarrollo previas a la comercialización. No obstante, estas exclusiones no siempre se formulan con la claridad y robustez necesarias.

Desde una perspectiva de política pública, resulta crucial excluir de manera expresa y efectiva la investigación, el desarrollo y la experimentación precomercial del perímetro regulatorio, sin perjuicio del cumplimiento de las normas generales sobre protección de datos personales y respeto de los derechos fundamentales3.

Asimismo, el proyecto acumula un conjunto amplio de definiciones técnicas y jurídicas —como “riesgo significativo”, “incidente grave” o “identificación biométrica remota”— que pueden solaparse con regulaciones sectoriales existentes y generar complejidad innecesaria. La experiencia comparada sugiere que una moderación semántica, acompañada de remisiones explícitas al derecho vigente en materias como protección de datos, consumo y responsabilidad civil, suele ser más eficaz que la creación de un sistema conceptual cerrado y rígido en un entorno tecnológico altamente dinámico.

Las prohibiciones asociadas a usos de “riesgo inaceptable” requieren especial cautela. Categorías como la manipulación subliminal, la explotación de vulnerabilidades, el uso de datos sensibles, la identificación biométrica remota o la evaluación emocional en contextos delicados deberían concebirse como medidas de última ratio. Antes de prohibiciones absolutas, resulta razonable evaluar si existen salvaguardas técnicas u organizativas capaces de mitigar los riesgos, así como establecer mecanismos de revisión periódica basados en evidencia y en la evolución tecnológica.

En el caso de los sistemas de alto riesgo, el proyecto impone obligaciones relativas a la gestión de riesgos, gobernanza de datos, documentación, transparencia, explicabilidad, supervisión humana y ciberseguridad. Si bien muchas de estas exigencias son razonables en abstracto, algunas formulaciones —como el mandato genérico de “prevenir estereotipos”— resultan excesivamente indeterminadas y pueden traducirse en cargas de cumplimiento inciertas. Una alternativa más flexible y eficaz consiste en promover códigos de buenas prácticas, certificaciones voluntarias y espacios controlados de prueba, que permitan adaptar los estándares a contextos específicos sin sacrificar los objetivos de protección4.

Gobernanza, sandboxes y enfoque institucional

En materia de gobernanza, la concentración de la supervisión en la Agencia de Protección de Datos Personales, bajo un enfoque colaborativo y preventivo, parece más eficiente que la creación de múltiples instancias fiscalizadoras. Una adecuada coordinación con la Agencia Nacional de Ciberseguridad (ANCI) permitiría abordar riesgos técnicos específicos sin duplicar competencias ni generar fricciones institucionales.

En este contexto, los espacios controlados de prueba o sandboxes regulatorios adquieren un rol estratégico. Cuando están bien diseñados, pueden facilitar la investigación, el desarrollo y la validación de sistemas de IA bajo criterios objetivos de riesgo y medidas proporcionales, ofreciendo además un “puerto seguro” administrativo para quienes actúan de buena fe y bajo supervisión5. Estos mecanismos no deberían ser obligatorios ni implicar una exención de responsabilidad civil por daños, pero sí pueden atenuar la exposición sancionatoria y fomentar una cultura de cumplimiento responsable6.

Junto con lo anterior, resulta indispensable abordar la relación entre IA y derecho de autor. La ausencia de una excepción clara para la minería de textos y datos (text and data mining, TDM) puede convertirse en un obstáculo significativo para el entrenamiento de modelos y el desarrollo de proyectos legítimos en ciencia de datos e inteligencia artificial. Una regla bien delimitada, que permita el análisis estadístico sin afectar la explotación normal de las obras, contribuiría a reducir fricciones regulatorias sin menoscabar los derechos de los titulares.

Conclusión: hacia una regulación que habilite, no que limite

El análisis sugiere la conveniencia de alinear los principios aplicables a la IA con la legislación general de protección de datos, adoptar una clasificación de riesgos flexible, excluir expresamente la I+D precomercial, priorizar el uso de sandboxes con salvaguardas adecuadas, centralizar la fiscalización en una autoridad con enfoque colaborativo, fortalecer la excepción de TDM y considerar medidas específicas de apoyo para empresas pequeñas y medianas. No parece recomendable crear regímenes especiales de responsabilidad civil, siendo preferible aplicar las reglas generales del derecho de daños y de protección de datos personales.

Chile se encuentra en una posición privilegiada para diseñar un marco regulatorio de inteligencia artificial que combine garantías efectivas de derechos con una apuesta decidida por la innovación y el desarrollo tecnológico. Ello exige abandonar una lógica precautoria genérica y avanzar hacia una gobernanza basada en riesgos probados, mitigación proporcional y coordinación institucional. Con prudencia regulatoria y ambición tecnológica, la legislación chilena puede convertirse en un habilitador del desarrollo responsable de la IA, contribuyendo a dinamizar la economía, sofisticar el capital humano y atraer inversión, en lugar de erigir barreras que solo unos pocos actores pueden sortear. Todavía estamos a tiempo de que la regulación de la IA sea parte de una política nacional de innovación y desarrollo, y no un freno a su potencial transformador.

Referencias:

¹ Informe del Observatorio Grande Pyme, Centro UC de Encuestas y Estudios Longitudinales (CEEL)

² OECD, Regulatory Approaches to Artificial Intelligence, OECD Publishing, 2021; European Commission, Impact Assessment Accompanying the Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act), SWD(2021) 84 final.

³ OECD, Regulatory Approaches to Artificial Intelligence, OECD Publishing, 2021; OECD, Innovation Facilitators and Regulatory Sandboxes in the AI Context, OECD Publishing, 2022.

⁴ UK Department for Science, Innovation and Technology, A Pro-Innovation Approach to AI Regulation, 2023; OECD, Agile Regulatory Governance to Harness Innovation, OECD Publishing, 2019.

⁵ OECD, Innovation Facilitators and Regulatory Sandboxes in the AI Context, OECD Publishing, 2022; World Economic Forum, Global AI Action Alliance: Regulatory Sandboxes for AI, 2023.

⁶ EU Artificial Intelligence Act, Small Businesses' Guide to the AI Act (19 febrero 2025)


Elaborado por: Ignacio Pera

Comparte este artículo

  • Facebook
  • Twitter
  • LinkedIn
  • WhatsApp