#Derecho

#InteligenciaArtificial

#LegalTech

#Perú

abril 20, 2026

Inteligencia artificial y tipicidad penal: tensiones del modelo tradicional frente a nuevas formas de criminalidad.

Person Using Futuristic Technology (1)

La irrupción de la inteligencia artificial en nuestra sociedad ha trastocado múltiples ámbitos sociales, desde lo económico, hasta lo educativo, pero también ha puesto en jaque ciertos fundamentos del derecho, en especial cuando se examina desde la perspectiva penal. En el contexto peruano, la figura de la tipicidad penal se encuentra ante un escenario novedoso y a la vez complejo, debido a las formas de criminalidad que la inteligencia artificial facilita o propicia. Frente a este escenario, resulta imprescindible generar una reflexión crítica en torno a la capacidad del modelo tradicional del derecho penal para adecuarse a una realidad emergente que cuestiona y tensiona sus categorías y límites convencionales.

Dentro del derecho penal, la tipicidad es el primer criterio que determina si una conducta puede ser considerada prohibida y potencialmente sancionable. Tradicionalmente, esta ha sido concebida en función de acciones humanas, voluntarias y orientadas a la afectación de bienes jurídicos protegidos (Terán-Carrillo, 2020). No obstante, la inteligencia artificial, caracterizada por su autonomía relativa, capacidad de aprendizaje y actuación que puede escapar del control directo de sus creadores o usuarios, introduce una complejidad sin precedentes: ¿es posible atribuirle a una “máquina” la comisión de un delito?, o, en su defecto, ¿la responsabilidad recae exclusivamente en quien la programa, la emplea o controla?

En este contexto, la tipicidad penal deja de ser una categoría estática para convertirse en un concepto en tensión. La intervención de sistemas inteligentes en la producción del resultado típico obliga a replantear los presupuestos tradicionales de la teoría del delito. En efecto, ya no se trata únicamente de identificar una conducta humana voluntaria, sino de analizar procesos en los que la intervención tecnológica puede tener un rol determinante. En esa línea, se advierte que el desarrollo de tecnologías digitales ha trasladado formas tradicionales de criminalidad hacia entornos automatizados, generando nuevas modalidades de ejecución del delito que desbordan las estructuras clásicas de imputación (Morán Espinosa, 2021, p. 305).

El sistema penal peruano se estructura de manera predominante sobre el principio de responsabilidad penal, en virtud del cual la imputación penal recae principalmente en la persona humana. No obstante, el ordenamiento jurídico reconoce también supuestos de responsabilidad aplicables a personas jurídicas, lo que introduce matices relevantes en la configuración tradicional de la imputación penal. Esta configuración genera un escenario complejo cuando la inteligencia artificial interviene como medio en la realización de una conducta típica, como la manipulación fraudulenta de datos o la generación de desinformación masiva (deepfakes), al tensionar los criterios tradicionales de imputación.

A nivel comparado, algunos países ya exploran marcos jurídicos complementarios frente a los riesgos derivados de la inteligencia artificial. En el ámbito europeo, se ha planteado la necesidad de adaptar los regímenes de responsabilidad civil ante daños causados por sistemas autónomos (European Parliament, 2020). En Estados Unidos, el debate se centra en la responsabilidad de desarrolladores y usuarios, sin reconocer personalidad jurídica a la IA (Calo, 2017). Estas experiencias pueden orientar el desarrollo de respuestas normativas en el Perú para articular un esquema equilibrado.

En el contexto peruano, resulta esencial consolidar los elementos tradicionales del tipo penal, particularmente la tipicidad objetiva y subjetiva, incorporando una reinterpretación de figuras como la autoría mediata y el dolo eventual para comprender supuestos en los que la conducta se ejecuta de manera indirecta mediante sistemas de inteligencia artificial. Este enfoque demanda un análisis técnico-jurídico riguroso, capaz de atender las particularidades y complejidades que presenta cada caso concreto.

La inteligencia artificial no puede ser comprendida únicamente como un ejecutor automático de instrucciones. Por el contrario, debe concebirse como un medio comisivo dotado de una autonomía relativa, lo que exige repensar la configuración tradicional del tipo penal. En esa línea, se advierte que los sistemas autónomos pueden generar resultados no plenamente previsibles ni controlables por sus desarrolladores o usuarios, lo que dificulta la atribución de responsabilidad bajo los esquemas tradicionales del derecho.

Asimismo, uno de los principales retos radica en delimitar de manera adecuada la imputación penal en estos escenarios. Surge entonces la interrogante sobre hasta qué punto el programador, el proveedor del sistema o el usuario final pueden ser considerados responsables. En este contexto, resulta indispensable evitar esquemas de responsabilidad penal desproporcionada o arbitraria, procurando una atribución conforme a los principios de culpabilidad y proporcionalidad, especialmente cuando el resultado ha sido previsto como posible y, aun así, es asumido por el agente.

Desde una mirada prospectiva, resulta evidente que el ordenamiento jurídico peruano necesita avanzar hacia una adaptación progresiva frente a los desafíos que plantea la inteligencia artificial. En primer lugar, se vuelve necesario actualizar el marco normativo, incorporando figuras que permitan abordar conductas realizadas mediante sistemas inteligentes, así como repensar categorías como la autoría mediata en contextos tecnológicos.

Del mismo modo, es imprescindible fortalecer la formación de los operadores jurídicos. Jueces, fiscales y abogados no pueden permanecer ajenos a estos cambios, por lo que se requiere de una capacitación interdisciplinaria que integre conocimientos técnicos y permita comprender con mayor precisión el funcionamiento y los riesgos asociados a estos sistemas.

A ello se suma la necesidad de promover estándares de ética y transparencia en el desarrollo de la inteligencia artificial, impulsando mecanismos que garanticen la rendición de cuentas y una adecuada evaluación de los riesgos que estas tecnologías pueden generar en el ámbito penal. Finalmente, el diálogo con experiencias comparadas, como las desarrolladas en Chile, España o la Unión Europea, resulta clave para construir respuestas más coherentes y armonizadas.

La inteligencia artificial no es únicamente una herramienta caracterizada por su velocidad o capacidad de procesamiento; es una realidad que desafía directamente nuestra forma de comprender la responsabilidad y la justicia. En este contexto, el derecho penal peruano, sin renunciar a sus principios fundamentales, se encuentra ante la necesidad de evolucionar para responder a estas nuevas tensiones.

El reto no es menor. Implica repensar categorías tradicionales como la tipicidad y los criterios de imputación en un escenario donde la intervención humana ya no siempre es directa ni evidente. Sin embargo, también representa una oportunidad: la de construir un derecho penal más consciente de los cambios tecnológicos, capaz de adaptarse sin perder su función garantista.

Referencias

  1. Calo, R. (2017). Política de inteligencia artificial: Introducción y hoja de ruta
  2. European Parliament. (2020). Civil liability regime for artificial intelligence
  3. Morán Espinosa, A. (2021). Responsabilidad penal de la Inteligencia Artificial (IA). ¿La próxima frontera? Revista IUS, 15(48), 289–323
  4. Terán-Carrillo, W. (2020). La tipicidad en la teoría del delito. Dominio de las Ciencias, 6(3), 141–162

Elaborado por: Diego Sosa 

Comparte este artículo

  • Facebook
  • Twitter
  • LinkedIn
  • WhatsApp