#DerechoPenalPeruano

#InteligenciaArtificial

#ResponsabilidadPenal

enero 8, 2026

Inteligencia artificial y responsabilidad penal en el Perú: la IA como medio comisivo y los límites de la imputación penal

16

Introducción: IA y nuevos escenarios delictivos

El desarrollo de la inteligencia artificial (IA) a nivel global ha sido considerada como la piedra angular de la Cuarta Revolución Industrial (Blanco, 2019, p. 69). Esta tiene un impacto no solo en los procesos productivos sino también en la interacción social y en consecuencia a los riesgos que pueda ocasionar su uso. En la actualidad, en el Perú, este fenómeno ha dejado de ser visto como una proyección futurista para convertirse en una realidad tangible que desafía al sistema de justicia penal, ya que su llegada facilita nuevas formas de criminalidad que se distinguen por el anonimato, automatización y opacidad algorítmica.

La criminalidad digital ha crecido exponencialmente en los últimos años. Según los datos del Sistema Informático de Denuncias Policiales (Sidpol), durante el año 2024, se registraron aproximadamente 42 mil denuncias, de las cuales el 69% es por fraude informático. Este incremento está intrínsecamente vinculado al uso de herramientas de IA, las cuales permiten automatizar ataques de ingeniería social, ejecutar estafas masivas mediante la clonación de voz y generar contenido falso (deepfakes) utilizados para la suplantación de identidad o la extorsión (Valero, 2021).

Este panorama se enmarca en lo que la doctrina penal contemporánea denomina la “sociedad del riesgo” concepto desarrollado por sociólogos como Ulrich Beck y trasladada al ámbito jurídico por Silva Sánchez, que describe una dinámica donde el progreso científico y tecnológico genera una vulnerabilidad sistémica. En ese sentido, en las sociedades actuales, el Derecho Penal no puede permanecer anacrónico, ya que un ordenamiento que ignore las capacidades lesivas de la IA pondría en riesgo la seguridad colectiva y los bienes jurídicos fundamentales como la vida, el patrimonio, la integridad sexual y el honor.

Es por ello, que frente a este contexto el legislador peruano ha respondido a esta necesidad mediante una evolución legislativa que busca cerrar las brechas de impunidad. Entre ellas la Ley 32314, publicada el 29 de abril de 2025, marca un punto de inflexión al modificar el Código de Bramont y la Ley de Delitos Informáticos para sancionar específicamente el mal uso de la inteligencia artificial, introduciendo tanto agravantes genéricas como tipos penales específicos. No obstante, la sola tipificación no resuelve los dilemas dogmáticos sobre la autoría y la imputación, especialmente cuando la IA opera con autonomía funcional, lo que obliga a una revisión profunda de la teoría del delito.

En ese sentido, el presente trabajo sostiene que la inteligencia artificial no constituye un nuevo sujeto penal, pero sí configura un nuevo escenario delictivo que obliga a reinterpretar y adaptar las categorías clásicas del derecho penal, entre ellas la autoría, la imputación y la prueba, con el fin de garantizar una respuesta eficaz frente a los riesgos que genera su uso criminal. Es decir, su objetivo no es ontológico sino dogmático y normativo para poder determinar cómo imputar a los agentes humanos y corporativos que utilizan IA con fines ilícitos.

Desarrollo

La IA como herramienta y no como sujeto penal

En la actualidad uno de los debates más complejos de la filosofía del derecho es sobre si la IA puede ser considerada un sujeto penalmente responsable. En el Perú, la posición mayoritaria sostiene que la IA carece de los presupuestos necesarios para ser considerada autor en sentido estricto. El fundamento de esta negativa tiene su respaldo constitucional en el artículo 139 de la Constitución Política del Perú, que consagra el carácter humano del acto juzgar y, por extensión, de la responsabilidad penal. En ese mismo sentido, la imputación de un delito requiere la constatación de una conducta humana típica, antijuridica y culpable; dichos elementos presuponen de una voluntad consciente y capacidad de autogobierno moral que los sistemas de IA carecen.

Para abordar la responsabilidad penal es necesario realizar una distinción funcional de la inteligencia artificial. En esa línea, Aguilar y Alé (2025, como se citó en Rosal Blasco, 2023, p. 9) sostienen que existe una clasificación funcional tripartita de la inteligencia artificial. Las cuales se abordarán a continuación.

En primer lugar, la IA débil, estrecha o específica se caracteriza por tener un diseño para elaborar actividades concretas y delimitas, es decir, actúa en función de datos y fines, sin exceder su programación, que le son proveídos por el ser humano (Miró, 2025, p. 180) como ejemplos se tiene a Siri o Alexa, Google Search, entre otros. En segundo lugar, la IA fuerte — por ahora, hipotética— es aquella que se comportaría de forma autónoma, pero con capacidades equivalentes a la acción humana, es decir, busca replicar la inteligencia y los comportamientos humanos, pero más que una simulación sería aprendizaje automático (Miró, 2025, p. 180).  Finalmente, la IA superintiligente, está lejos de existir, esta no se limitaría a replicar o a comprender la inteligencia y el comportamiento humano, sino que haría de las máquinas seres conscientes de sí mismos superando la capacidad de la inteligencia y las habilidades humanas (Rosal Blasco, 2013, p. 18).

En ese sentido, cuando se trate de una entidad con alta autonomía funcional podría ser considera sujeto de responsabilidad directa; no obstante, en el caso del Perú, bajo el marco jurídico actual es inviable la personificación de la IA, ya que este no es un ente corpóreo ni posee conciencia moral ni capacidad de sentir la pena. Además, las sanciones tradicionales, como la pena privativa de libertad son ontológicamente inaplicables a un código de sotfware; y medidas como la desconexión o reprogramación, son mas cercanas a una medida administrativa que a una sanción criminal en el sentido preventivo-retributivo.

Fundamentos del rechazo a la subjetividad de la IA

Para poder determinar cuales son los fundamentos de rechazo a la subjetividad penal es necesario recurrir a los principios básicos de la dogmática penal. Entre ellos, el principio de culpabilidad, el cual se basa en el libre albedrío y en la posibilidad del sujeto de actuar de forma distinta conforme a la norma; mientras que, la IA actúa en función de probabilidades y optimización de objetivos prefijados, es decir, no por una compresión moral de ilicitud.

En el caso del principio de humanidad de las penas, en el caso peruano, esta orientado a la resocialización de un individuo; mientras que, un algoritmo no puede ser resocializado en términos humanos; ya que su corrección es técnica, no moral. Y la responsabilidad por el hecho, es sabido que el derecho penal castiga acciones u omisiones, pero la decisión de un algoritmo, por más autónoma que parezca, es el resultado final de una cadena de procesos iniciada y permitida por seres humanos.

Por ello, se tiene que considerar que, si bien la IA puede realizar comportamientos con significado social, estos deben ser reconducidos a una esfera de organización humana, ya que en casos de daños por máquinas que se desvían de su función original (las denominadas “desviaciones incontroladas”) la respuesta jurídica deberá ser buscada en la responsabilidad por el diseño, la supervisión o el manejo imprudente del humano, o en la responsabilidad de la persona jurídica titular del sistema, pero no en el algoritmo per se.  

Consideraciones finales

El desarrollo del presente trabajo permite concluir que la IA ha reconfigurado de manera sustancial los escenarios delictivos en el Perú, de forma especial en el ámbito de la criminalidad tecnológica, al incrementar conductas ilícitas mediante la automatización, el anonimato y la opacidad algorítmica, lo cual incrementa el riesgo para bienes jurídicos fundamentales.

Además, permite afirmar que la inteligencia artificial no puede ser considerada como un sujeto penalmente responsable en el Perú, esto debido a la ausencia de la voluntad y capacidad de resocialización. Por ello, la IA debe ser considerada como un medio comisivo y la responsabilidad penal reconducible a los agentes humanos o corporativos, según sea el caso, que la diseñen, utilicen o controlen.

Finalmente, es fundamental fortalecer la prevención corporativa a través de modelos de cumplimiento adaptados al desarrollo de la inteligencia artificial, así como impulsar la capacitación constante de los operados jurídicos para que respondan de manera eficiente frente a los hechos ilícitos cometidos con IA.  

Bibliografía:

Aguilar Campos, P., & Alé Martínez, V. (2025). Responsabilidad penal en la era de la inteligencia artificial: De la agencia humana a la autonomía de la machine sapiens. Revista de Estudios de la Justicia, (42), 153–183. https://doi.org/10.5354/0718-4735.2025.77061

Blanco Cordero, I. (2019). Homo sapiens y ¿machine sapiens? Un Derecho Penal para los robots dotados de inteligencia artificial. En C. Mallada Fernández (Coord.), Nuevos retos de la ciberseguridad en un contexto cambiante (pp. 63–80). Tirant lo Blanch. ISBN 978-84-1309-757-2

Miró Linares, F. (2018). Inteligencia artificial y justicia penal: Más allá de los resultados lesivos causados por robots. Revista de Derecho Penal y Criminología, (20), 1–32. https://doi.org/10.5944/rdpc.20.2018.26446

Silva Sánchez, J. M. (1999). La expansión del Derecho penal: Aspectos de la política criminal en las sociedades postindustriales. Civitas.

Valero Quispe, C. D. (2021). Derecho e inteligencia artificial en el mundo de hoy: Escenarios internacionales y los desafíos que representan para el Perú. THEMIS Revista de Derecho, (79), 239–258. https://doi.org/10.18800/themis.202101.017

Elaborado por: Edin Romero

Comparte este artículo

  • Facebook
  • Twitter
  • LinkedIn
  • WhatsApp