#DebidoProceso

#DerechoAdministrativo

#InteligenciaArtificial

#Perú

febrero 13, 2026

El tratamiento masivo de datos en la fiscalización algorítmica con IA

Close up Notebook Used by Employees Developing AI Systems Tech Startup

La inteligencia artificial ha pasado de ser una promesa tecnológica a una herramienta de fiscalización real.
Tradicionalmente, la fiscalización administrativa operaba bajo una lógica de muestreo ya que el Estado seleccionaba expedientes, analizaba indicios y construía sanciones sobre universos acotados de información. Este modelo, aunque limitado, permitía una valoración individual de la prueba y un ejercicio  de contradicción. Sin embargo, la reciente sanción de Indecopi al BBVA donde se procesó medio millón de grabaciones mediante algoritmo de IA confirma que hemos pasado de la inspección manual a una vigilancia masiva. Estamos ante uno de los primeros precedentes de fiscalización algorítmica en el Perú, donde la autoridad ahora procesa a gran escala nuestra actividad mediante código.

Este cambio de escala además de ser una mejora de eficiencia, representa también una transformación profunda en el ejercicio del poder sancionador. El punto crítico aquí es el uso de la probabilidad estadística como estándar de convicción. El reto actual es asegurar que estos sistemas sean comprensibles y que, ante la automatización, siempre prevalezca una reserva de humanidad.

El paso de la fiscalización selectiva a la masiva ha provocado que la prueba se desplace desde el hecho individual hacia el cálculo matemático. En el caso del BBVA, Indecopi no revisó la totalidad de las llamadas sancionadas; analizó manualmente una muestra reducida y proyectó ese resultado al universo completo de más de 500,000 comunicaciones. El resultado es una multa basada en miles de infracciones deducidas estadísticamente, de las cuales solo una fracción fue verificada realmente. Esta metodología choca con los principios del artículo 248 de la LPAG, que exige que las sanciones se basen en hechos acreditados y no en proyecciones masivas.

Como precisan Morán y Castillo (2025), cuando la probabilidad sustituye a la evidencia, la presunción de licitud del ciudadano queda subordinada a lo que un algoritmo define como un patrón de conducta. La tecnología es una herramienta valiosa para detectar indicios; no obstante, el Estado cruza una línea peligrosa cuando la utiliza para reemplazar la verificación individual por inferencias probabilísticas. Para no vulnerar derechos, la autoridad debió limitar la sanción a los casos verificados. Al normalizar el estándar actual, corremos el riesgo de pasar de un Estado de derecho a un Estado de estadística donde la administración ya no probará tu infracción individual, solo que estadísticamente eres parte de un grupo infractor.

 Indecopi se ampara en la transparencia al facilitar los scripts de programación y el modelo Whisper, bajo la premisa de que publicar el código garantiza el derecho de defensa. El problema es que transparencia técnica y explicabilidad jurídica no son lo mismo. Según señalan Villavicencio y Valdez (2025), la "caja negra intrínseca a los algoritmos obstaculiza la auditoría de sus procesos" (p. 432), convirtiendo la fiscalización en un acto de fe técnica donde la visibilidad no asegura la comprensión.

En este contexto, la autoridad entregó códigos en R y Python junto a las transcripciones automáticas, omitiendo lo que es técnicamente imposible de explicar. La arquitectura de Whisper, una red neuronal con 1,500 millones de parámetros, cuyo funcionamiento interno es tan complejo que ni siquiera sus creadores pueden precisar por qué el modelo clasifica una llamada de una forma específica. Este vacío anula el deber de motivación, ya que si la autoridad no puede traducir el resultado del algoritmo a lenguaje humano, el administrado queda en una indefensión real. Entregar líneas de código cumple una formalidad, pero ignora que el ciudadano tiene derecho a comprender su sanción en lenguaje humano, no a través de una sintaxis de programación.

Esta metodología revela una tensión estructural ya que el Estado exige certezas individuales al administrado, pero acepta para sí mismo decisiones basadas en inferencias estadísticas. Indecopi sanciona al privado por fallos concretos, mientras su propia fiscalización opera con márgenes de error tecnológico que terminan incidiendo en la determinación de la responsabilidad. En estos grandes procedimientos, la supervisión humana se vuelve nominal ante la imposibilidad de revisar cada caso. La firma de la autoridad se reduce a una validación formal del resultado automatizado.

Como señalan Villavicencio y Valdez (2025), el Derecho Administrativo debe preservar una "reserva de humanidad" que asegure que toda sanción involucre una intervención humana real, capaz de ponderar contextos y justificar individualmente la decisión. Cuando la determinación inicial de responsabilidad se automatiza, el Estado tensiona su deber de motivación y corre el riesgo de sustituir el juicio crítico, propio del poder público, por la lógica fría del procesamiento masivo de datos.

La integración de la inteligencia artificial en la función pública exige una subordinación directa a un marco de garantías procesales.En ese sentido, resulta necesario adaptar el principio clásico de proporcionalidad del derecho constitucional a los contextos de fiscalización automatizada. Sobre esta base, corresponde proponer un Test de Proporcionalidad Algorítmica (TPA) como criterio de validez para sanciones basadas en IA. Bajo este esquema, la autoridad debe sustentar, conforme a los artículos 3.4 y 6 de la LPAG, cuatro condiciones fundamentales: la idoneidad técnica para mejorar la precisión frente a métodos tradicionales; la necesidad de masividad ante la inexistencia de alternativas menos intrusivas; la explicabilidad funcional que permita al administrado comprender su imputación individual; y la proporcionalidad del riesgo, evaluando cómo el margen de error incide en la determinación de la sanción.Buch Esquilas (2025) advierte que la automatización representa una transformación profunda del ejercicio del poder, donde el algoritmo desplaza el juicio humano directo en decisiones que afectan la esfera jurídica del ciudadano. Las inferencias estadísticas operan como herramientas legítimas para orientar la fiscalización o sustentar medidas correctivas, pese a ello, su utilización como fundamento exclusivo de una multa exige la acreditación individual de la infracción. En un Estado de Derecho, la inteligencia artificial asiste la investigación y el análisis masivo, pero la decisión sancionadora permanece como una facultad exclusiva del juicio humano, jurídicamente fundamentado.

La fiscalización contra el BBVA inaugura una tendencia expansiva que ya alcanza a otras entidades financieras. Este escenario revela un cambio sistémico donde la eficiencia estadística desplaza a la verdad material como fundamento del poder sancionador. Sin controles rigurosos como el TPA, la administración digital corre el riesgo de deshumanizarse, convirtiendo las garantías procesales en meras formalidades ante el procesamiento masivo de datos. La legitimidad del Estado en la era tecnológica depende de innovar sin erosionar derechos fundamentales. Si bien los algoritmos deben actuar como soporte en la detección de infracciones, la decisión final exige siempre una valoración humana, individualizada y motivada.

Referencias:

Elaborado por: Taylor Torres

Comparte este artículo

  • Facebook
  • Twitter
  • LinkedIn
  • WhatsApp