#Argentina

#DerechosDigitales

#InteligenciaArtificial

#Privacidad

abril 14, 2026

Detrás del algoritmo: El mito de la privacidad en la era de la Inteligencia Artificial

Woman Meditation With Data Stream

No es novedoso mencionar que en las últimas décadas el avance tecnológico y desarrollo de la Inteligencia Artificial, en adelante IA, ha transformado los modos que las personas conocíamos para relacionarnos, comunicarnos, trabajar, educarnos, incluso aquello vinculado a nuestro ocio. Parece ser, a simple vista, un conjunto de beneficios, herramientas que facilitan prácticas cotidianas. Sin embargo, en un entorno donde cada click, búsqueda o desplazamiento parece inofensivo, se revela una verdad incómoda: la privacidad, tal como la conocemos, podría apenas ser una ilusión cuidadosamente construida. La IA opera como una máquina silenciosa de recolección, análisis y predicción de datos personales.

En el escenario planteado, la idea tradicional de privacidad comienza a desdibujarse, cada interacción digital, siendo estas, búsquedas en internet, uso de redes sociales o servicios financieros, dejan rastros que son procesados por sistemas de IA. Un fenómeno que implica una arquitectura de invisible vigilancia, que en la mayoría de los casos, opera sin conocimiento de los usuarios. Como ha advertido la Oficina del Alto Comisionado de las Naciones Unidas para los Derechos Humanos, los sistemas de IA se basan en la recopilación masiva de datos que son “compartidos, fusionados y analizados de maneras múltiples y, a menudo, opacas”, lo que dificulta comprender el verdadero alcance de su impacto.

Lo que hasta aquí se ha mencionado se agrava cuando no comprendemos que los sistemas de IA, especialmente aquellos basados en aprendizaje automático, funcionan como “cajas negras” cuyo funcionamiento resulta difícil de conocer incluso para expertos. Esta falta de transparencia impide evaluar adecuadamente si las decisiones automatizadas son justas, discriminatorias o arbitrarias. Tal como advierte la literatura académica, la IA generativa y otros sistemas avanzados no solo procesan información, sino que también reflejan y amplifican sesgos existentes en los datos con los que son entrenados.

Frente a este panorama, distintos organismos internacionales han comenzado a advertir sobre la necesidad urgente de regulación. La Alta Comisionada de las Naciones Unidas para los Derechos Humanos ha señalado que el uso indiscriminado de la IA puede generar “efectos negativos, incluso catastróficos” si no se implementan salvaguardas adecuadas. En particular, se ha planteado la posibilidad de establecer moratorias en el uso de ciertas tecnologías de alto riesgo, como el reconocimiento facial en espacios públicos, hasta tanto se garantice su compatibilidad con los estándares de derechos humanos. Este enfoque refleja un cambio de paradigma: ya no se trata únicamente de promover la innovación, sino de condicionarla al respeto efectivo de los derechos fundamentales.

Desde la perspectiva del derecho argentino, esta problemática adquiere una dimensión aún más relevante si se la vincula con el derecho a la intimidad consagrado en la Constitución Nacional. El artículo 19 establece que “las acciones privadas de los hombres que de ningún modo ofendan al orden y a la moral pública, ni perjudiquen a un tercero, están sólo reservadas a Dios, y exentas de la autoridad de los magistrados”, configurando así un ámbito de privacidad inmune a injerencias externas. Asimismo, el artículo 43 incorpora la acción de hábeas data como garantía específica para la protección de los datos personales. Sin embargo, el desarrollo de la inteligencia artificial tensiona estos principios al introducir formas de vigilancia y tratamiento de datos que exceden los esquemas tradicionales previstos por el constituyente. La recolección masiva y el procesamiento automatizado de información personal desafían la noción clásica de “acciones privadas”, en tanto gran parte de la vida cotidiana transcurre hoy en entornos digitales donde la intervención algorítmica es constante y, muchas veces, invisible. En este sentido, el derecho a la intimidad no solo se ve amenazado en su faz individual, sino que requiere una reinterpretación dinámica que permita adaptarlo a los desafíos que impone la era de la IA.

En última instancia, lo que está en juego no es únicamente la seguridad de los datos, sino la autonomía misma del sujeto. Si cada decisión, preferencia o comportamiento puede ser anticipado, influenciado o incluso condicionado por sistemas invisibles, entonces la libertad deja de ser plenamente tal. Detrás del algoritmo no hay solo código: hay una nueva forma de poder. Y frente a ella, el derecho tiene la responsabilidad ineludible de actuar antes que la intimidad se convierta, definitivamente, en un mito.

Referencias

  1. Office of the United Nations High Commissioner for Human Rights. (2021, September 15). Artificial intelligence risks to privacy demand urgent action – Bachelet
  2. Chilano, M. B. (2023). Intimidad en la era digital: análisis jurídico y enfoque juvenil sobre percepciones y prácticas. Derecom, 35, 41–57

Elaborado por: Valentin Concetti

Comparte este artículo

  • Facebook
  • Twitter
  • LinkedIn
  • WhatsApp