16 de noviembre de 2025
por
Carme Artigas
Ilustradora
Ana Galvañ
El debate público sobre inteligencia artificial oscila entre dos narrativas aparentemente irreconciliables: la regulación estricta frente a la innovación sin límites. Sin embargo, en medio de esta polarización, una cuestión fundamental permanece sin resolver: cómo garantizar que los derechos humanos, conquistados tras siglos de evolución social, mantengan su vigencia en el entorno digital.
Hace 77 años, la Declaración Universal de los Derechos Humanos estableció en su artículo 19 que toda persona tiene derecho a la libertad de expresión “por cualquier medio”. En 1948, ese medio era la prensa escrita, la radio o el discurso público. En 2025, la comunicación humana transcurre mayoritariamente en espacios digitales. Esta migración plantea un desafío conceptual y práctico: la necesidad de traducir derechos concebidos para el mundo físico a un ecosistema donde las reglas de interacción son fundamentalmente distintas.
El concepto de ciudadanía digital emerge no como una sofisticación tecnológica, sino como una respuesta necesaria a esta transformación. No se refiere únicamente al acceso a internet o al uso de plataformas digitales, sino al reconocimiento de un nuevo espacio público que requiere las mismas garantías jurídicas y éticas que los espacios físicos tradicionales. La pregunta central es metodológica: cómo trasladar principios universales a un medio caracterizado por la velocidad, la escala y la intermediación algorítmica.
En los últimos cinco años, diversos marcos normativos han intentado responder a este desafío. España aprobó en 2021 su Carta de Derechos Digitales, un documento que, aunque carece de carácter vinculante directo, ha servido como fundamento para legislaciones específicas en materia laboral y de transparencia algorítmica. Su importancia radica menos en su fuerza legal inmediata que en su función como marco conceptual que sitúa los derechos humanos en el centro de la transformación digital.
La iniciativa española no apareció de forma aislada. En marzo de 2023, se formalizó la Carta Iberoamericana de Principios y Derechos en Entornos Digitales, resultado de un proceso de diálogo iniciado en 2021 en el marco de la XXVII Cumbre Iberoamericana de Jefes de Estado y de Gobierno. Este documento extiende el enfoque español al contexto latinoamericano, incorporando especificidades como conectividad, educación digital y sostenibilidad. La relevancia de este proceso trasciende lo normativo: representa la construcción de un lenguaje común entre países que comparten desafíos estructurales en términos de acceso, equidad y soberanía digital.
Diversos países latinoamericanos han desarrollado legislaciones específicas que materializan estos principios. Colombia ha incorporado el habeas data“1” con rango constitucional, Argentina ha regulado el derecho a la desconexión laboral, México aprobó la denominada Ley Olimpia contra la difusión no consentida de contenido íntimo, y Chile ha dado un paso sin precedentes al incluir en su reforma constitucional la protección de la privacidad mental y los neuroderechos.
La Ley de Inteligencia Artificial de la UE marca un hito al establecer la primera regulación comprehensiva sobre los usos prohibidos de sistemas de IA, que incluyen la vigilancia masiva y los sistemas de puntuación social. Este marco normativo opera sobre una lógica de riesgo graduado, distinguiendo entre aplicaciones de riesgo inaceptable, alto, limitado o mínimo.

Por su parte, Naciones Unidas adoptó en diciembre de 2024 las recomendaciones del documento Governing AI for Humanity dentro del Global Digital Compact (Pacto Digital Mundial). En agosto de 2025 se acordó la implementación de los dos primeros mecanismos de gobernanza global, lanzados oficialmente en la UNGA80 —80.º periodo de su Asamblea General—, de septiembre del mismo año. Este proceso multilateral enfrenta, sin embargo, retos significativos en términos de inclusión, representatividad y capacidad real de implementación.
Estos avances normativos contrastan con un discurso dominante que privilegia la desregulación como condición para la competitividad. Esta tensión no es meramente retórica: refleja una asimetría estructural de poder entre ciudadanos, Estados y corporaciones tecnológicas. La velocidad de innovación supera sistemáticamente la capacidad de respuesta regulatoria, generando lo que algunos autores denominan “déficit democrático tecnológico”.
La competencia geopolítica por el liderazgo en IA intensifica este fenómeno. La rivalidad entre Estados Unidos y China por la hegemonía tecnológica no se limita al desarrollo de capacidades computacionales: implica el control sobre datos, las infraestructuras energéticas y, fundamentalmente, la capacidad para establecer estándares globales. En este contexto, el debate sobre derechos digitales adquiere una dimensión estratégica que trasciende lo ético para convertirse en una cuestión de soberanía.
Este proceso ha generado lo que podríamos denominar una “crisis de la narrativa” caracterizada por la pérdida de capacidad de las instituciones tradicionales y de la ciudadanía para definir los términos del debate público. El discurso técnico ha colonizado espacios que requieren deliberación política, ética y social. Conceptos como “pensar” o “aprender”, aplicados a sistemas algorítmicos, constituyen metáforas antropomórficas que oscurecen la naturaleza radicalmente distinta de estos procesos respecto a la cognición humana.
Esta confusión conceptual tiene implicaciones normativas. La distinción entre procesamiento de información y pensamiento, entre simulación de comportamiento y experiencia consciente, no es semántica: define el alcance de nuestras obligaciones éticas y el tipo de protecciones jurídicas que consideramos necesarias. Un sistema puede reproducir patrones lingüísticos con precisión estadística, sin comprender el significado existencial de lo que articula. Puede emular respuestas que simulan comprensión mediante el análisis de patrones, sin experimentar la subjetividad inherente a la conciencia humana.
Esta distinción resulta particularmente relevante cuando consideramos aplicaciones como compañeros virtuales o sistemas de apoyo emocional basados en IA. La sustitución de relaciones humanas por interacciones algorítmicas plantea interrogantes sobre la mercantilización de necesidades fundamentales: la sociabilidad, el reconocimiento y la necesidad de ser comprendido. Cuando conversaciones íntimas se convierten en datos entrenables, emerge una forma de extracción que trasciende lo económico para afectar a la esfera más privada de la experiencia humana.
Eleanor Roosevelt, figura central en la redacción de la Declaración Universal, formuló en 1953 una pregunta que mantiene su vigencia: “¿Dónde comienzan los derechos humanos? En lugares minúsculos, cerca de casa, tan pequeños que no aparecen en mapas: el vecindario, la escuela, el trabajo. Si no tienen significado allí, no lo tendrán en ningún lado”. En el contexto actual, esos lugares incluyen nuestros dispositivos, nuestras interacciones mediadas digitalmente, los algoritmos que filtran nuestra percepción del mundo.
La efectividad de los derechos digitales no depende únicamente de su consagración normativa, sino de su exigibilidad práctica: instituciones con capacidad de supervisión efectiva, procedimientos claros de reclamación, cultura cívica que reconozca estos derechos como extensión natural de la dignidad humana. Esto plantea un desafío particular para las generaciones que han crecido en un entorno donde la privacidad es residual y la extracción de datos está normalizada.
La urgencia de esta agenda se intensifica al considerar tecnologías emergentes: la neurotecnología, la computación cuántica, la biología sintética. Cada una expande el perímetro de lo técnicamente posible, requiriendo marcos éticos y jurídicos que actualmente no existen. Si los derechos digitales básicos permanecen sin garantías efectivas, difícilmente podremos abordar los dilemas más complejos que plantearán estas tecnologías.
En este sentido, la defensa de los derechos digitales constituye un proyecto fundamental para la justicia social del siglo XXI. Requiere acción coordinada entre ciudadanía, instituciones públicas y actores privados, basada en el reconocimiento de que el futuro tecnológico no está predeterminado: es el resultado de elecciones políticas, económicas y éticas que aún podemos delinear.
La lección paradójica de los sistemas de IA generativa radica precisamente en recordarnos el valor de las preguntas fundamentales: una sociedad que encuentra respuestas a preguntas conocidas evoluciona incrementalmente, mientras que una que formula cuestiones fundamentalmente nuevas sobre su propia naturaleza y organización, tiene potencial transformador.
La ciudadanía digital nos ofrece esa oportunidad: repensar qué significa la autonomía, la privacidad o la dignidad en un contexto donde la mediación tecnológica es ubicua. Las respuestas que construyamos determinarán si los derechos humanos mantienen su pretensión de universalidad o si, por primera vez en la historia moderna, aceptamos su erosión en los espacios donde transcurre una parte cada vez mayor de nuestra existencia.
* Versión escrita de la conferencia Ciudadanía digital y derechos humanos en la era de la conectividad, impartida en el reciente #ANDICOM40 (septiembre de 2025), el Congreso Internacional TIC más importante de América Latina (Cartagena, Colombia).
Este número de TELOS ha sido realizado en colaboración con:

1Derecho de cualquier persona física o jurídica para solicitar y obtener la información existente sobre su persona, y de solicitar su eliminación o corrección si fuera falsa o estuviera desactualizada.
Empresaria y directiva española, reconocida experta en Big Data, Inteligencia Artificial e innovación tecnológica, con más de 25 años de experiencia en el sector tecnológico. En 2006 co-fundó Synergic Partners, empresa pionera en Big Data a nivel europeo que fue adquirida por Telefónica a finales de 2015, donde siguió como CEO hasta la integración total de la empresa en el grupo a finales de 2018. Desde el 2019 y hasta su nombramiento como secretaria de Estado, se ha dedicado al asesoramiento estratégico de alto nivel en consejos de empresas internacionales. Ha sido nombrada embajadora «Women in Data Science (WIDS)» por la Universidad de Stanford (California) y reconocida por la revista de negocios norteamericana Insight Success como la única española entre las 30 directivas más influyentes y con mayor proyección internacional. Está entre las primeras mujeres del mundo en el negocio de los datos y viene dispuesta a cambiar las cosas desde el sector público para hacer que España ocupe el lugar que le corresponde en el cambio tecnológico y la transición digital.
Empresaria y directiva española, reconocida experta en Big Data, Inteligencia Artificial e innovación tecnológica, con más de 25 años de experiencia en el sector tecnológico. En 2006 co-fundó Synergic Partners, empresa pionera en Big Data a nivel europeo que fue adquirida por Telefónica a finales de 2015, donde siguió como CEO hasta la integración total de la empresa en el grupo a finales de 2018. Desde el 2019 y hasta su nombramiento como secretaria de Estado, se ha dedicado al asesoramiento estratégico de alto nivel en consejos de empresas internacionales. Ha sido nombrada embajadora «Women in Data Science (WIDS)» por la Universidad de Stanford (California) y reconocida por la revista de negocios norteamericana Insight Success como la única española entre las 30 directivas más influyentes y con mayor proyección internacional. Está entre las primeras mujeres del mundo en el negocio de los datos y viene dispuesta a cambiar las cosas desde el sector público para hacer que España ocupe el lugar que le corresponde en el cambio tecnológico y la transición digital.
Ver todos los artículos