23 de octubre de 2018

L

La protección de datos, un asunto profundamente humano

por Paula Ortiz

[ ILUSTRACIÓN: DANIEL TORNERO ]

El Supervisor Europeo de Protección de Datos ha creado un Grupo Ético en el que se plantea el significado y las consecuencias de las interacciones humanas con las máquinas para definir lo que significa ser humano.

 

“Los ordenadores son inútiles. Solo pueden darnos respuestas”. Esta reflexión de Pablo Picasso pronunciada en 1968 está de plena actualidad y refleja el profundo debate que estamos presenciando sobre el desarrollo de la tecnología, su alcance y el posible impacto para la sociedad. Y señala un punto de partida que puede parecer sencillo: la innovación en sí es neutra, depende del fin al que se destine. O, en palabras de Picasso, depende de las preguntas que le hagamos.

Los actuales avances tecnológicos, como la inteligencia artificial, la robótica, la nanotecnología, o las posibilidades que brinda el tratamiento a gran escala de la información, entre otros, son un reflejo de esta cuestión y ponen de relieve que no todo lo tecnológicamente posible es legal. Y no todo lo que es legal es necesariamente ético.

Y es que, a lo largo de nuestra historia, las implicaciones éticas, sociales y legales de la innovación han sido el hilo conductor en todo desarrollo tecnológico. Los debates generados en su día, por ejemplo, con la invención de la pólvora y la dinamita, están sucediendo ahora con la gestión de los datos, sus beneficios y sus posibles consecuencias.

Nos encontramos en un momento en el que no es suficiente cumplir con la letra de la ley y demostrarlo, si no que el debate trasciende a la vertiente ética, filosófica y moral. Tecnológicamente es casi todo posible y tenemos la responsabilidad de plantearnos hasta dónde queremos llegar como sociedad.

Vivimos en una sociedad conectada y los datos que aportamos, que generamos y que se infieren, incluidos aquellos sobre el comportamiento, se han convertido en un activo económico importante. Además, el concepto de privacidad ha cambiado, y también los propios usuarios comparten de manera proactiva información en las redes sociales.

Tecnológicamente es casi todo posible y tenemos la responsabilidad de plantearnos hasta dónde queremos llegar

Teniendo en cuenta la ingente cantidad de datos que generamos en cada movimiento digital, y las capacidades de recolección, uso y la capa de inteligencia que se le puede introducir, es posible conocer y entender a los consumidores, a los usuarios, a los ciudadanos y llevar a cabo una gestión mucho más eficiente de los servicios, segmentar mensajes, y ofrecer lo que necesita en el momento en que lo necesita.

El tratamiento de los datos ayuda a solucionar problemas de la sociedad, y es beneficioso tanto para ciudadanos, como para empresas y gobiernos. Pero también, como hemos podido comprobar, el tratamiento de la información personal puede tener consecuencias indeseadas: puede influir en el comportamiento humano y en su libertad individual. Puede afectar en aspectos como la decisión de compra de un producto, hasta marcar el destino de un voto.

Mediante el uso de datos, la creación de patrones, la neurociencia y la inteligencia aplicada a estos perfiles, se pueden tomar decisiones sobre las personas sin que estén informadas de tal aspecto, y, por tanto, limitando su libertad de decisión. Y es que los datos tratados con algoritmos desempeñan un papel fundamental en la información y la orientación de la acción individual y social.

Las previsiones de malos usos presentan un futuro distópico. Lo podemos ver en casos como el desarrollo del sistema de puntuación de los ciudadanos en China, en la identificación biométrica de la India o en las capacidades planteadas por empresas como Cambridge Analytics.

Algunos expertos dicen que hemos dado el paso de una sociedad que gestiona el riesgo con cálculo de probabilidad, a una sociedad basada en puntuaciones individuales, en la que existe un análisis mucho más detallado de comportamientos y tendencias individuales, lo que permite una evaluación de riesgo más precisa y personalizada.

Se pueden tomar decisiones respecto a las personas basados únicamente en algoritmos, un aspecto que debe estar abierto a una defensa o impugnación. La tendencia de reemplazar enfoque de riesgo potencial por riesgo individualizado desafía la premisa del contrato social que conformamos como sociedad. Expertos han alertado sobre el uso de algoritmos que pueden estar sesgados y que ya toman decisiones sobre la salud, los seguros y las libertades de las personas 1. Unos algoritmos sobre los cuales los individuos son clasificados, evaluados, premiados o castigados.

Las posibilidades de tratamiento de la información no deben impedir que las personas desarrollen su personalidad sin injerencias y que ejerzan sus derechos y libertades. La privacidad y la protección de datos son cada vez más importantes para la protección de la dignidad humana. Desde una perspectiva técnica, legal y ética.

La tendencia de reemplazar enfoque de riesgo potencial por riesgo individualizado desafía la premisa del contrato social que conformamos como sociedad

En Europa el derecho a la protección de datos es un derecho fundamental, reconocido en los Tratados de la Unión Europea, en la Carta de los Derechos Fundamentales de la UE y, de forma más específica, en el Reglamento General de Protección de Datos, de plena aplicación desde mayo de 2018. Un texto complejo y prescriptivo que viene a adaptar las viejas normas de protección de datos del año 1995 a la era digital.

Los principios sobre protección de datos definidos en la Carta de la UE (necesidad, proporcionalidad, imparcialidad, minimización de los datos, limitación a una finalidad específica, consentimiento y transparencia) y los del Reglamento General de Protección de Datos son aplicables al tratamiento de datos en su integridad, tanto en lo que se refiere a su recogida como a su uso.

El Reglamento regula específicamente la creación de perfiles y lo define como el análisis o la predicción de aspectos relativos al rendimiento profesional, situación económica, salud, preferencias personales, intereses, fiabilidad, comportamiento, ubicación o movimientos y establece que las personas tendrán derecho a no ser objeto de una decisión basada únicamente en el tratamiento automatizado que produzca efectos jurídicos sobre él o le afecte significativamente de modo similar.

La ley exige además que se informe al interesado de la existencia del tratamiento de datos y de las consecuencias de dicha elaboración, debiendo facilitar cuanta información sea necesaria para garantizar que el tratamiento es leal y transparente. Todo interesado debe, por tanto, tener el derecho a conocer los fines para los que se tratan los datos personales, el plazo del tratamiento, sus destinatarios e incluso la lógica del tratamiento. El Reglamento, por tanto, refuerza la información que han de recibir los usuarios cuando se vayan a tratar sus datos y, por las consecuencias del tratamiento, de forma específica cuando se vayan a crear perfiles. De la inclusión de este artículo se deriva en una mayor capacidad de elección.

Por tanto, la elaboración de perfiles, cuando produzca efectos jurídicos significativos solo se puede llevar a cabo bajo una serie de parámetros y de garantías. El Grupo de autoridades de protección de datos europeas reunidas en el grupo de trabajo del artículo 29 establece que esos efectos jurídicos se dan cuando tiene lugar un tratamiento que tenga un impacto en los derechos, como el impedimento a entrar en un país, votar en unas elecciones o emprender acciones legales. Establece el grupo que aun cuando no se vean afectados específicamente los derechos u obligaciones legales los interesados aún podrían verse afectados lo suficiente como para requerir la protección de esta disposición.

Según las autoridades europeas, en muchos casos, mostrar publicidad durante la navegación basada en un perfil no tiene un efecto significativo en las personas. Si lo puede tener, por ejemplo, manejar, sesgar y dirigir las noticias a los individuos basadas únicamente en algoritmos.

Pero la ley tiene sus limitaciones. Por esta razón la dimensión ética tiene un papel tan importante. La ética tiene un alcance mucho más profundo de lo que se pueda recoger en conceptos jurídicos.

El Supervisor Europeo de Protección de Datos ha creado un Grupo Ético 2 en el que analizan la dimensión ética de la protección de datos y se plantean cuestiones como el significado y las consecuencias de las interacciones humanas con las máquinas, el poder del mercado para definir lo que significa ser humano, el dilema de la multitud de elecciones proporcionadas por un ecosistema digital controlado por nuevas formas de automatización y señala que el nuevo ecosistema desafía los principios europeos de autonomía, libertad, solidaridad, igualdad, democracia y confianza. En palabras de este Grupo Ético, la protección de datos no es un asunto técnico o legal, es un asunto profundamente humano. Y es que, como afirma el propio Reglamento de Protección de datos, el tratamiento de datos debe diseñarse para servir a la humanidad.

En el tratamiento de la información, de las grandes capacidades de datos y en la creación de perfiles deberían conjugarse tres elementos que en última instancia se van a materializar en la confianza en los servicios, en las empresas y en los gobiernos. Por un lado, un tratamiento ético de los datos, integrado en la estructura de la organización, en todo el ciclo de vida del dato y en toda la cadena de valor y que va a complementar todos aquellos aspectos a los que la ley no llega.

Un ejemplo lo podemos encontrar en Accenture, que es pionero en la elaboración de un Código de ética en el uso de los datos 3. Esto se va a traducir en una responsabilidad proactiva y demostrable respecto al tratamiento de la información.

Por otro lado, trabajar en la transparencia, que supondrá un usuario, un ciudadano informado, y que va a conducir a un tercer elemento, que es una capacidad de elección sobre los diferentes tratamientos.

Y es que, en esas preguntas que planteaba Picasso, es fundamental tener en cuenta la vertiente ética y que supone que el desarrollo no puede marcar el progreso de los valores y los derechos de una sociedad. La innovación y ética son compatibles, y suponen una oportunidad de hacernos mejor como ciudadanos y como sociedad.

Notas

 1“Google advierte: el verdadero peligro de la IA no son los robots asesinos sino los algoritmos sesgados” en MIT Technology Review. Disponible en: https://www.technologyreview.es/s/9610/google-advierte-el-verdadero-peligro-de-la-ia-no-son-los-robots-asesinos-sino-los-algoritmos

 2Towards a new digital ethics. Data, dignity and technology. Disponible en: https://edps.europa.eu/sites/edp/files/publication/15-09-11_data_ethics_en.pdf

 3Building digital trust: the role of data ethics in the digital age. Disponible en: https://www.accenture.com/ca-en/insight-data-ethics

Bibliografía

European Data Protection Supervisor (2018): “EDPS Opinion on online manipulation and personal data”. Disponible en: https://edps.europa.eu/sites/edp/files/publication/18-03-19_online_manipulation_en.pdf
Institute of Business Ethics (2016): “Business Ethics and Big Data” en Business Ethics Briefing, Issue 52. Disponible en: https://www.ibe.org.uk/userassets/briefings/b52_bigdata.pdf
Praveen, K. & Cullen, J.B. (2013): Business Ethics. Nueva York, Editorial Routledge.
Cortina, A. (2008): Ética en la empresa. Madrid, Editorial Trotta.
EDPS Ethics Advisory Group (2018): “Towards a digital ethics”. Disponible en: https://edps.europa.eu/sites/edp/files/publication/18-01-25_eag_report_en.pdf

Artículo publicado en la revista Telos 109


Ir al número ...


Paula Ortiz

Directora Jurídica y de Relaciones Institucionales de IAB Spain. Experta en temas de regulación, derecho digital, internet, contenidos digitales, social media y publicidad digital.


Comentarios