12 de enero de 2021

L

La pandemia: nueva carta para el humanismo

por Federico de Montalvo
Ilustrador Víctor Coyote

Una gran crisis biológica en la era de la inteligencia artificial nos pone cuerpo a tierra. Esta crisis subraya todavía más los límites de nuestra autosuficiencia y la común fragilidad, revelando nuestra dependencia tanto de otros seres humanos como respecto del mundo no humano. Y el problema es que nos hemos hecho más vulnerables a los riesgos globales sin haber desarrollado los procedimientos de protección.

 

La pandemia ha alterado de manera extremadamente disruptiva nuestra realidad, y no solo en el ámbito de la salud. Como señalara al inicio de la pandemia la Pontificia Academia para la Vida “toda la humanidad está siendo puesta a prueba. La pandemia de COVID-19 nos pone en una situación de dificultad sin precedentes, dramática y de alcance mundial”1. Y resulta ciertamente paradójico que la palabra disrupción, que la Real Academia define como rotura brusca, ha venido siempre vinculada al avance de la tecnología y haya sido, precisamente una pandemia, la que esté provocando cambios radicales.

La inteligencia artificial (IA) o el big data parecían los verdaderos impulsores de un cambio inaudito que vendría a marcar inexorablemente el futuro del ser humano. El tecno-optimismo nos anticipaba que todos los problemas de nuestra sociedad y nuestra condición humana quedarían resueltos en un futuro cercano2. Y si bien esta pandemia parece que la IA (véase BlueDot3), la vio venir, sin embargo, ¿para qué ha servido tal predicción? Y, además, ¿ha permitido paliar sus consecuencias? Para el Instituto Tecnológico de Massachusetts (MIT), la propaganda en torno a la IA contra el coronavirus está superando a la realidad4. Y según el Banco Interamericano de Desarrollo (BID), a pesar de que la IA puede tener varios usos, su alcance y efecto en esta pandemia puede ser muy limitado5.

Una pandemia, algocon evidente regusto aantiguo, puede provocarmuchos cambios y unavuelta al humanismo

Una gran crisis biológica en la era de la IA nos pone cuerpo a tierra. Esta crisis subraya todavía más los límites de nuestra autosuficiencia y la común fragilidad, revelando nuestra dependencia tanto de otros seres humanos como respecto del mundo no humano. Y el problema es que nos hemos hecho más vulnerables a los riesgos globales sin haber desarrollado los procedimientos de protección6. Una pandemia, algo con evidente regusto a antiguo, es la que puede provocar muchos cambios y una vuelta al humanismo.

Nuevo humanismo

El humanismo no debe renunciar a los avances que nos ofrece la tecnología, sino incorporarlos como instrumentos esenciales para una mejora de nuestra vida, pero sin caer en el sueño de una invulnerabilidad. La alianza entre el ser humano, la ética y la tecnología no debe desvanecerse sino reforzarse. La tecnología ha sido la herramienta insustituible que nos ha permitido a muchos continuar desde la distancia de nuestros hogares con nuestras actividades profesionales y mantener las relaciones afectivas desde el confinamiento. La tecnología ha mostrado su lado más humano.

El nuevo humanismo tecnológico debe mostrarnos no solo el fracaso del tecno-optimismo exacerbado, sino también de un humanismo puramente individual, no relacional, ajeno al bien común. Tan perjudicial es promover un paradigma tecnológico como uno asentado en el rechazo a los avances por una visión egoísta de los derechos individuales en detrimento del interés colectivo. Este nuevo humanismo tecnológico se fundamentaría en lo que Ulrich Beck en su sociedad del riesgo denominara “cientificación reflexiva frente a la cientificación simple”7.

Premonitoriamente, una propuesta de desarrollo tecnológico ético, bajo el sugerente término de RenAIssance, la formuló la Iglesia Católica pocos días antes de que la Organización Mundial de la Salud (OMS) declarara la pandemia.

 

 

El 28 de febrero de 2020, se firmó en la Ciudad el Vaticano, el manifiesto Rome Call for AI Ethics8, suscrito, entre otras instituciones, por Microsoft, IBM, la Organización de las Naciones Unidas de la Alimentación y la Agricultura (FAO), el Parlamento Europeo y el Gobierno de Italia. Ahí se recuerda que, ahora más que nunca, debemos garantizar una perspectiva en la que la IA se desarrolle con un enfoque, no en la propia tecnología, sino por el bien de la humanidad y del medio ambiente, de nuestro hogar común y compartido, y de sus seres humanos, que están inextricablemente conectados. Es decir, una visión en la que los seres humanos y la naturaleza están en el corazón de cómo se desarrolla la innovación digital, respaldada en lugar de ser reemplazada gradualmente por tecnologías que se comportan como actores racionales pero que de ninguna manera son humanos. Y concluye señalando que para que el avance tecnológico se alinee con el verdadero progreso para la raza humana y el respeto por el planeta, debe cumplir con tres requisitos. Debe incluir a todos los seres humanos, sin discriminar a nadie; debe tener el bien de la humanidad y el bien de cada ser humano en su corazón; y, finalmente, debe ser consciente de la compleja realidad de nuestro ecosistema y caracterizarse por la forma en que cuida y protege el planeta.

Uso secundario de los datos

Un ejemplo de este cambio que puede estar ayudando a acelerar la pandemia es el uso secundario de los datos de salud para la investigación frente a la enfermedad COVID-19, es decir, el tratamiento de los datos para un fin distinto de aquel para el que fueron recopilados. La regulación del tratamiento masivo de datos se muestra como uno de los reductos en los que se venía postulando una discutible primacía casi absoluta del individuo sobre el interés colectivo. Aquel permanecía bajo el paradigma del principio de autonomía, sin reparar en los beneficios para la colectividad. El interés general era identificado con los propios intereses de las empresas tecnológicas o directamente obviado. Este modelo parece postular un derecho a no compartir los datos en cualquier circunstancia, incluso cuando la salud de terceros puede depender de ellos, lo que difumina la línea entre la autonomía individual y el egoísmo y narcisismo9.

Un paradigma asentado que define que la enfermedad y sus datos solo les pertenecen a quienes sufren aquella, olvida que el desarrollo de la tecnología nos ofrece grandes posibilidades en la lucha contra las enfermedades. Exigir inexorablemente el consentimiento del individuo se traduce en que este tiene la facultad legal de afectar a la esperanza de muchos otros individuos, para los que tal tratamiento de datos de salud se ofrece hoy como una opción real de curación.

Es poco discutible, en el estado actual de la biomedicina y la tecnología, que el uso masivo de datos ofrece muchas oportunidades. Los algoritmos comparan un ingente número de procesos asistenciales, permitiendo conocer con mayor precisión, por volumen, cuáles son los mejores tratamientos para cada una de las enfermedades. El big data permite avanzar en el campo de la medicina basada en la evidencia y evita el problema que plantean muchos ensayos clínicos que, o bien seleccionan pacientes que muchas veces no suelen compartir el perfil de la media poblacional que padece una enfermedad, o bien no permiten valorar correctamente la adherencia farmacológica. El big data no hace una selección de pacientes a los que sitúa en unas condiciones artificiales ideales, sino en sus condiciones reales de salud10.

Tan perjudiciales promover un paradigma tecnológico como uno asentado en el rechazoa los avances

Para el Consejo Nacional de Ética de Alemania, en la investigación biomédica, el análisis de grandes volúmenes de datos relevantes para la salud facilitará una mejor comprensión de importantes procesos científicos y de sus conexiones11. Esta misma idea aparece reflejada en el propio Reglamento UE de tratamiento, en su considerando 157. El dato clínico ha dejado de ser un mero recordatorio del proceso asistencial y se ha convertido en la principal fuente de avance en la medicina. Es el verdadero tesoro de la investigación biomédica. Y ello cobra mayor relevancia en sistemas de salud como el español, con una prestación esencialmente pública (modelo Beveridge12), permitiendo disponer de millones de datos en bases fácilmente interrelacionables?

Para el Comité Europeo de Protección de Datos, en sus Directrices 03/2020 sobre el tratamiento de datos relativos a la salud con fines de investigación científica en el contexto del brote de COVID-19, el uso secundario de los datos de salud incluye, entre otros: a) información recopilada por un proveedor de asistencia sanitaria en un historial médico (por ejemplo, historia clínica y resultados de exámenes y tratamientos); b) información que se convierte en datos sanitarios, al ser objeto de referencia cruzada con otros datos, por lo que revela el estado de salud o los riesgos para la salud (como la suposición de que una persona presenta un mayor riesgo de sufrir ataques cardíacos, basada en la medición de una presión arterial elevada durante un determinado período de tiempo); c) información procedente de una encuesta de “autocomprobación”, en la que los interesados responden a preguntas relacionadas con su salud (por ejemplo, declaración de síntomas); o d) información que se convierte en datos sanitarios al ser utilizada en un contexto específico (por ejemplo, información sobre un viaje reciente, o la presencia en una región afectada por la COVID-19 tratada por un profesional médico para realizar un diagnóstico).

En cuanto al concepto de tratamiento secundario o, en las propias palabras del Comité, ulterior de los datos de salud, las directrices distinguen entre un uso primario, el cual tendría lugar con el tratamiento de aquellos datos recogidos directamente para estudios científicos, y el uso secundario, es decir, la investigación sobre datos (sanitarios) personales consistente en el tratamiento ulterior de los datos recogidos inicialmente con otro fin. Tal distinción es para el Comité de especial importancia para establecer tanto la base jurídica para el tratamiento como las obligaciones de información y el principio de limitación de finalidad.

La oportunidad es indiscutible desde la perspectiva de la protección de la vida, lo que obliga a renunciar a un enfoque apriorístico en el que cualquier tratamiento de datos de salud sea concebido negativamente13. Se habla ya, metafóricamente, de la necesaria superación del paradigma Helsinki, haciendo referencia a un modelo legal asentado casi exclusivamente en la fuerza del consentimiento informado. La investigación con datos no afecta a la integridad de las personas. No se toca a la persona sino a sus datos. No estamos enfrentando integridad física del individuo e interés colectivo, sino la intimidad. Se trata de un nuevo informational research que, ni ética ni legalmente, puede ser equiparado a los ensayos clínicos que pueden poner en riesgo la integridad del sujeto14.

El cambio de paradigma no supone renunciar al derecho a la privacidad, sino reconocer que, como otros tantos derechos de nuestro ordenamiento, no es un derecho ilimitado, siendo uno de dichos límites el interés colectivo que, en el ámbito de la salud, tiene especial interés por los valores y derechos en conflicto. Continuar asentando el modelo legal en el postulado de que la enfermedad y sus datos solo les pertenecen a quienes sufren aquella y no a los demás es, en nuestra opinión, ignorar la realidad. Debemos recordar que la protección de datos no es, ni nunca ha sido, un fin en sí misma, sino que, más bien, sirve para proteger a la persona en el libre desarrollo de su personalidad, tanto en su esfera privada como en la esfera pública. Y dicho libre desarrollo de la personalidad se produce en un entorno social de interrelaciones, de manera que tan plausible es la autonomía como la propia responsabilidad y la solidaridad. El Instituto de Medicina de Estados Unidos acertadamente nos recuerda que el conflicto entre la esfera individual y colectiva en el ámbito de la investigación con datos en el ámbito de la salud es relativo, ya que, tanto la dignidad que se protege con la privacidad tiene una dimensión colectiva, como que el propio avance de la medicina lo tiene a nivel individual.

Además, los ciudadanos desean compartir los datos, especialmente para garantizar que otros pacientes conozcan los posibles efectos secundarios de los tratamientos15. El problema no está tanto en el uso, sino en la exigencia de un uso responsable y de gobernanza. Los que tienen más que ganar con el big data son los pacientes. En la campaña Los datos salvan vidas, los pacientes sostuvieron que la protección de la privacidad puede conciliarse con el uso de datos de salud personales para fines de atención médica, salud pública e investigación16.

Todos estos argumentos han sido recientemente defendidos por el propio Comité de Bioética de España, máximo órgano consultivo del Gobierno y de los poderes públicos en el ámbito de la bioética, en su Informe sobre los requisitos ético-legales en la investigación con datos de salud y muestras biológicas en el marco de la pandemia de COVID-19, del 28 de abril de 202017. Para el Comité, el conflicto entre derechos individuales y el interés colectivo que plantea el uso secundario de datos de salud, cobra una nueva perspectiva desde el momento en que la explotación masiva de los datos puede salvar la vida de otros. No se trata de poner en riesgo la intimidad, confidencialidad y protección de datos en pos de otros valores y derechos con menor trascendencia constitucional, sino de limitarlos en pos de la protección de la vida e integridad de terceros. Si el uso secundario ofrece la oportunidad de conocer cuál es la mejor oportunidad de superar la enfermedad para aquellos que la están sufriendo, o que pueden desgraciadamente sufrirla en el futuro, ¿podemos sostener un presunto paradigma de la soberanía absoluta del individuo sobre sus datos personales?

El problema no está tanto en el uso de los datos sino en la exigencia de un uso responsable y de gobernanza

Si bien el Comité considera obvio que el interés general nunca justifica el sacrificio del derecho individual, sí permitiría limitarlo cuando se trate de la preservación de un bien de enorme trascendencia para todos, como es la salud pública. No se admitiría el sacrificio absoluto del derecho individual pero sí su limitación, y ahora es ya posible con la seudonimización.

Seudonimizar no puede equipararse a seudoanonimización, como una especie de anonimización algo más débil, sino como la exigencia legal de ocultar el nombre del dato con un seudónimo, un código, de manera que el concepto equivaldría más al de una disociación más compleja. La seudonimización abre la puerta al uso secundario de los datos de salud sin necesidad de un nuevo consentimiento informado, permitiendo una solución de equilibrio entre la protección del individuo y del interés colectivo.

Y si bien, mediante la anonimización puede permitirse también el uso secundario del dato de salud sin exigirse un nuevo consentimiento informado, al quedar el dato fuera del régimen legal de la protección de datos, para el buen fin de las investigaciones es muy relevante mantener aquel vínculo, es decir, optar por seudonimizar; por dos motivos: se permite no solo ampliar los datos que se utilizan en la investigación a otros que inicialmente podían no considerarse trascendentes (ampliación de datos) y contrastar los resultados de la explotación de datos con, por ejemplo, la verdadera evolución de los pacientes (verificación de resultados). La seudonimización es la única garantía frente a las causalidades espurias y para verificar el buen funcionamiento de los algoritmos.

Notas

 1Pontificia Academia para la Vida, Pandemia y Fraternidad Universal, Ciudad del Vaticano, 2020, p. 1. www.academyforlife.va.

 2Lumbreras Sancho, S. (2019): Respuestas al transhumanismo. Cuerpo, autenticidad y sentido. Madrid, Digital Reasons. p. 24.

 3La empresa canadiense BlueDot se anticipó al anuncio oficial de la pandemia por parte de la Organización Mundial de la Salud (OMS).

 4https://www.technologyreview.es/s/12021/por-que-la-ia-nos-ayudara-combatir-la-proxima-pandemia-pero-no-esta.

 5González Alarcón, N. y Pombo, C. (2020): “¿Cómo puede la inteligencia artificial ayudar en una pandemia?” en Banco Interamericano de Desarrollo, Documento de Discusión, abril 2020, p. 4.

 6Innerarity, D. (2020): Pandemocracia. Barcelona, Galaxia Gutemberg. p. 115.

 7Beck, U. (2006): La sociedad del riesgo. Barcelona, Paidós. pp. 260 a 300. Vid., también, Ramiro Avilés, “Moralismo legal y bioética. El caso de la clonación humana” en Anuario de Filosofía del Derecho, año 2007, pp. 103 y 104.

 8http://www.academyforlife.va/content/pav/en/events/intelligenza-artificiale.html.

 9Evans, B. J. (2018): “Big Data and individual responsability” en el libro de Glenn Cohen, I.; Fernández Lynch, H.; Vayena, E. y Gasser, U. (2018): Big Data, Health law and Bioethics. Cambridge: Cambridge University Press, 21.

 10San Segundo Encinar, J. M. (2017): Big Data en salud digital. Informe de resultados. Madrid, Red.es, pp. 42 y 43.

 11German Ethics Council (2018): Big Data and health. Data sovereignity as the shaping informational freedom. Opinion, Executive Summary and Recommendations. Berlín.

 12El Modelo Beveridge es un sistema de atención médica en el que el gobierno brinda atención médica a todos sus ciudadanos a través del pago de impuestos sobre la renta.

 13Martínez, R. (2017): “Big data, investigación en salud y protección de datos personales ¿Un falso debate?” en Revista Valenciana d’Estudis Autonòmics, núm. 62, p. 236.

 14Evans, B. J. (2018): “Big Data and individual responsability”, en el libro Glenn Cohen, I.; Fernández Lynch, H.; Vayena, E. y Gasser, U., (2018): Big Data, Health law and Bioethics, op. cit., pp. 26 y 27.

 15Haug, C. J. (2016): “Whose Data Are They Anyway? Can a Patient Perspective Advance the Data-Sharing Debate?” en NEJM, 26 de abril, 1.

 16OECD (2019): Health in the 21st Century. Putting data to work for stronger health systems. París, OECD Publishing, p. 205.

 17Informe sobre los requisitos ético-legales en la investigación con datos de salud y muestras biológicas en el marco de la pandemia de COVID-19. Disponible en: http://assets.comitedebioetica.es/files/documentacion/Informe%20CBE%20investigacion%20COVID-19.pdf

Bibliografía

Comité de Bioética de España. Informe sobre los requisitos ético-legales en la investigación con datos de salud y muestras biológicas en el marco de la pandemia de COVID-19. Madrid, Instituto de Salud Carlos III, 28 de abril de 2020. Disponible en: https://www.udg.edu/ca/Portals/5/OpenContent/Files/32698/10_4_001_Informe_CBE_investigacion_COVID-19.pdf
Comité Europeo de Protección de Datos. Directrices 03/2020 sobre el tratamiento de datos relativos a la salud con fines de investigación científica en el contexto del brote de COVID-19. Bruselas, CEPD, 2020. Disponible en: https://edpb.europa.eu/our-work-tools/our-documents/ohjeet/guidelines-032020-processing-data-concerning-health-purpose_es
German Ethics Council (2018): Big Data and health. Data sovereignity as the shaping informational freedom. Opinion, Executive Summary and Recommendations. Berlín.
Evans, B. J. (2018): “Big Data and individual responsability” en el libro de Glenn Cohen, I.; Fernández Lynch, H.; Vayena, E. y Gasser, U. (2018): Big Data, Health law and Bioethics. Cambridge: Cambridge University Press, 21.
International Bioethics Committee. Report on Big Data and Health. UNESCO, 2017. Disponible en: http://unescoblob.blob.core.windows.net/pdf/UploadCKEditor/REPORT%20OF%20THE%20IBC%20ON%20BIG%20DATA%20AND%20HEALTH%20%2015.09.17.pdf

xabi uribe belinda 4

Artículo publicado en la revista Telos 115


Ir al número ...

Autor

Profesor de Derecho Constitucional en ICADE. Presidente del Comité de Bioética de España.

Ver todos los artículos

Contenido relacionado

Comentarios

eusebio_terreros_@hotmail.com
julio 9, 2021 5:49 am

El humanismo no debe renunciar a los avances que nos ofrece la tecnología, sino incorporarlos como instrumentos esenciales para una mejora de nuestra vida, pero sin caer en el sueño de una invulnerabilidad

Artículos relacionados