27 de marzo de 2024
por
José Manuel Muñoz
José Ángel Marinaro
La posibilidad de conectarnos con una máquina que pueda darnos “todas” las respuestas resulta ciertamente tentadora. Pero la sensación de estar delante de un ente en apariencia omnisciente puede dar pie a que, movidos por una especie de doppelgänger o duendecillo interno, comencemos a formularle preguntas cuyas respuestas no estamos preparados para recibir.
Algunos sucesos recientes con chatbots de última generación han provocado que salten las alarmas a nivel internacional. Valga como ejemplo paradigmático el de un hombre belga que, aislado por causa de su “ecoansiedad” y tras encontrar refugio en el chat Eliza durante seis semanas, se sumió en un profundo pesimismo sobre el futuro de nuestro planeta y acabó suicidándose1. Existen, incluso, casos en los que chatbots especializados en medicina han llegado a recomendar el suicidio a los pacientes (por fortuna, ficticios)2.
Estos sucesos, pese a resultar llamativos y alarmantes, no deben ser tomados a la ligera y requieren, sin duda, un análisis en profundidad acerca de sus causas y consecuencias. Difundir la idea de que los chatbots (o incluso la IA en general) resultan intrínsecamente nocivos para los seres humanos resultaría del todo irresponsable. Sin embargo, casos como los mencionados sí nos invitan a recapacitar sobre la manera en que, como humanos, estamos concibiendo la naturaleza de nuestra interacción con la IA.
Cuando las respuestas que recibimos de los chatbots son “soluciones” a cuestiones relacionadas con nuestros más profundos propósitos e inquietudes, la sensación puede ser enormemente perturbadora
Las repercusiones de esta concepción son tremendamente importantes para las personas que, por su condición económica o social, su estado mental (pacientes psiquiátricos) o su edad (nuestros menores y mayores) se encuentran en una situación especialmente vulnerable, pero en última instancia afectan a la humanidad en su conjunto.
La ingeniera Mieke De Ketelaere, gran conocedora del caso belga, llegó a la conclusión de que, de alguna manera, Eliza “se estaba divirtiendo con Pierre [nombre ficticio], sin ninguna ética ni moral” y afirmó que “es posible intercalar cualquier diálogo en este tipo de ‘chatbots’ con el fin de hacer más ‘humana’ la relación, usando extractos de discusiones reales con el fin de acentuar el sentimiento de que se está conversando con un auténtico ser humano y no con una máquina”3.
La antropomorfización de la IA, no solo por parte del gran público sino también de los propios desarrolladores, ha sido estudiada por diversos investigadores, incluyendo a los del Human Brain Project europeo (Salles et al., 2020). Pero quizá la atribución de cualidades, consciencia o emociones genuinamente humanas a la IA (es decir, la aceptación de facto de la existencia de una IA general, pese a que aún no ha llegado4) sea solamente una parte de la ecuación. ¿No estaremos, además, concediéndole un rol cuasi sobrenatural, con los dones no solo de la omnisciencia, sino también de la omnipotencia y hasta la omnipresencia?
Al asistir, frente a una pantalla, a las respuestas que un chatbot de última generación devuelve a ciertas preguntas para las que no sabemos (o no queremos) buscar una respuesta, tenemos la impresión de estar delante de un ente que, en cierto modo, nos recuerda a nosotros en algunos aspectos. A pesar de ello, somos conscientes de que no estamos en presencia de algo genuinamente humano y, sin embargo, nos abruma la capacidad de ese ser artificial para sobrepasar muchas de nuestras capacidades.
Esta experiencia, en la que se mezclan lo humano, lo artificial y lo “sobrenatural”, puede llegar a ser inquietante para cualquier persona, y en especial para aquellas que se enfrentan a situaciones de vulnerabilidad. Cuando, además, las respuestas que recibimos de los chatbots son supuestas “soluciones” a cuestiones relacionadas con nuestros más profundos propósitos e inquietudes, la sensación puede ser enormemente perturbadora. Después de todo, nuestra búsqueda de sentido nos caracteriza como humanos, como Viktor Frankl (1959) y tantos otros se han encargado de recordarnos.
Dadas estas circunstancias, cabe la posibilidad de que estemos ante el inicio de un nuevo estadio en la historia de nuestras relaciones con la IA: una fase de “tecnoanimismo”, es decir, de atribución de una especie de alma o psique a los entes tecnológicos. Esta forma de animismo, analizada extensamente por Jensen y Blok (2013), surgió primeramente en Japón bajo el influjo de las creencias sintoístas, según las cuales toda la naturaleza está imbuida por entes espirituales denominados kami. De algún modo, el tecnoanimismo podría estar surgiendo también en Occidente bajo la forma de una creencia simultánea tanto en las capacidades sobrehumanas de la IA como en su faceta antropomórfica.
En cierto modo, este hecho no resulta sorprendente si tenemos en cuenta que el cristianismo y el judaísmo, que han moldeado en gran medida la mentalidad occidental, atribuyen a Dios algunas cualidades humanas que convergen con sus poderes divinos. No obstante, sí resulta paradójico que el tecnoanimismo occidental surja (a diferencia del de Japón) en el seno de una sociedad que no solo es predominantemente materialista5, sino también mecanomorfista, lo que conlleva “la atribución de características mecánicas al individuo humano y la interpretación del comportamiento humano en términos de conceptos y procesos propios de las máquinas” (Waters, 1948: 139)6. El peligro de esta especie de carretera de doble sentido en la atribución de cualidades animadas no es otro que la subordinación ontológica de lo humano en pro de la IA.
A medio o largo plazo, esta subordinación ontológica se vislumbra como un paso previo a algo parecido a un “derecho natural de la IA”: una nueva forma de iusnaturalismo consistente en otorgar derechos inalienables a la IA, fundamentados en su naturaleza intrínseca. Esto implica, a su vez, la consideración de las IAs como sujetos morales, con sus correspondientes obligaciones propias. Una consecuencia directa e inevitable de este tipo de doctrina es que se difuminan o eluden las responsabilidades derivadas de un diseño y desarrollo de esta tecnología que pueda resultar éticamente dudoso.
Otra consecuencia de la sacralización de la cosa−máquina como ente superior (o, cuando menos, equiparable) al ser humano es el riesgo de captación indiscriminada de usuarios como una especie de adeptos. Sin pretender afirmar que no es permisible, o hasta conveniente, dejar en manos de la IA ciertas tareas, tampoco es deseable basar nuestra interacción con ella en una fe ciega que nuble nuestra autonomía, lo que conllevaría de nuevo una elusión de responsabilidad, esta vez por parte de los usuarios.
Cierto es que se han producido llamadas serias y bien argumentadas en pos de la autorregulación7. No obstante, la voz de la industria no debería ser la única tenida en cuenta; los usuarios deberíamos ejercer el poder depositado democráticamente en manos de nuestros representantes para dar paso a medidas como las ya adoptadas por la Casa Blanca8 o por la Unión Europea a través de su AI Act9. En este sentido, la medida más contundente tomada hasta la fecha ha sido la de Italia, que ha llegado a prohibir el uso de ChatGPT, de forma provisional, hasta que este respete las políticas de privacidad del país10.
En una polémica carta dirigida al Future of Life Institute y apoyada hasta el momento por más de treinta mil firmantes, un grupo internacional de expertos ha pedido “pausar inmediatamente durante al menos seis meses el entrenamiento de los sistemas de IA más potentes que GPT-4”11. La propuesta ha recibido importantes críticas, incluyendo la del influyente eticista Marcello Ienca en la revista Nature Machine Intelligence (Ienca, 2023).
Sea como fuere, y manteniéndonos aquí neutrales respecto a si todas estas medidas y propuestas regulatorias son las adecuadas, consideramos urgente efectuar una reflexión encaminada a la emancipación de las posiciones tecnoanimistas y a la recuperación de los valores humanistas en nuestra relación con la IA.
Dado que el humanismo puede ser interpretado de formas diversas12, conviene aclarar aquí que, reformulando una de las acepciones que la RAE propone para el término, lo entendemos como el “sistema de creencias centrado en el principio de que las necesidades de la sensibilidad y de la inteligencia humana pueden satisfacerse sin tener que aceptar la existencia de una inteligencia artificial animada y ontológicamente superior” y no «aceptar la existencia de Dios y la predicación de las religiones» como aparece en la definición13.
Para poner el foco en el ser humano, no es suficiente con la autorregulación y las medidas gubernamentales. También es necesario trabajar en pos de una adecuada alfabetización tecnológica de los usuarios sobre la IA, para que seamos plenamente conscientes de que se trata de una producción humana y para que conozcamos los alcances y limitaciones de esta maravillosa herramienta con inmensos beneficios potenciales para la humanidad. En este sentido, el papel de la educación (tanto la reglada como la familiar) se prevé esencial para lograr estos objetivos, así como para evitar que proliferen sesgos cognitivos que puedan afectar a las propias interacciones humanas.
Cabe recapacitar sobre la manera en que estamos concibiendo la naturaleza de nuestra interacción con la IA: como una subordinación ontológica
Las máquinas no son un prototipo de autor en los términos en que lo entiende Foucault (1969), es decir, “aquel a quien puede atribuírsele lo que ha sido dicho o escrito”14. En efecto, uno se pregunta por el autor cuando puede identificarlo y formular un juicio de atribución. Esta forma de entender la autoría supone una asignación de responsabilidad.
Lo que los chatbots responden a nuestras preguntas (en ocasiones, casi plegarias) no puede atribuírseles a ellos; estas respuestas nacen de semánticas, datos y algoritmos originados y desarrollados por humanos. En palabras de Searle (1980: 417), “ningún programa por sí solo es suficiente para pensar”. Además, carecen de emociones, que constituyen el otro elemento fundamental para tener un “yo” y que son típicamente humanas (o animales, pero en ningún caso tecnológicas).
En definitiva, debemos ser nosotros, los humanos, quienes hagamos las interpretaciones correctas a las respuestas que la IA nos devuelve. Debemos ser nosotros quienes consigamos encontrar sentido a nuestras vidas, sin esperar que la IA encuentre el sentido por nosotros. Como bien afirma Bogalheiro (2020: 57): “Encantar objetos técnicos es, por un lado, crear una posibilidad de suspenderlos de sus flujos instrumentales y, por otro, instalar un realismo mágico o problemático que perturba las articulaciones de una realidad mera y exclusivamente humana”.
Desde los automóviles autónomos, pasando por las máquinas híbridas, hasta las nuevas neurotecnologías comunicadas con la IA (como las interfaces cerebro-computadora), los errores y aciertos de la tecnología no han sido, son y serán sino creaciones humanas. Si algún día nos topamos con consecuencias catastróficas, no debemos dudar de que serán responsabilidad de anthropos, y no de las ocurrencias o disrupciones “emocionales” de las cosas.
1Véase https://www.abc.es/sociedad/belgica-registra-primer-suicidio-inducido-chat-gestionado-20230403145126-nt.html
2Véase https://www.artificialintelligence-news.com/2020/10/28/medical-chatbot-openai-gpt3-patient-kill-themselves/
3Declaraciones extraídas de la noticia de ABC referenciada en la nota nº 1.
4Véase https://www.businessinsider.es/inteligencia-artificial-general-agi-explicacion-sencilla-1252310
5En este contexto, nuestra forma de entender el materialismo implica asumir simultáneamente las dos acepciones que la RAE asigna a este término (véase https://dle.rae.es/materialismo?m=form), a saber: (1) “Tendencia a dar importancia primordial a los intereses materiales”, y (2) “Concepción del mundo según la cual no hay otra realidad que la material, mientras que el pensamiento y sus modos de expresión no son sino manifestaciones de la materia y de su evolución en el tiempo”.
6Fernanda Rocha ha analizado en TELOS la relación entre la mecanomorfización del ser humano y la antropomorfización de la IA en relación al concepto de creatividad. Véase https://telos.fundaciontelefonica.com/creatividad-artificial/
7Sirva como ejemplo esta columna escrita por George W. Schoenstein para Forbes: https://www.forbes.com/sites/forbescommunicationscouncil/2023/07/20/seize-the-opportunity-embrace-self-regulation-to-harness-the-full-potential-of-ai/?sh=510be9f62505
8Véase https://www.swissinfo.ch/spa/inteligencia-artificial_las-tecnol%C3%B3gicas-de-ee-uu–aceptan-las-medidas-de-la-casa-blanca-para-el-desarrollo-de-ia/48679976
9Véase https://artificialintelligenceact.eu/the-act/
10Véase https://www.lavanguardia.com/tecnologia/20230331/8868073/italia-prohibe-chatgpt-respetar-legislacion-datos.html
11La carta, que tiene 33.002 firmantes a fecha de 21 de julio de 2023, puede leerse en https://futureoflife.org/open-letter/pause-giant-ai-experiments/
12Para un análisis de tres modos distintos de comprender el humanismo en el ámbito de nuestras relaciones con la tecnología, véase el siguiente artículo de Adolfo Castilla en TELOS: https://telos.fundaciontelefonica.com/hacia-un-nuevo-humanismo/
13Modificado a partir de la quinta acepción de “humanismo” en el Diccionario RAE, disponible en https://dle.rae.es/humanismo?m=form
14Extraído de http://23118.psi.uba.ar/academica/carrerasdegrado/musicoterapia/informacion_adicional/311_escuelas_psicologicas/docs/Foucault_Que_autor.pdf
Bogalheiro, M. “Techno-animism or the magical existence of technical objects” en International Journal of Film and Media Arts (2020, 6, 55−72). Disponible en: https://doi.org/10.24140/ijfma.v6.n1.03
Foucault, M. “Qu’est-ce qu’un auteur?” en Bulletin de la Société Française de Philosophie (1969, 63, 73−104).
Frankl, V. E. (1959): Man’s search for meaning. Boston, Beacon Press.
Ienca, M. “Don’t pause giant AI for the wrong reasons” en Nature Machine Intelligence (2023, 5, 470−471). Disponible en: https://doi.org/10.1038/s42256-023-00649-x
Jensen, C. B., y Blok, A. “Techno-animism in Japan: Shinto cosmograms, actor-network theory, and the enabling powers of non-human agencies” en Theory, Culture & Society (2013, 30, 84−115). Disponible en: https://doi.org/10.1177/0263276412456564
Salles, A., Evers, K., y Farisco, M. “Anthropomorphism in AI” en AJOB Neuroscience (2020, 11, 88−95). Disponible en: https://doi.org/10.1080/21507740.2020.1740350
Searle, J. “Minds, brains, and programs” en Behavioral and Brain Sciences (1980, 3, 417−424). Disponible en: https://doi.org/10.1017/S0140525X00005756
Waters, R. H. “Mechanomorphism: A new term for an old mode of thought” en Psychological Review (1948, 55, 139−142). Disponible en: https://doi.org/10.1037/h0058952
Investigador de la Universidad de California, Berkeley. Neuroeticista especializado en neuroderechos. Doctor en Filosofía de la Ciencia (UNED). Ha trabajado en la Universidad de Harvard, la Universidad de Navarra, el Centro Internacional de Neurociencia y Ética (CINET) y la Universidad Europea de Valencia.
Ver todos los artículosInvestigador de la Universidad de California, Berkeley. Neuroeticista especializado en neuroderechos. Doctor en Filosofía de la Ciencia (UNED). Ha trabajado en la Universidad de Harvard, la Universidad de Navarra, el Centro Internacional de Neurociencia y Ética (CINET) y la Universidad Europea de Valencia.
Ver todos los artículosDoctor en Ciencias Jurídicas y Sociales (UMSA). Docente e investigador en la UNLaM y FUNDEJUS. Asesor honorario de la Cámara de Diputados de la Nación Argentina en materia de neuroderechos. Autor de diversos artículos en la especialidad. Colaborador de AMNE y KAMANAU.
Ver todos los artículosDoctor en Ciencias Jurídicas y Sociales (UMSA). Docente e investigador en la UNLaM y FUNDEJUS. Asesor honorario de la Cámara de Diputados de la Nación Argentina en materia de neuroderechos. Autor de diversos artículos en la especialidad. Colaborador de AMNE y KAMANAU.
Ver todos los artículos
Comentarios