28 de noviembre de 2023
por
Nerea Blanco Marañón
Ilustrador
David Sánchez
Ante las crisis y los cambios, una siempre busca pilares que no se muevan, algo a lo que aferrarse para continuar avanzando: ante una ruptura sentimental uno busca recordar quién era antes de esa relación; o ante un cambio de ciudad, busca lugares que le recuerden de dónde viene. En definitiva, es habitual —y necesario— mirar al pasado cuando las cosas cambian y el futuro parece que se nos acerca a gran velocidad. Por eso, ahora que nos vemos envueltos en una vorágine tecnológica parece más que lógico mirar cómo éramos antes de que esta gran cantidad de inventos nos rodeasen. Existe un refugio interesante al que acudir cuando todo parece que empieza a desdibujarse y a perder su esencia y ese lugar es la filosofía: un espacio en el que se han recogido tantos miedos, curiosidades, preguntas y reflexiones, que permite sentirse un lugar común a todos. Sería como ese bar que nos resulta familiar, aun estando a miles de kilómetros de nuestra casa, simplemente porque hay gente que habla nuestro mismo idioma. Y es que la filosofía puede servir para eso, para encontrarte con quien ya pensó cosas similares a las que tú te preguntas, sirve como un lugar donde encontrarte con quien habla tu misma lengua, con quien siente tu misma inquietud.
Hoy es más que interesante buscar ese refugio, y no porque en el pasado todo fuera mejor, sino porque se pueden encontrar piezas clave para comprender el presente y lo que deseamos para nuestro futuro. Por eso mismo voy a irme unos cuantos siglos atrás (hasta el IV a. de C.) para refugiarme en las enseñanzas de Aristóteles, porque pueden ser un faro para guiarnos por estos tiempos tan indeterminados. Unos tiempos en los que nos enfrentamos a una tecnología que parece adquirir inteligencia, mientras que los humanos, de tanto pegarnos a las pantallas, parecen perder capacidades cognitivas. Y una se pregunta: ¿realmente las máquinas son inteligentes? ¿Nosotros como especie podemos dejar de serlo? ¿Tiene sentido el mundo que estamos construyendo? ¿A qué peligros nos enfrentamos? Podríamos seguir lanzando preguntas al aire… Recuperar a Aristóteles tiene sentido porque para este filósofo todo podía explicarse gracias a cuatro causas, que pueden verse como cuatro preguntas fundamentales. Las cuatro preguntas con las que cualquiera debería empezar a tratar de desmadejar cualquier crisis a la que se enfrente son: la causa material, la formal, la eficiente y la final. O lo que es lo mismo: ¿qué es esto y de qué está hecho? ¿Cuál es su esencia y cómo funciona? ¿Quién hace que funcione? y ¿para qué funciona o cómo debemos usarlo?
Nuestra inteligencia resulta única y superior. Esto debería tranquilizarnos de alguna manera (al menos, de momento)
Si tratamos de responder a estas preguntas respecto a la inteligencia artificial (IA) podemos desenredar la madeja de la incertidumbre para mirar con calma los nudos a los que nos enfrentamos. Porque para decidir qué hacemos frente a un problema, no hay nada como analizar la totalidad de factores que lo componen. Y en este caso, nos enfrentamos a serios problemas y no solo en el plano más filosófico o abstracto, sino también ético y social.
El primer problema o nudo que hay que desenredar es que no hay una definición unitaria de lo que es la inteligencia humana. Pero para lo que nos afecta ahora, se puede describir como la capacidad de percibir información, procesarla para crear conocimiento y, finalmente, aplicar estos conocimientos para generar una serie de habilidades para adaptarnos al entorno.
Asumiendo esta premisa, pasamos ahora a un segundo problema en la definición de inteligencia con el apellido artificial. Es obvio que este apellido indica una diferencia en su materia, pues no está hecha con material biológico, como sucede en el caso de la inteligencia humana, sino que funciona en máquinas (software y hardware). Pero hay que preguntarse: ¿acaso la inteligencia artificial funciona igual que la humana? ¿Tiene las mismas capacidades para percibir la información? ¿La procesa de forma correcta? y ¿genera las mismas habilidades que las que tenemos los seres humanos?
La definición de la UNESCO para definir la IA dice: “La inteligencia artificial son máquinas capaces de imitar determinadas funcionalidades de la inteligencia humana, incluidas características como la percepción, el aprendizaje, el razonamiento, la resolución de problemas”. De esta definición resulta interesante pararse en dos puntos: en primer lugar, en el término imitar, puesto que el hecho de que algo imite una cosa no quiere decir que sea igual a ella. Y, por otra parte, que solo es capaz de simular determinadas funcionalidades y no todas ellas. Por tanto, nuestra inteligencia resulta única y superior. Esto debería tranquilizarnos de alguna manera (al menos, de momento).
Y también es momento de analizar bien qué habilidades tenemos nosotros desarrolladas en comparación con las que tiene la IA. Nosotros, además de tener capacidad para percibir información y procesarla mediante habilidades de conceptualización, análisis y razonamiento, tenemos la capacidad crítica que nos permite desarrollar habilidades de investigación y tenemos una capacidad creativa que nos permite la búsqueda de soluciones, además de tener una intencionalidad tras cada una de nuestras creaciones. El arte no es arte por la técnica, sino por lo que desea transmitir. El arte es más que colocar palabras o colores en el orden correcto. Por eso, hay que tener cuidado cuando intentamos equiparar una inteligencia con otra, pues no tienen las dos las mismas capacidades ni habilidades.
Igual que nosotros necesitamos estímulos a partir de los cuales poner en marcha nuestra capacidad intelectual, la inteligencia artificial necesita estímulos en forma de datos que serán procesados por los algoritmos. Llamamos algoritmos a las instrucciones que tienen las máquinas para manejar y procesar esos datos. Es importante entender que las máquinas tienen una forma de aprender distinta a la nuestra. En la actualidad, funcionan gracias al llamado machine learning (aprendizaje automático) y uno de los métodos más utilizados es el deep learning (aprendizaje profundo). Esta técnica permite que la máquina aprenda gracias a las redes neuronales que imitan la estructura biológica de nuestro cerebro. Cada capa de la red neuronal está compuesta por algoritmos especializados en diferentes tareas y, cuantas más capas haya, mayor capacidad tendrá la IA. Aquí llega otro gran problema: el uso de tantas capas hace imposible que los supervisores humanos interpreten cómo la máquina logró un determinado resultado. A este fenómeno se le denomina black box.
Es importante entender cómo funciona una máquina para poder enfrentarnos a ella. Y lo que nos está pasando últimamente es que nos enfrentamos a algo que no podemos comprender del todo. Y esto es peligroso, porque resultará poco controlable. Y aquello que no se puede controlar pone en riesgo lo que nos rodea… como los tornados o los tsunamis.
Por otra parte, estamos viendo que la máquina aprende a partir de lo que ya está establecido y eso le hace replicar una serie de sesgos y estereotipos manteniendo el sistema injusto en el que nos encontramos. Además, la nueva IA generativa (como ChatGPT) tiene serios problemas de credibilidad, ya que recopila muchísima información sin haberla contrastado. Y no menos importante, la IA resulta poco innovadora y muy conservadora, puesto que está muy limitada por el pasado y solo puede elaborar patrones en base a los datos que se le han dado para su entrenamiento, repitiendo así lo ya existente, incluyendo aquí los sesgos ideológicos o sociológicos. Pero es que, además, está incumpliendo leyes de propiedad intelectual cuando se apropia de obras para su aprendizaje.
Detrás de la IA hay empresas que se encargan de programarla. Esta sería la causa eficiente que hay que tener en mente a la hora de analizar de dónde viene esta tecnología. Y para pensar hacia dónde va (causa final) es importante pensar cómo la están diseñando y cómo se está usando. En este punto hay que analizar las inteligencias humanas que hay detrás de las artificiales.
ChatGPT ha revolucionado nuestros días. También DALLE-E con su capacidad para crear imágenes. Ambas son tecnologías pertenecientes a la empresa OpenAI, fundada por algunas personalidades como Elon Musk, Sam Altman y Reid Hoffman, cofundador de LinkedIn. Y ahora Microsoft se ha convertido en el socio mayoritario.
Cada vez más, grandes corporaciones están entrando en este mundo de la IA generativa y es importante entender que estas tecnologías han nacido en una época de distracción tecnológica, en la que existe una economía basada en la atención. En la era del exceso informativo, la atención ha pasado a ser un bien escaso y codiciado por estas grandes empresas tecnológicas. Y como empresas, lo que buscarán será el beneficio económico por encima de cualquier otro. De este modo, en vez de ayudarnos en nuestro día a día, desvían y explotan nuestra atención apoyándose en nuestra vulnerabilidad psicológica. Resulta, por lo tanto, importante limitar las acciones que puedan llevar a cabo estas empresas en su propio beneficio y que puedan afectarnos a nosotros tanto como personas y como como ciudadanos de sistemas democráticos.
Ya hemos señalado que es importante que se regulen los datos con los que estas empresas se alimentan, entender esa black box que nos da resultados que no acabamos de comprender. Pero, sobre todo, es importante que esta nueva tecnología no funcione solo a favor de las grandes corporaciones, que no suelen querer realmente innovaciones sociales, sino más bien conservar el establishment. Y, curiosamente, ya hemos visto que este tipo de tecnología parece que podría ayudar a ello. Es importante regular a las empresas que nunca se han preocupado por las cuestiones éticas, sino solo por los beneficios económicos. De este modo es como podremos crear una inteligencia que no vaya en contra de nuestros intereses.
Es importante entender cómo funciona una máquina para poder enfrentarnos a ella
En ese sentido, la Unión Europea está intentando frenar estos problemas y ha publicado unas Directrices éticas para una IA fiable, un documento basado en la necesidad de asegurar su naturaleza lícita (que cumpla todas las leyes y reglamentos aplicables), ética (que garantice el respeto de los principios y valores éticos) y robusta (desde una perspectiva técnica y teniendo en cuenta también su entorno social). En estos tiempos, los Estados deben cuidar a los ciudadanos frente a las empresas que solo busquen beneficiarse a costa de nuestro tiempo y atención.
Cómo los usuarios usemos la tecnología dependerá no solo de cada uno de nosotros, sino también de cómo esté programada esa tecnología y con qué fines. Si a mí me dan un palo y me enseñan que sirve para pintar en el suelo, es probable que solo lo use para eso. Si en cambio quieren que use el palo contra otros, porque así ellos salen beneficiados, es probable que acabe usándolo como arma.
Pongamos el foco en aquellos que fabrican la IA y no en los que nos vemos obligados a usarla. Así, estaremos más a salvo de los problemas éticos a los que nos enfrentamos.
Aristóteles (2014): Metafísica. Traducción de Tomás Calvo Martínez. Barcelona, Gredos.
Benítez López, A. (2022): Inteligencia Artificial en perspectiva. Madrid, Independently published.
Williams, James (2021): Clics contra la humanidad. Libertad y resistencia en la era de la distracción tecnológica. Barcelona, Gatopardo Ediciones.
Licenciada en Filosofía por la Universidad Autónoma de Madrid. Creadora de la plataforma Filosofers, un proyecto de divulgación filosófica en línea y presencial. Autora del libro Filosofía entre líneas y coautora del libro de primero de Bachillerato de Filosofía de la Editorial Santillana.
Ver todos los artículosLicenciada en Filosofía por la Universidad Autónoma de Madrid. Creadora de la plataforma Filosofers, un proyecto de divulgación filosófica en línea y presencial. Autora del libro Filosofía entre líneas y coautora del libro de primero de Bachillerato de Filosofía de la Editorial Santillana.
Ver todos los artículos
Comentarios