28 de noviembre de 2023
por
Andrés Ortega
Ilustrador
David Sánchez
Sí. Entendemos, o creemos entender, qué significa artificial. De momento, es lo fabricado por el ser humano, un ser esencialmente técnico, como apuntara Ortega y Gasset. Ahora bien, crecientemente, lo artificial puede ser, y es, generado por las propias máquinas. Mas ¿qué es inteligencia? Una pregunta que se puede plantear desde antes de la emergencia del Homo Sapiens, y a la que ha prestado atención la filosofía. No hay un acuerdo sobre su definición. ¿Cómo vamos a definir, pues, inteligencia artificial? ¿Es la IA generativa —tan revolucionaria y en boga como ChatGPT— realmente inteligencia? Es engañoso, porque se basa en LLM (Large Language Models, o modelos grandes de lenguaje), y se le puede escribir o hablar y responde como si fuera una persona, dejando obsoleto el famoso test de Turing1, aunque la máquina no sabe lo que dice ni que habla con un humano, ni siquiera lo que es un humano. Es una inteligencia estadística, que establece correlaciones. “Loros estocásticos” (aleatorios), ha llamado a estos modelos la lingüista Emily Bender. Es y va a ser cada vez más útil, pero cabe cuestionar que sea realmente inteligencia. Aunque sí es capaz de aprender estructuras de datos y volcarlas como texto, imágenes u otras formas entendibles por nosotros. Y de superarnos en muchos aspectos.
El ser humano acumula conocimiento; primero, a través de la experiencia —aunque tropiece varias veces sobre la misma piedra—, antes del habla y la escritura, la imprenta o Internet. Muchos animales, también. En la inteligencia humana van unidas la razón y la emoción. Y el cuerpo, aunque con el uso e influencia de los nuevos dispositivos digitales, se ha abierto la teoría o el campo de la mente extendida, que va más allá de nuestros atributos biológicos.
La RAE define la inteligencia como “capacidad de entender o comprender; capacidad de resolver problemas; conocimiento, comprensión, acto de entender; sentido en que se puede tomar una proposición, un dicho o una expresión; habilidad, destreza y experiencia; trato y correspondencia secreta de dos o más personas o naciones entre sí; y sustancia puramente espiritual, además de ‘servicio de inteligencia’”. Y la IA como “la disciplina científica que se ocupa de crear programas informáticos que ejecutan operaciones comparables a las que realiza la mente humana como el aprendizaje o el razonamiento lógico”. Definiciones pobres e incompletas.
Las máquinas, los programas, más que conocimiento pueden compartir información
Si le preguntamos a ChatGPT qué es inteligencia, parte de que “es un concepto complejo y multidimensional” y señala —la respuesta puede variar si se la hacemos otro día u en otro idioma, en la versión 3.5 o la 4—: “La inteligencia se refiere a la capacidad de aprender, comprender, razonar, resolver problemas y adaptarse a nuevas situaciones. Es una característica de los seres vivos que les permite procesar información y tomar decisiones basadas en ella”. En una ocasión al menos utilizó el término “mental”. Y la IA “se refiere a la capacidad de las máquinas y los sistemas informáticos para llevar a cabo tareas que normalmente requieren la inteligencia humana”. Habla de “simular procesos”.
En este debate es básico el concepto de conocimiento. ¿Lo pueden tener las máquinas? En su magnífico libro Knowing What We Know. The Transmission of Knowledge: From Ancient Wisdom to Modern Magic (Saber lo que sabemos. La Transmisión del Conocimiento: De la sabiduría antigua a la magia moderna), Simon Winchester le da muchas vueltas a este término, para acabar resumiendo que “es simplemente información procesada, cocinada, colocada en algún tipo de contexto, algo comprendido”. Aunque añade: “El conocimiento es totalmente subjetivo: una persona puede afirmar que sabe algo, que tiene conocimiento de algo; otra puede tener conocimiento de otras cosas muy distintas y desconocer por completo lo que sabe la primera”. Las máquinas, los programas, más que conocimiento pueden compartir información. De hecho, a medida que se han ido enchufando a Internet, y no solo a textos, música o imágenes con las que se las ha alimentado —sin pagar derechos de autor—, con la técnica del aprendizaje profundo, las IA generativas ganan en información y en capacidad de llegar a conclusiones entendibles, que no a explicaciones.
Por eso la IA generativa es mucho mejor que los predictores de palabras que tenían, hasta ahora, los procesadores de texto. ¿Y en conocimiento? Para algunos científicos es solo una apariencia. Más aún cuando lo que reescribe, recompone o redibuja esta IA está sacado de ingentes cantidades de textos, música e imágenes que han generado seres humanos, incluso con sus preguntas. Cada vez más las máquinas construyen sobre lo ya aprendido. Algo muy humano, ¿no? Aunque los humanos, que las inventamos, cada vez sabemos menos qué ocurre realmente dentro de estas inteligencias artificiales. Claro que nos queda mucho camino por recorrer para saber cómo funciona realmente el cerebro humano.
Se suele diferenciar entre la IA débil, de propósitos específicos, y la fuerte, la inteligencia artificial general, la IAG, más parecida a la humana, menos estadística y más de explicaciones. Sin embargo, la IAG no existe ¿aún? —estemos atentos—. La primera está dirigida a completar tareas muy específicas como recomendar contenidos a usuarios basados en las preferencias que unos algoritmos deducen de los datos que los propios usuarios generan, comparar millones de análisis para deducir pautas para, por ejemplo, detectar un cáncer, escribir, traducir, incluso generar melodías o fotografías realistas pero irreales, o codificar, entre otras muchas. A una IA se le pide que cumpla una tarea (o varias) y lo hace. La IA no se pregunta el porqué.
La IAG tendría que ir más allá, igualar y enseguida superar a la inteligencia humana, y servir para muchas cosas, todas las que hace el ser humano, e incluso más. Y no solo sobre la base de datos masivos. Es la forma de aprender de, por ejemplo, los niños. Algunos creen que esto que llaman “singularidad” está a la vuelta de la esquina, y borran la diferencia entre generativa y general como si se tratase de un progreso paulatino, cuando son dos cosas muy diferentes. Otros (Chomsky, Minsky…) consideran que, desde las premisas actuales, nunca se alcanzará. Esa IAG sería realmente igual que una persona, con diferencias solo en la velocidad, en la memoria, etcétera, pero ¿sería capaz de generar lógicas nuevas? Hay dudas entre los especialistas.
Quizás la cuestión está mal planteada al comparar siempre la inteligencia técnica con la humana. Combinada con los avances en la robótica y en la biología (simbiosis que promete una nueva revolución de enorme alcance) esta inteligencia fuerte puede llevar a cabo tareas no ya que realizara el ser humano, sino que a este ni se le ocurriría que fueran posibles. Algo diferente de lo humano. ¿Lo entenderemos? Sí, si la inteligencia es universal, lo que no está garantizado.
Hay varias líneas de reflexión e investigación sobre esto y la inteligencia universal en las ciencias de la computación y más allá. La inteligencia universal se refiere a “la tendencia intrínseca de las cosas a autoorganizarse y co-evolucionar hacia formas cada vez más complejas, intrincadamente entrelazadas y mutuamente compatibles,” según Christian Hugo Hoffmann. Nuestra inteligencia humana no sería más que una manifestación de esa dinámica universal. La artificial general, también.
La cuestión está mal planteada al comparar siempre la inteligencia técnica con la humana
Hay un peligro inminente: el de los agentes autónomos, movidos por las IA, que pueden ser muy positivos, incluso creativos (aunque sin consciencia de serlo), pero también destructivos. Matt Schlicht calcula que en los próximos dos a cinco años la mayoría de la gente trabajará para un agente autónomo en lugar de para un humano. Puede ser especialmente peligroso no solo en lo social, sino también en el terreno militar. Las armas autónomas con IA, ni siquiera fuerte sino débil, pueden ganar en rapidez de decisión al mejor soldado o general para tomar decisiones letales, sobre todo si la otra parte dispone también de ella. Como indican algunos desarrolladores de NVIDIA, empresa esencial en el diseño de chips para la IA avanzada, “en principio, un agente podría utilizarse para automatizar cualquier proceso. Una vez que estos agentes sean altamente sofisticados y fiables, es fácil imaginar un crecimiento exponencial de la automatización en todos los campos e industrias”.
Como apunta Winchester, muchos de los avances digitales del último medio siglo (la calculadora, el procesador de textos, el corrector ortográfico, el GPS, Google, Internet, y ahora ChatGPT) han sido inventos de una innegable inteligencia humana. Pero si Google, ahora con IA generativa —después vendrán otras más avanzadas—, nos hace más capaces, a la vez nos hace más tontos o muy diferentes. El cerebro puede servir para menos de momento, pues hay enormes posibilidades de simbiosis. No se retiene lo que se lee en pantalla, porque se sabe que se puede recuperar buscándolo. No es necesario recordar números de teléfono; los tenemos en el móvil. Lo que produce amnesia digital. En Un mundo feliz, Aldous Huxley planteó que los humanos podrían llegar a desear tener dispositivos que nos ayudasen a no pensar. ¿Y si la inteligencia humana acaba siendo menos útil, incluso para los humanos?
El neurocientífico Daeyeol Lee considera que “la investigación de las diferencias entre la inteligencia humana y la artificial puede ayudarnos a comprender mejor nuestra relación con la tecnología, y el porvenir de esta. Toda la información estará en las máquinas, pero no todo el conocimiento, mientras que nuestra ignorancia debe ser necesariamente infinita”. Hay algo a lo que quizás la IA, por muy fuerte que sea, no llegará: la sabiduría. Como decía el poeta inglés William Cowper: “el Conocimiento tiene el orgullo de haber aprendido tanto; la Sabiduría, la humildad de no saber más”. Esta IA, no tiene ni orgullo, ni humildad.
1Nota del editor: el objetivo de este experimento es determinar si la inteligencia artificial puede imitar las respuestas humanas.
Catanzaro, B. (2023): “Generative AI Demystified”. NVIDIA. Disponible en: https://www.nvidia.com/en-us/on-demand/session/gtcspring23-s52089/?playlistId=playList-e6fdf3ae-afb1-4dc3-ab88-c5f342d4927e
Mendívil Giró, J. L. (2023): “Un loro estocástico en la habitación china: ¿qué nos enseña ChatGPT sobre la mente humana?” en Letras Libres. Disponible en: https://letraslibres.com/revista/un-loro-estocastico-en-la-habitacion-china-que-nos-ensena-chatgpt-sobre-la-mente-humana/01/07/2023/
Ortega, A. (mayo de 2023): “Nuevas inteligencias” en revista Telos. Disponible en: https://telos.fundaciontelefonica.com/nuevas-inteligencias/
Schlicht, M. (2023): “0”. Disponible en: https://www.mattprd.com/p/the-complete-beginners-guide-to-autonomous-agents y https://www.youtube.com/watch?v=1AB41kHUJZA&t=29s
Winchester, S. (2023): Knowing What We Know: The Transmission of Knowledge: From Ancient Wisdom to Modern Magic. Nueva York, Harper/HarperCollins Publishers.
Investigador asociado del Real Instituto Elcano y director del Observatorio de las Ideas, ha sido director del Departamento de Análisis y Estudios del Gabinete de la Presidencia del Gobierno de España en dos ocasiones.
Ver todos los artículosInvestigador asociado del Real Instituto Elcano y director del Observatorio de las Ideas, ha sido director del Departamento de Análisis y Estudios del Gabinete de la Presidencia del Gobierno de España en dos ocasiones.
Ver todos los artículos
Comentarios