6 de septiembre de 2023
por Pablo Rodríguez Canfranc
El éxito reciente del chatbot ChatGPT ha puesto en el centro del debate público la inteligencia artificial, una tecnología que ha conocido un avance considerable a lo largo de la década pasada de forma que ya está presente en numerosos aspectos de nuestras vidas. Aunque ya tratamos con sistemas inteligentes de forma cotidiana, muchas veces sin darnos cuenta (por ejemplo, cuando las plataformas nos recomiendan contenidos audiovisuales personalizados o cuando utilizamos el texto predictivo al escribir un mensaje en el móvil), el producto de la empresa Open.AI nos ha enfrentado a un nuevo fenómeno asaz vistoso, como es contemplar la capacidad creativa de las maquinas.
Este tipo de inteligencia artificial se denomina “generativa”, pues da lugar a algún tipo de creación, ya sea un texto, una imagen o sonido. A pesar de lo novedoso que parecen estas habilidades, ya existe una larga tradición de algoritmos que escriben novelas o poesía, o que pintan cuadros o diseñan imágenes. En 2016 saltaba la noticia de que un programa de inteligencia artificial japonés había escrito una novela que casi gana un premio literario1, y, dos años antes, un estudiante del MIT programó un sistema para que escribiese sonetos como salidos de la pluma del mismísimo William Shakespeare2. ¿A qué se debe entonces el revuelo actual en torno a estas máquinas creadoras?
Es probable que la popularidad que han cosechado los llamados Large Language Models (LLM) -como ChatGPT, Turing NLG de Microsoft, Bard de Google o Gopher de Deep Mind- resida en que han abandonado el ámbito de los expertos y están en la mayoría de los casos en manos de la gente. De esta forma, todo el mundo ha podido probar en primera persona cómo funcionan estos chatbots y las posibilidades que ofrecen.
Ahora bien, a pesar de lo espectacular de los resultados que ofrecen, existen voces que señalan las limitaciones de esta rama de la inteligencia artificial, y lo lejos que está de emular las funciones del cerebro humano. El pasado agosto, el físico Michio Kaku denunciaba el sensacionalismo que se ha generado en torno a estos robots conversacionales, que, a su juicio, no hacen más que seleccionar y ordenar contenidos de internet, sin saber discernir la verdad de la ficción, ni distinguir los datos reales de la desinformación. Básicamente, los LLM no serían más que versiones avanzadas de los buscadores de la web, como Google, que han estado funcionando durante los últimos veinte años3.
Existen voces que señalan las limitaciones de esta rama de la inteligencia artificial y lo lejos que está de emular las funciones del cerebro humano
Uno de los mayores críticos de la inteligencia artificial actual es sin duda el profesor y empresario Gary Marcus, quien considera que la rama más utilizada hoy en día, el aprendizaje automático y las redes neuronales -responsables de los avances producidos en los últimos veinte años-, presenta carencias relativas al razonamiento, no resulta fiable y se aleja de la forma de pensar que tenemos los humanos. A su juicio, las carencias que presenta el aprendizaje profundo de las redes neuronales podrían ser salvadas gracias a la denominada inteligencia artificial simbólica, una aproximación clásica a esta tecnología que hoy en día ha sido desplazada a un segundo plano.
La oleada actual de inteligencia artificial en la que nos vemos inmersos está basada en el aprendizaje automático (machine learning) y el aprendizaje profundo (deep learning) o redes neuronales, y hace uso del big data, es decir, se nutre de inmensas cantidades de información para poder construir modelos. Con frecuencia se compara el deep learning con la neurología, pues la inteligencia artificial permite construir sistemas que imitan el funcionamiento del cerebro en la forma en que este clasifica la información recibida, por ejemplo, identificando objetos en función de los rasgos que contienen. Son programas que elaboran sus diagnósticos o predicciones en base a la probabilidad, y llevan a cabo una forma de aprendizaje que contempla la retroalimentación: en sucesivas vueltas reciben el grado de acierto de sus dictámenes y realizan las correcciones oportunas.
Por otra parte, la inteligencia artificial simbólica se centra en la manipulación y el procesado de símbolos y conceptos en vez de grandes cantidades de datos numéricos. Este tipo de algoritmos funciona manejando símbolos que representan objetos o ideas del mundo y sus relaciones. La principal aproximación de esta rama es el uso de programación basada en la lógica, en la que las normas y los axiomas son utilizados para realizar inferencias y deducciones.
Mientras que la inteligencia artificial simbólica es más adecuada para trabajar en entornos de conocimiento bien definido y estructurado, el aprendizaje automático es más útil cuando existen grandes volúmenes de datos y patrones complejos.
La inteligencia artificial simbólica es más adecuada para trabajar en entornos de conocimiento bien definido
La tesis que defiende Gary Marcus es que la inteligencia artificial actual basada en el aprendizaje automático y el aprendizaje profundo solamente podrá seguir evolucionando si se combina con el enfoque simbólico, en la forma de una inteligencia artificial “híbrida”. De no ser así, predice que se podría producir otro “invierno de la inteligencia artificial”, es decir, un estancamiento y un desencanto generalizado en torno a esta tecnología, como el que tuvo lugar a partir de los años 70 del siglo pasado.
Marcus establece los dieciséis principios que debería cumplir una inteligencia artificial fiable y robusta -más cercana al funcionamiento del cerebro humano-, y que, en su opinión, los desarrollos actuales no presentan, por lo menos, en su totalidad:
La solución a estas carencias que apunta Marcus podría estar en lo que denomina “modelos híbridos” de inteligencia artificial, que combinan lo mejor de las dos aproximaciones: el aprendizaje basado en datos de las redes neuronales con las poderosas capacidades de abstracción implícitas en la manipulación simbólica. El problema es que a menudo estas dos visiones han sido concebidas como antagónicas, pero no tiene por qué ser así. Mientras que el aprendizaje profundo extrae patrones de grandes conjuntos de datos no estructurados recogidos del mundo real, los métodos basados en reglas pueden realizar la manipulación simbólica de los datos recogidos, creando abstracciones de estos. Sin ir más lejos, el buscador de Google es un modelo híbrido.
Mientras que el aprendizaje profundo extrae patrones de grandes conjuntos de datos no estructurados recogidos del mundo real, los métodos basados en reglas pueden realizar la manipulación simbólica de los datos recogidos
Esta tercera vía de innovación está siendo explorada por IBM a través de lo que denomina inteligencia artificial neuro simbólica, un planteamiento experimental que combina el uso de redes neuronales convolucionales dedicadas a la clasificación de imágenes con la capacidad de establecer relaciones entre elementos simbólicos, como secuencias de palabras, de forma que el sistema aprende de sus errores de una forma mucho más rápida que mediante el entrenamiento clásico de una red neuronal.
Para Gary Marcus el futuro de la inteligencia artificial no puede basarse en modelos basados en un exceso de datos y en una carencia de conocimiento y raciocinio. Necesitamos sistemas que manifiesten una elevada comprensión del mundo, lo que conlleva centrarnos en cómo se representa, adquiere y razona el conocimiento abstracto.
Imagen de Gerd Altmann en Pixabay
1Olewitz, C. (2016) “A Japanese A.I. program just wrote a short novel, and it almost won a literary prize” en Digital Trends. Disponible en: https://www.digitaltrends.com/cool-tech/japanese-ai-writes-novel-passes-first-round-nationanl-literary-prize/?_ga=2.11772274.716335717.1538984073-299343837.1518693160
2Lomas, N. (2014) “Read The Sonnet Co-Authored By Shakespeare, An MIT PhD Student & A Machine-Learning Algorithm” en TechCrunch. Disponible en: https://techcrunch.com/2014/01/26/swift-speare/?_ga=2.45745634.716335717.1538984073-299343837.1518693160&guccounter=1
3Hetzner, C. (2023) “Top physicist says chatbots are just ‘glorified tape recorders,’ and predicts a different computing revolution is ahead” en Fortune. Disponible en: https://fortune.com/2023/08/14/michio-kaku-chatbots-glorified-tape-recorders-predicts-quantum-computing-revolution-ahead/
Browning, J. y Lecun, Y. (2022) “What AI Can Tell Us About Intelligence” en Noema. Disponible en: https://www.noemamag.com/what-ai-can-tell-us-about-intelligence/
Marcus, G. y Lenat, D. (2023) “Getting from Generative AI to Trustworthy AI: What LLMs might learn from Cyc”
Marcus, G. (2022) “Deep Learning Alone Isn’t Getting Us To Human-Like AI” en Noema. Disponible en: https://www.noemamag.com/deep-learning-alone-isnt-getting-us-to-human-like-ai/
Marcus, G. (2020) “The Next Decade in AI: Four Steps Towards Robust Artificial Intelligence”. Disponible en: https://arxiv.org/ftp/arxiv/papers/2002/2002.06177.pdf
Sebastian, A. y Rahimi, A. (2021) “Mimicking the brain: Deep learning meets vector-symbolic AI”. IBM
Singh, R. (2019) “The Rise and Fall of Symbolic AI” en Medium. Disponible en: https://towardsdatascience.com/rise-and-fall-of-symbolic-ai-6b7abd2420f2
Economista especializado en el estudio del impacto de la tecnología en la sociedad. Actualmente trabaja en el área de estudios y publicaciones de Fundación Telefónica.
Ver todos los artículosEconomista especializado en el estudio del impacto de la tecnología en la sociedad. Actualmente trabaja en el área de estudios y publicaciones de Fundación Telefónica.
Ver todos los artículos
Comentarios