14 de enero de 2026

I

Inteligencia artificial generativa, lenguaje y lenguas: desmontando mitos

por Inés Olza

¿Son los agentes de inteligencia artificial generativa (IAG) capaces de replicar los mismos procesos con los que los humanos producimos y comprendemos los discursos? ¿Generan mejores textos que nosotros? El artículo analiza estos y otros mitos sobre la IAG relacionados directamente con el lenguaje y las lenguas.

 

[ ILUSTRACIÓN: MOOR STUDIO ISTOCK ]

 

“Siri, cuéntame qué tiempo hará mañana”. “He preguntado a ChatGPT si hay pingüinos en Australia, y me ha contestado que sí”. “Sospecho que mi móvil escucha mis conversaciones”. Si prestamos atención a nuestros discursos cotidianos, parecería que, en los últimos 10 años, los “seres lingüísticos” del planeta, aquellos que interactúan a través del lenguaje y las lenguas, se han multiplicado exponencialmente: Siri nos “cuenta” cosas; “hablamos” con ChatGPT, que “responde” a nuestras preguntas, y nuestro iPhone de última generación parece tener la capacidad de escucha de un espía.

Habrá quien diga que estamos, sin más, ante meras formas de describir nuestra relación con la tecnología (“son solo formas de hablar”) y que cualquier usuario sabe bien que Siri, ChatGPT o su móvil no son individuos con conciencia o, dicho en términos de la ciencia lingüística, no son interlocutores de un auténtico diálogo con los humanos.

Lo cierto es que la ilusión de que Siri o ChatGPT nos hablan, nos escuchan y nos responden (recordemos el test de Turing) es muy potente, como lo demuestra, por ejemplo, el hecho de que estos y otros agentes de la llamada inteligencia artificial generativa (IAG) estén siendo empleados de modo cada vez más frecuente por los ciudadanos como terapeutas psicológicos gratuitos.

Pero no hace falta irse a casos tan alarmantes: ¿cuántas veces (seguro que muchísimas) hemos escrito “por favor” y “gracias” en la interfaz de ChatGPT o Gemini, como si quienes imaginamos que nos hablan necesitaran de nuestros buenos modales y nuestra cortesía? ¿Por qué lo hacemos?

No es que hayamos perdido el norte: es que ChatGPT y otros agentes de IAG hacen muy bien su trabajo, que consiste, precisamente, en generar discursos lo más verosímiles o creíbles posible. Los modelos de “verosimilitud discursiva”, o grandes modelos de lenguaje (large language models, LLM), que manejan estos agentes se han construido a partir de cantidades ingentes (más bien astronómicas) de textos humanos (big data) en los cuales se discriminan patrones habituales de combinación de palabras, todo ello con base en predicciones estadísticas muy potentes sobre qué palabra es la mejor candidata para suceder a la anterior, y así sucesivamente.

ChatGPT o Gemini son, pues, unos excelentes “simuladores de discurso” o, dicho de otra manera, son expertos engullidores y plagiadores de los discursos que producimos los humanos.

Existen otras creencias bastante extendidas sobre el potencial lingüístico de la IAG

Aunque muchos podamos creernos ajenos a este espejismo de tomar a los agentes de la IAG como interlocutores reales (como amigos, como psicólogos, o como expertos confiables), existen, en cambio, otras creencias bastante extendidas sobre su potencial lingüístico. Estas aún escapan a la revisión crítica de la mayoría, en buena medida porque todavía están siendo examinadas en detalle por las ciencias del lenguaje. Se trata de algo así como “mitos” sobre la IAG y el lenguaje, que, como los relatos mitológicos, a veces tienen alguna parte de verdad, pero que no resisten un análisis empírico riguroso.

Ni piensa de veras, ni escribe textos perfectos

Uno de estos mitos es el de que los agentes de IAG son capaces de replicar los mismos procesos con los que los humanos producimos y comprendemos los discursos. Esto es verdad solo en parte, pues así como el aprendizaje probabilístico de la IA sí parece asemejarse a los patrones de adquisición de las lenguas, hay todavía numerosas capacidades propias de los humanos parlantes –entre otras, la comprensión del lenguaje figurado, sobre todo en sus formas más creativas; el manejo de implicaturas pragmáticas o las habilidades más comunes de metarrepresentación– que estos agentes no comparten o no manejan en un grado cercano al nuestro.

No hay evidencias firmes de que la Siri o el ChatGPT de 2025 tengan todavía un pensamiento verdaderamente lingüístico

Otro de estos mitos atribuye a los LLM la capacidad de producir mejores textos que los humanos. De nuevo, esto es cierto solo en algunos niveles de la producción textual, donde la IAG es, sin duda, una verdadera campeona: la pulcritud ortográfica y ortotipográfica (textos sin faltas o erratas, tendentes a estructurarse con negritas y puntos de enumeración); la corrección sintáctica (oraciones bien articuladas, sin anacolutos o errores de concordancia) y la estructuración general de los textos, que es muy clara y ordenada y muestra una excelente progresión de la información.

Ahora bien, los agentes de IAG no se manejan tan bien en los aspectos que, de hecho, convierten a un texto en el producto “de alguien”, con su estilo personal e intransferible (es lo que se llama “agencia escritora”) y con la capacidad de adecuarse de modo muy fino al contexto al que están destinados.

En esta línea, estudios diversos comprueban que, entre otros ejemplos concretos, la IAG tiende a cohesionar los textos con repeticiones de las mismas palabras. Evita así la variación estilística (sinónimos y otras piezas equivalentes) tan aconsejada en cualquier manual de escritura. También impide el lenguaje figurado y otras formas creativas de expresión (ironía, humor, etc.), todas alejadas de la literalidad más neutra, incluso en géneros textuales que las demandan (géneros “de autor”, como los artículos de opinión y la publicidad).

Sesgos y lingüística

Citaré, por último, el mito de que la IAG es objetiva en sus productos e interpretaciones discursivas. Aunque, como he señalado, los textos de ChatGPT o Gemini suelen evitar las “huellas” de autoría individual, la neutralidad de lo que dicen o interpretan es solo aparente, pues sus modelos de comportamiento, esas grandísimas cantidades de datos de las que aprenden, no representan necesariamente toda la diversidad social existente.

Por ejemplo, son abundantes los trabajos que documentan sesgos de género y de ideología en los agentes conversacionales y en otras aplicaciones de la IA y del procesamiento del lenguaje natural, como el análisis de sentimiento. Las propias corporaciones responsables de estos LLM reconocen tales sesgos y dicen trabajar intensamente para superarlos, aunque el margen de mejora es todavía muy amplio.

Son abundantes los trabajos que documentan sesgos de género y de ideología en los agentes conversacionales y en otras aplicaciones de la IA

Que estos y otros muchos mitos sobre la IAG se relacionen directamente con el lenguaje y las lenguas no es una casualidad. En última instancia, la revolución que ha supuesto este tipo de IA es, ante todo, un cambio de paradigma en los procesos de producción e interpretación de los textos, que permean toda forma de comportamiento de los agentes humanos y “artificiales”.

Corresponde, pues, a las ciencias del lenguaje seguir arrojando luz sobre el alcance y los límites de estas formas emergentes de “inteligencia lingüística”.

Bibliografía

Ariño-Bizarro, A. (coord.) (2025): Hacia una alfabetización digital crítica (II): tras la pista lingüística de ChatGPT en las reseñas de productos online. Proyecto de innovación docente. Zaragoza, Universidad de Zaragoza. Disponible en: https://indo.unizar.es/proyecto/5987/ficha

Ariño-Bizarro, A. & Ibarretxe-Antuñano, I.  “Implicit Sexist Bias in Language and its Impact on Artificial Intelligence” en ex æquo (2024, núm. 49, pp. 103–121).

Cong, Y.Manner Implicatures in Large Language Models” en Scientific Reports (2024, vol. 14, art. 29113).

Goulart, L.; Matte, M. L.; Mendoza, A.; Alvarado, L. y Veloso, I.AI or Student Writing? Analyzing the Situational and Linguistic Characteristics of Undergraduate Student Writing and AI-Generated Assignments” en Journal of Second Language Writing (2024, vol. 66, 101160).

InfoCOP, “Un estudio analiza el uso de la IA en el campo de la psicología asistencial” en InfoCOP. Consejo General de la Psicología de España (2025). Disponible en: https://www.infocop.es/un-estudio-analiza-el-uso-de-la-ia-en-el-campo-de-la-psicologia-asistencial-2/

Martín López, M.Conceptual Mirrors: Reflecting on LLMs’ Interpretations of Ideas” en Medium UC Berkeley D-Lab (2024). Disponible en:
https://medium.com/@dlab-berkeley/conceptual-mirrors-reflecting-on-llms-interpretations-of-ideas-e3010ab6afd9

McCoy, R. T. y Griffiths, T. L.Modeling Rapid Language Learning by Distilling Bayesian Priors into Artificial Neural Networks” en Nature Communications (2025, vol. 16, art. 4676).

OpenAI. Defining and Evaluating Political Bias in LLMs. OpenAI Research. San Francisco, OpenAI, 2025. Disponible en:
https://openai.com/index/defining-and-evaluating-political-bias-in-llms/

Turing, A. M.Computing Machinery and Intelligence” en Mind (1950, vol. 49, pp. 433–460).

Wachowiak, L. & Gromann, D. (2023): ”Does GPT-3 Grasp Metaphors? Identifying Metaphor Mappings with Generative Language Models”. En: Proceedings of the 61st Annual Meeting of the Association for Computational Linguistics. Vol. 1, pp. 1018–1032. Disponible en: https://aclanthology.org/2023.acl-long.58.pdf

Autor

Es doctora en Lingüística Hispánica e investigadora titular en lingüística y cognición en el Instituto Cultura y Sociedad (ICS) de la Universidad de Navarra, donde es investigadora principal del grupo Vínculos, creatividad y cultura (VCC) y directora del Multimodal Pragmatics Lab.

Ver todos los artículos

Contenido relacionado

Artículos relacionados

Orilla A, orilla B

Carmen Torrijos

Entre la creatividad humana y no humana

Vanessa Roger Monzó

Fernando Castelló-Sirvent