7 de septiembre de 2022

E

Escritura centauro en la era de la creatividad computacional

por Alejandro Piscitelli
Ilustradora Mujer Corteza

Mucho ha pasado en las ocho décadas desde que empezamos a programar a las máquinas. Mientras que durante milenios aprendimos a escribir con signos, desde hace menos de uno empezamos a escribir con código.

 

1. Verbum 2.0. La máquina es el estilo Era fines de 1988 y la revista Verbum —una biblia de la tipografía digital— publicaba una de sus primeras ediciones en color dedicada a The Word. Pionera de las publicaciones digitales, Verbum organizaría un año más tarde el primer Digital Be-In de la historia, que buscaba fusionar los ideales de la contracultura de la década de los 60 con la cibercultura emergente de principios de la década de 1990.

Entre los artículos publicados destacaba una nota de ficción científica (Rossman, 1990). Lo que allí se anunciaba era una nueva generación de software de procesamiento de palabras que volvería transparente el trabajo laborioso de la redacción de notas periodísticas.

Si antes se habían automatizado la edición y redacción, la corrección ortográfica, formato de notas a pie de página, indexado, cálculo de palabras, el nuevo software —que venía con nombre y apellido— iría mucho más allá.

Padit podría sintetizar el contenido para dejar más espacio para los avisos exigido por el editor; Turgidity serviría para reemplazar palabras para después devolverle nuevamente el control al autor, editando lo editado; Camaleon sería el más avispado de todos los software, ya que liberaría al escritor de la prisión del mercado “traduciendo el estilo del autor” al de la publicación de marras, adaptándolo a la gramática de reconocimiento de los lectores de Playboy, Reader’s Digest o The New Yorker.

Cuán deseable sería contar con un software así, y quien pudiera diseñarlo seguramente tendría un conocimiento bastante profundo de las capacidades estilísticas —y hasta de la creatividad— de los redactores humanos. Implicaría, por otra parte, avances notables en la inteligencia artificial, que en ese entonces estaba dando sus primeros pasos en OCR (Reconocimiento Automático de Caracteres, por sus siglas en inglés), y que todavía perdía por goleada en la carrera de la traducción automática frente a humanos no muy expertos, pero auxiliados por un diccionario de lenguas extranjeras.

Leer y escribir no son meras habilidades expresivas, sino que están sobredeterminadas socioemocionalmente

2. Fastforward a 2022 Volviendo al célebre test de Turing1 y en épocas de fake news y manipulación de la opinión pública como nunca ¿contamos, ahora sí, con software real que cumpla con las promesas de Padit, Turgidity y Camaleon? ¿O por lo menos le es posible distinguir al ojo humano desnudo si una noticia, comentario, nota de opinión o sesudo ensayo ha sido escrito por un humano o por una máquina?

GPT-3, un reciente programa de generación de texto de la empresa OpenAI, muestra hasta dónde ha llegado el campo, y hasta dónde puede llegar. GPT-3, está provocando escalofríos en todo Silicon Valley y ya ha generado memes, poemas y tuits a raudales.

Aunque todavía estamos lejos de resolver el test de Turing, es cierto que los logros actuales de GPT-3 son asombrosos. Puede reformular comentarios groseros convirtiéndolos en educados, o viceversa.

Se han logrado joyitas de contenido literario cuando GPT-3 incluyó pastiches de Harry Potter en los estilos de Ernest Hemingway y Jane Austen —como aseguraba Verbum tres décadas atrás—.

Asombrados por algunos resultados —muchos de ellos hilarantes—, y también preocupados por la falta de contexto de muchas formulaciones, nos encontramos ante las características más notables del sistema GPT-3: puede generar texto impresionantemente humano, que a menudo no está amarrado a la realidad.

GPT-3 se creó digiriendo algoritmos de aprendizaje automático para estudiar los patrones estadísticos en casi un billón de palabras recopiladas a partir de la web y libros digitalizados. El sistema memorizó las formas de innumerables géneros y situaciones, desde tutoriales de C++ hasta la escritura deportiva. Utiliza su resumen de ese inmenso corpus para responder a un mensaje, generando texto nuevo con patrones estadísticos similares. Los resultados pueden ser técnicamente impresionantes y también divertidos o estimulantes, como atestiguan los poemas, el código y otros experimentos mencionados.

Pero GPT-3 a menudo emite contradicciones o tonterías porque su encadenamiento estadístico de palabras no está guiado por ninguna intención o una comprensión coherente de la realidad: “No tiene ningún modelo interno del mundo, ni ningún mundo, por lo que no puede hacer un razonamiento que requiera tal modelo” (Mitchell, 2019). En sus experimentos, GPT-3 lucha con preguntas que involucran razonamiento por analogía, pero que terminan en divertidos horóscopos.

GPT-3 sugiere que el lenguaje es más predecible de lo que muchos suponíamos. GPT-3 lleva la fluidez sin intención al extremo y llega sorprendentemente lejos, desafiando las suposiciones comunes sobre lo que hace que los humanos seamos únicos gracias al lenguaje (Simonite, 2020).

 

 

3. ¿Por qué Eliza, GPT-3 y la IA dicen mucho más sobre nosotros que sobre las máquinas? En la década de 1960, el investigador del MIT Joseph Weizenbaum (1972) se asombró cuando quienes jugaban con un simple chatbot2 llamado Eliza se (auto-)convencían de que era inteligente y empático. El efecto Eliza sigue operando todavía hoy. Sus propios diseñadores instan a la precaución; Facebook [sic] acusó al servicio de ser “inseguro” y criticó que GPT-3 haya asociado a los judíos con el amor por el dinero, y a las mujeres con un mal sentido de la orientación.

El incidente se hizo eco de algunos de los experimentos anteriores hechos por la revista Wired en los que el modelo imitaba patrones que operan en los rincones más oscuros de Internet. OpenAI investiga a usuarios potenciales para evitar que su tecnología se use maliciosamente creando spam, y está trabajando en un software que filtra los resultados desagradables.

En tres décadas la automatización de la generación de información ha cambiado bastante poco. ¿Dónde estamos parados exactamente cuando de escritura algorítmica se trata con estas herramientas a la vista?

En 2016 una computadora escribió un cuento corto titulado El día que una computadora escribe una novela compitiendo contra humanos por un premio literario

En 2016 una computadora escribió un cuento corto titulado El día que una computadora escribe una novela (Olewitz, 2016), compitiendo incluso contra humanos por el premio literario Nikkei Hoshii Shinichi. Alimentada por humanos, la estructura terminó siendo un 80 por ciento antropocéntrica y solo un 20 por ciento maquinocéntrica. ¿Solo será una cuestión de numerosas aproximaciones sucesivas hasta que las máquinas escriban como nosotros?

Aunque el efecto Pigmalión o Pinocho —la primera historia de IA— nos ronda desde siempre, después de hacer un enorme inventario de creatividad algorítmica en dominios como la pintura y la música, ¿será el lenguaje la nueva frontera algorítmica?
—con todos los efectos de retropropagación que este desafío implica para numerosas prácticas escriturales—.

4. La escritura algorítmica se hace de muchos modos Porque curiosamente si bien aún no tenemos ni poesía ni literatura algorítmica de calidad, los cables de Reuters que versan sobre artículos deportivos, informes sobre el tiempo o muchas entradas en la Wikipedia son generados por robots (Emerging, 2017). Pero ese tipo de notas caben muy bien en templates y no necesitan de mayor inteligencia para convertirse en noticias.

Wordmisth es una aplicación basada en la nube que recoge gran cantidad de datos sobre los temas analizados y puede generar cientos de millones de notas al año. La empresa Narrative Science imagina que en 2025 el 90 por ciento de los artículos periodísticos serán producidos por bots, y como cereza del postre tenemos a Lsjbot de Sverker Johansson, que redactó 2,7 millones de artículos, en la mayoría de los casos solo stubs3, y que aparecen mayoritariamente en la Wikipedia sueca dando cuenta de casi la mitad de sus artículos.

En la misma dirección va el software desarrollado por Philip M. Parker que baliza la web sobre casi cualquier tema y lo convierte en libros que se pueden imprimir bajo demanda (Cohen, 2008). Casi 90.000 de estos libros están en Amazon, valuados entre centavos y miles de dólares. Parker está trabajando en un algoritmo que fabricará novelas y ha posteado cerca de 1,3 millones de poemas.

El noventa por ciento de los artículos periodísticos serán producidos por bots en 2025

Para que podamos hablar de escritura creativa, o de periodismo científico, o de novelas de calidad necesitamos que los programas incorporen desde sentido del humor —hay varios dedicados a la tarea como Humorous Agents for Humorous Acronyms (Stock & Strapparava, 2006)—, pasando por ejercicios de computación de stand-up4, escritura de poesía y, sobre todo, la creación de historias.

El trabajo desarrollado por Rafael Pérez y Pérez (2017) de la UAM-Cuajimalpa y su programa MEXICA, que genera argumentos inspirados en la historia, leyenda y cultura de los mexica originales, y que combinado con el sistema Narrator/Curveship (Montfort et al., 2013) crea narrativas con personajes, objetos y eventos que le son alimentados (precisamente, a través de MEXICA).

Estas historias distan mucho de parecerse aún a las de García Márquez. Pero de lo que se trata es justamente de descifrar cómo se genera sentido (“What’s in the brain that ink may caracter”. Soneto CVIII, como nos enseñó Shakespeare hace cuatro siglos) y de cómo se diseña creatividad sin hacer mutis por el foro sosteniendo que solo los humanos —y no las máquinas— lo hacemos (y tampoco sabemos cómo).

Coda

Mucho ha pasado en las ocho décadas desde que empezamos a programar a las máquinas. Mientras que durante milenios aprendimos a escribir con signos, desde hace menos de uno empezamos a escribir con código. Del mismo modo que la alfabetización nos convirtió en un nuevo tipo de humanos, seguramente el código hará la propio. Obras recientes de Vee (2017) y Umaschi (2021), anuncian esta nueva mutación que no es solo cognitiva sino antropológica.

Leer y escribir no son meras habilidades expresivas sino que están sobredeterminadas socioemocionalmente. No se trata tanto de emular la estética humana, cuando de instanciar su ética. Y este desafío resulta hasta ahora inalcanzable para las máquinas y genera problemas en cascada de todo tipo, que recién hoy empezamos a vislumbrar. Habrá que explorar esos nuevos caminos del conocimiento para anclarlo en un mundo inasible y profundamente contradictorio.

Notas

 1La prueba de Turing o test de Turing es un examen de la capacidad de una máquina para exhibir un comportamiento inteligente similar al de un ser humano o indistinguible de este.

 2Programas informáticos con los que se puede mantener una conversación.

 3Un stub es, en el contexto del testeo del software, un trozo de código usado como sustituto de alguna otra funcionalidad. Un stub puede simular el comportamiento de código existente (tal como un procedimiento en una máquina remota) o ser el sustituto temporal para un código aún no desarrollado. Más información en: https://es.wikipedia.org/wiki/Stub

Bibliografía

Cohen, N. (2008): “He Wrote 200,000 Books (but Computers Did Some of the Work)” en The New York Times.
Mateas, M. y Montfort, N. (2005): “A Box, Darkly: Obfuscation, Weird Languages, and Code Aesthetics”, en la sexta Digital Arts and Culture Conference, IT University of Copenhagen, pp. 144-153. Disponible en: https://nickm.com/cis/a_box_darkly.pdf
Miller, A. (2019): The Artist in the machine. The world of AI-powered creativity. Cambridge, MA, MIT Press.
Olewitz, C. (2016): “A Japanese A.I. program just wrote a short novel, and it almost won a literary prize” en Digital Trends. Disponible en: https://www.digitaltrends.com/cool-tech/japanese-ai-writes-novel-passes-first-round-nationanl-literary-prize/
Rossman, M. (1990): “Third-Generation Software for Writers” en Verbum.
Simonite, T. (2020): “Did a Person Write This Headline, or a Machine?” en Wired. Disponible en: https://www.wired.com/story/ai-text-generator-gpt-3-learning-language-fitfully/
Stock, O. y Strapparava, C. (2005): HAHAcronym: A Computational Humor System. Disponible en: https://aclanthology.org/P05-3029.pdf
Umaschi, M. (2022): Beyond Coding: How Children Learn Human Values through Programming. Cambridge, MA, MIT Press.
Vee, A. (2017): Coding Literacy: How Computer Programming Is Changing Writing. Cambridge, MA, MIT Press.
Weizenbaum, J. (1976): Computer Power and Human Reason: From Judgment to Calculation. EE. UU., W. H. Freeman & Co.

Artículo publicado en la revista Telos 120


Ir al número ...

Autor

Filósofo especializado en nuevos medios: internetómano, bibliómano, posgutenberguiano y felinómano. Ha combinado su actividad con la escritura, y cuenta (entre otros) con Ciberculturas 2.0, Nativos digitales o Innovación y barbarie (con Julio Alonso).

Ver todos los artículos

Contenido relacionado

Comentarios

Artículos relacionados