8 de julio de 2019

I

Inteligencia artificial y la voz

por Juan De la Cruz Berlanga

Los nuevos desarrollos en inteligencia artificial han conseguido poder identificar los patrones de la voz humana en el aire y convertirlos en información textual y cadenas de bits procesables. La base de ello son los nuevos algoritmos de aprendizaje automático y una mayor capacidad de procesamiento de datos. Sin embargo, ¿es suficiente? La comunicación oral, como veremos, requiere muchos datos además de la voz, pero la voz es una primera base para ese camino.

 

[ ILUSTRACIÓN: LAURA PÉREZ ]

 

Antes de aceptar la propuesta del SMS surgieron serias dudas: ¿por qué las personas iban a querer escribir algo pudiendo llamar por teléfono y hablar? ¿Tenía sentido? (Hillebrand, 2010). Finalmente se apostó por esta tecnología iniciando una era de intercambio de mensajes escritos que heredarían progresivamente el correo electrónico, las redes sociales y las aplicaciones de mensajería, haciendo que la oralidad, la voz, perdiera cada vez más relevancia en las comunicaciones en la red1.

Hoy, gracias a los algoritmos de aprendizaje automático (machine learning) y a una mayor capacidad de cómputo2, la voz vuelve otra vez a recuperar terreno. Pero irónicamente no tanto para hablar más con otros humanos sino como nuevo interfaz para interactuar con máquinas. Y no únicamente entre humanos y máquinas, sino también como forma de comunicación de las máquinas entre sí.

La creación de lenguajes que sirvieran para comunicarse con la máquina se podría decir que es, en sí, la ciencia de la computación y es consustancial al desarrollo de los primeros computadores, colaborando desde el principio lógicos especialistas en el lenguaje como Gödel. E igualmente, desde los inicios, se ha tratado de que esa comunicación sea lo más próxima al lenguaje humano3.

Ya en los años 80 se popularizan a nivel lúdico —que nunca debe ser subestimado dado su impacto comercial en el desarrollo de la informática— los juegos conversacionales (Montfort, 2003) y la comunicación de las máquinas empleando tonos de voz. Era habitual en las redes telefonía para hablar entre ellas y configurar la red. En concreto, el empleo de este tipo de tonos de voz suponía una vulneración de seguridad importante y había humanos que, haciéndose pasar por máquinas y hablando como ellas, conseguían engañar a otras máquinas. Vulnerabilidad que llegó a obligar a replantear toda la estandarización mundial de comunicaciones (Boone, 2011).

Hoy, sin embargo, hemos pasado desde aquella época en que conversar con un vehículo daba para argumento de series de televisión de ciencia ficción a ser un complemento de serie en todos los vehículos. Y también en nuestra casa y en los dispositivos personales.

Gracias a los algoritmos de aprendizaje automático y a una mayor capacidad de cómputo, la voz vuelve otra vez a recuperar terreno

Las máquinas hoy pueden, a diferencia de los módems antiguos, hablar entre ellas empleando palabras humanas y solicitarse servicios mutuamente (Debin, 2015), o mantener cortos debates4. Incluso uno de los servicios más sorprendentes en el ámbito del Internet of Things de Telefónica es la posibilidad de transmitir la voz de un técnico para mantener y reparar elevadores. Más aún, cada vez es más habitual que interfaces de voz hagan de traductores no solo entre lenguajes humanos en tiempo real sino también entre humanos y máquinas, traduciendo las palabras del operador/programador a los comandos que requiere la máquina para ejecutar la acción.

¿Es correcto pues hablar de inteligencia artificial? ¿Qué es lo que falta a la conversación con uno de estos interfaces que hace que a menudo no sea amigable? ¿Es robótica esta voz inteligente o está más cercana a la humana?

La clave está en el contexto (Garten, Kennedy, Sagae, y Dehghani, 2019). Veamos unos ejemplos:

1) A: Cuesta doce veces más hacer un cliente nuevo que mantener a uno antiguo (Escandell, 2005).

2) A: ¿Conducirías un Mercedes?
B: No conduciría ningún coche caro.

3) A: ¿Qué tienes pensado hacer hoy?
B: Tengo un terrible dolor de cabeza.

4) -Leo vendió un cuadro a Pedro
    -Pedro compró un cuadro a Leo5.

Interpretar estas frases es una acción trivial para cualquier humano, ¿pero serían igualmente entendibles por una máquina? La primera expresión puede corresponder a un profesor transmitiendo un dato a sus alumnos o a un cliente lanzando una amenaza velada. ¿Percibiría Siri el nivel de la amenaza o considerará que se trata solo de un dato que queremos que aprenda?

El segundo caso, ¿interpretaría la inteligencia artificial que no queremos conducir el Mercedes?

Para el tercero, ¿qué significa exactamente esa respuesta? ¿Que se va a quedar en casa, que no tiene ganas de ocio, que piensa hacer algo como ir al médico, …?

El cuarto, dependiendo de que usemos una u otra expresión estaremos subrayando uno u otro matiz. ¿Sería una inteligencia artificial capaz de captarlo? Si se lo hemos enseñado previamente sí; si no, es imposible. Una inteligencia artificial suele desenvolverse en un cierto contexto, pero no domina el casi infinito registro de contextos que domina un ser humano.

Por ejemplo, podemos diseñar una inteligencia artificial de atención al cliente que pueda interpretar el primer caso como una amenaza pero, si situamos de pronto esa misma inteligencia artificial en un aula, sería inca- paz de procesar correctamente lo que sucede de la misma forma que lo haría un ser humano.

El ámbito de la comunicación lingüística en la que se basa la voz siempre ha oscilado entre dos tendencias: una primera que se focalizaba en la gramática y en el lenguaje en sí, con su lógica asociada —destacaríamos a Russell, el primer Wittgenstein y a Chomsky, por citar algunos— y en los estudiosos del entorno en que se produce esa conversación, la ubicación de ese contexto: la llamada pragmática.

 

 

Los primeros modelos de comunicación se basaron en los mismos que se empleaban precisamente para la transferencia de información entre máquinas6 y que aún se estudian en el bachiller. En ellos, el hablante tiene una imagen mental de lo que quiere decir, lo codifica mediante su voz y se lo hace llegar al receptor mediante un canal, que a su vez vuelve a decodificar estas palabras. Pero, en realidad, las personas no funcionamos así: paralelo a este proceso de codificación y decodificación hay un proceso de inferencia en el receptor en el cual asocia lo que decodifica a su situación de contexto. Esto es lo que se conoce como Teoría de la Relevancia y es donde nuestras máquinas encuentran problemas (Sperber y Wilson, 2012).

El principio de relevancia es la base de la comunicación verbal básica con las máquinas. Por ejemplo, a la hora de buscar en Google el buscador nos responde, en principio, por el orden de lo que entiende más relevante. Para ello se basa en el carácter epistemológico de la fuente de información y los datos personales del que hace la pregunta que ha conseguido colectar7. Sin embargo, no es lo mismo tratar de buscar una información determinada que mantener un diálogo. En un diálogo se trabaja en común entre emisor y receptor para compartir y acordar una información: actuamos mediante actos de habla8. La máquina debería tener esa misma flexibilidad para cualquier situación en un todo coherente.

Estamos solo en el inicio del empleo de la voz entre hombres y máquinas: nuestro siguiente gran reto es dotar a las máquinas de capacidad de contextualizar y entender la relevancia

Hay formas de paliar esto con mayor o menor resultado. Por ejemplo, es posible dotar a las máquinas de entendimiento sobre contextos haciéndoles aprender sobre los mismos mediante el uso de guiones predefinidos9.

En algunas máquinas, para reforzar esta ausencia de contexto, se añade al reconocimiento de la voz la capacidad de reconocer imágenes o un reconocimiento de patrones más profundo. De ese modo, las máquinas pueden percibir la emoción del rostro del que habla, la emoción que tiene por el tono de voz o el uso del lenguaje e incluso constantes fisiológicas como el pulso o la respiración que enriquecerían la información sobre su estado emocional. El Internet de las Cosas puede dotar además de información sobre el entorno físico en el que se encuentra la inteligencia artificial.

Existen además capacidades para argumentar y debatir, principalmente mediante búsquedas en fuentes de cultura general como Wikipedia. Lo que es otra forma de dotar a nuestras máquinas de conocimiento de contexto. Esta técnica, así como el hecho de que existen patrones comunes, se emplea para detectar otra peculiaridad de la voz humana difícilmente gestionable por máquinas: la ironía10 o las fórmulas poéticas como las metáforas o analogías (Nehaniy, 1999).

La importancia del contexto en las comunicaciones de voz llega al punto de ser considerada por la inteligencia militar. ¿Cómo detectar las fuentes de propaganda o radicalismo online de una forma óptima y certera? La can- tidad de información en Internet es colosal y fallar en la identificación de patrones es problemático11.

Como vemos, estamos solo en el inicio del empleo de la voz entre hombres y máquinas: nuestro siguiente gran reto es dotar a las máquinas de capacidad de contextualizar y entender la relevancia. Esto supone un desafío tanto tecnológico —no existe capacidad de proceso actual como para dotar a las máquinas de esta habilidad—, como matemático—mejores algoritmos de aprendizaje de estos contextos— o lingüístico—¿es la actual Teoría de la Relevancia el marco que mejor sirve para trabajar las cuestiones de la voz humano-máquina?—. Y pese a ello terminamos con el argumento de Searle12, el filósofo que entendió el lenguaje como una forma de actuar: identificar patrones y generar respuestas de una forma muy rápida, ¿de verdad puede llamarse inteligencia? En cualquier caso, cuando Searle planteó su famoso argumento, conocido como “la habitación china”, frente al test de Turing, no pareció tener en cuenta la cuestión del contexto.

Notas

 1Pew Research Center (2011): Americans and Text Messaging. Disponible en: https://www. pewinternet.org/2011/09/19/americans-and- text-messaging/

 2Lecun, Y; Bengio, Y. y Hinton, G. (2015): “Deep Learning”, Nature, vol. 521 páginas 436-444

 3IBM (1956): The Fortran Automatic Coding System for the IBM 704. Disponible en: https://www.ibm.com/ ibm/history/ibm100/us/en/icons/fortran/ breakthroughs/

 4Walton, D. and Gordon T.F. (2018): How computational tools can help rethoric and informal logic with Argument invention

 5Valdés, L.M. (2012). La búsqueda del significado. Madrid, Tecnos

 6Shannon, C., y Weaver, W. (1949): The mathematical theory of communication. University of Illinois Press

 7Kinsman, M. (2011): Google’s Algorithm changes – Will you notice?

 8Searle, J. (1997): Speech Acts: An essay in the Philosophy of Language. Cambridge, Harvard University Press

 9Papers from ECAI Workshop (2006): Contexts and Ontologies: Theory, Practice and Applications.

 10Karoui, J.; Benamara, F.; Moriceau V.; Aussenac-Gilles, N.; y Hadrich Belguith, C. (2015): “Towards a Contextual Pragmatic Model to Detect Irony in Tweets”. 53rd Annual Meeting of the Association of Computational Linguistics. Pekín, páginas 644-650. Disponible en: https://pdfs.semanticscholar. org/cab2/7a95651b5c409668cd6fb7f- 5625224c799ac.pdf

 11Casebeer, W.; Ziegler, M.; Kraft, A.; Poleski J.; y Russell B. (2018): Human performance augmentation in context: using Artificial Intelligence to deal with variability- and example from narrative influence, Augmented Cognition Users and Contexts. Springer

 12Searle J. (2014): The Chinese Room argument. Disponible en: https://plato.stanford.edu/entries/chinese-room

Bibliografía

Boone, A. (2011). “Return of the phone phreakers: Business Communications Security in the age of IP”
en Troy, vol. 4 50-52, 2011.

Escandell, V. (2005): La Comunicación. Barcelona, Editorial Gredos.

Garten, J., Kennedy, B., Sagae, B, y Dehghani, M. (2019). “Measuring the importance of the context when modeling language comprehension” en The Psychonomic Society.

Grice, P. (1991): Studies of the ways of words. Cambridge, Harvard University Press.

Hillebrand, F. (2010). Short Message Service, The Creation of Personal Global Text Messaging. Wiley.

Lecun, Y., Bengio, Y., y Hinton, G. (2015) “Deep Learning” en Nature, vol.. 521 páginas 436-444.

Montfort, N. (2003). Twisty Little Passages: An Approach To Interactive Fiction. Cambridge, The MIT Press

Nehaniy, C.L. (1999): Computation for Metaphors, Analogy, and Agents, Lecture Notes in Artificial Intelligence. Nueva York, Springer.

Sperber, D., y Wilson, D. (2012): Relevance: Communication and Cognition. Oxford, Blackwell Publishers.

Artículo publicado en la revista Telos 111


Ir al número ...


Juan De la Cruz Berlanga

Postgraduado en informática. Es responsable de tecnología del Internet de las cosas en Telefónica Business Solutions. Estudia el ámbito de la inteligencia artificial en la Universidad Carlos III.


Comentarios