8 de septiembre de 2020

I

Infinitos movimientos, tiempo finito: cómo usar la imitación para enseñar a los robots

por Santiago Morante

A pesar de las promesas de la ciencia ficción, los robots con forma humana aún no recorren nuestras calles. El control del cuerpo está suponiendo un reto aún no resuelto. ¿Puede ser la imitación la respuesta al problema?

Te levantas de la cama por la mañana. Vas a la cocina, abres un armario, agarras una taza y la dejas sobre la mesa. Después te acercas al frigorífico, lo abres, coges el cartón de leche, vuelves a la taza, echas la leche y, opcionalmente, el café de la cafetera. Lo descrito es una escena cotidiana para cualquier persona y es, también, el mayor reto al que se enfrenta la robótica desde sus inicios.

El control de los movimientos del cuerpo es, a pesar de las apariencias, un reto mucho mayor que ganar al ajedrez, al Go, o a videojuegos (Vinyals, y otros, 2019). Mientras que en los juegos las reglas están claramente definidas y el número de acciones posibles es limitado, cuando hablamos de coordinar cientos de músculos y articulaciones, muchas de las cuales son redundantes y no independientes entre sí, para realizar una acción, en un contexto cambiante, entonces el problema se complica (incluso sin tener en cuenta problemas inherentes a la robótica como integrar con sentido información de distintos sensores para que representen el mundo real).

Cualquier gesto humano puede ser ejecutado de múltiples maneras distintas. Pensemos en cuántas formas hay de abrir una botella. Se puede abrir con cualquiera de las dos manos, se puede poner la botella en distintas orientaciones, agarrar la tapa de distintas formas, aplicar la fuerza de varias maneras, hacerlo sentado o de pie, etc. Es decir, el número de alternativas es casi infinito. Siendo así, ¿cuál es la forma más adecuada? ¿Cómo le enseñamos a un robot a distinguir que una forma es mejor que otra? ¿Qué articulaciones hay que mover y en qué orden?

El control del movimiento de los robots es un problema que ninguna Inteligencia Artificial ha resuelto aún

Entonces, si es tan difícil, ¿por qué hacemos robots con forma humana? ¿Por qué no construimos robots con formas más sencillas?

¿Para qué queremos robots humanoides?

Hay un motivo principal que hace de los robots humanoides la mejor opción para ser nuestros acompañantes: el mundo está construido a la medida del ser humano. Hemos desarrollado nuestro entorno, herramientas, arquitectura y tecnología con base a la forma del cuerpo humano. Los ejemplos son abundantes: el botón del ascensor está a una altura adecuada para que un brazo alcance a pulsarlo, las tazas tienen un asa adaptado a la forma de los dedos que lo agarran, los coches se manejan con una combinación de palancas inferiores adecuadas para nuestras piernas y un volante que gira con un ángulo que nuestros brazos pueden seguir, etc.

Con este escenario, si queremos crear un asistente versátil, que sea capaz de realizar muchas tareas diferentes (limpiar la casa, planchar, mover cajas o llevarnos en coche), tenemos dos opciones: o adaptamos todo el entorno al robot, o adaptamos el robot al entorno. Parece evidente que la segunda opción es más factible que la primera.

Una vez condicionados a usar la forma humana, podemos recurrir al propio ser humano para entender cómo aprendemos a manejar nuestro cuerpo e intentar sacar conclusiones que después se puedan aplicar a los robots.

Cómo aprendemos a controlar nuestro cuerpo

A grandes rasgos, podemos decir que los humanos aprenden a manejar su cuerpo por prueba y error. Desde un bebé dando sus primeros e inestables pasos, hasta el niño que aprende a montar en bicicleta sin ayuda, el ciclo de prueba y error repetido muchas veces nos hace alcanzar la perfección del movimiento. Además de las repeticiones, la imitación juega un papel fundamental para acelerar el proceso, demostrando posibles formas de llevar a cabo la acción.

Cuando los investigadores intentaron trasladar este paradigma a los robots humanoides, se encontraron con un problema inesperado.

El problema de la correspondencia

Aunque los robots humanoides se parecen a los humanos, no son exactamente iguales. Puestos frente a frente en un espejo, humano y robot, saltan a la vista algunas diferencias. La primera es que las longitudes de los miembros del robot no son exactamente iguales a las del humano. Podrían serlo a un humano en concreto, pero no a todos. Además, la distribución de masa es distinta, pues la estructura metálica no sigue la forma de los huesos humanos y, a diferencia de nosotros, tienen que acarrear un motor en cada articulación.

Estas diferencias en la forma se conocen como el problema de la correspondencia (Mohammad & Nishida, 2013) e impiden que un robot pueda copiar exactamente los movimientos de un humano al hacer una tarea por imitación (Calinon, D’halluin, Sauser, Caldwell, & Billard, 2010). La imitación exacta de los movimientos llevaría al robot a alcanzar una postura similar a la del humano, pero lo suficientemente distinta como para que al cerrar los dedos la taza no se pueda agarrar, o que, al intentar pulsar el botón, este se encuentre a unos centímetros de distancia.

Si no podemos enseñarles directamente, tenemos que buscar alternativas que permitan a los robots, de forma rápida, aprender las tareas que queremos que hagan.

Traducir a un lenguaje común

Una opción es guiar directamente al robot, agarrando sus brazos y haciendo la tarea. Esto es lo que se conoce como aprendizaje kinestésico (kinesthetic teaching) (Billard, Calinon, & Guenter, 2006) y aunque es útil en contextos manufactureros, tiene inconvenientes cuando el robot no tiene un tamaño manejable o la tarea tiene variabilidad, ya que el robot solo aprende a repetir la tarea de forma mecánica, sin inteligencia.

Otra opción es traducir a un lenguaje común los movimientos del robot y el humano. En una simulación virtual se codifica la acción a realizar y, mediante métodos de optimización, se deja que el robot encuentre una solución adecuada. La investigación se ha centrado en traducir la acción en sí a objetivos que el robot pueda cumplir, sin tener que seguir para ello un movimiento similar al que seguiría un humano. Esto es lo que se conoce como acciones orientadas a objetivos (goal-oriented actions) (Morante, Victores, Jardón, & Balaguer, 2015). Esta aproximación tiene la ventaja de que permite enseñar, en teoría, acciones arbitrariamente complejas (Smith, Dhawan, Zhang, Abbeel, & Levine, 2019).

Surge, sin embargo, otro problema. Si el objetivo ya no es imitar el movimiento, sino el resultado de una acción, ¿cómo hacemos entender al robot el resultado que queremos llevar a cabo? Una acción como llenar un vaso con una botella se puede interpretar tanto como que el objetivo es llenar el vaso, como que es vaciar la botella (y que el vaso es secundario). Ambigüedades similares se dan en todas las acciones cotidianas.

Hacer entender a un robot el objetivo de una acción es un problema abierto en la investigación

La superinteligencia artificial no está tan cerca como parece

Entonces, ¿cómo de cerca estamos de conseguir un robot versátil que haga muchas tareas distintas de forma eficaz? La respuesta es, por desgracia: aún lejos. En los últimos años ha habido grandes avances en el control de movimiento de robots humanoides, gracias, sobre todo, al trabajo de Boston Dynamics con ATLAS (Guizzo, 2019). La ejecución de acciones, sin embargo, está aún en fase de investigación, sin un método ganador. La competición DARPA Robotics Challenge de 2015 (Ackerman & Guizzo, 2015) fue el intento más cercano de usar robots humanoides semi-autónomos para realizar distintas tareas en un entorno realista (se usaron simulaciones del entorno con acciones ya pre entrenadas).

Para ser útil, una inteligencia artificial completa deberá tener pleno control del cuerpo, y no solo ganarnos en tareas mentales. Ya sea por el camino de la Inteligencia Artificial General, que pretende crear una inteligencia que pueda realizar con éxito cualquier tarea humana (Goertzel & Pennachin, 2007), o por el de la acumulación de software especializado en tareas concretas, el camino para conseguir el robot de las películas está aún por recorrer.

Bibliografía

Guizzo, E. “By leaps and bounds: An exclusive look at how Boston dynamics is redefining robot agility” en IEEE Spectrum, 56(12), 34–39 (2019).
Ackerman, E., & Guizzo, E. (2015, 6 11). Automaton. Retrieved 8 2020, from IEEE Spectrum: https://spectrum.ieee.org/automaton/robotics/humanoids/darpa-robotics-challenge-amazing-moments-lessons-learned-whats-next
Goertzel, B., & Pennachin, C. (2007): Artificial general intelligence (Vol. 2). Springer.
Billard, A. G., Calinon, S., & Guenter, F. (2006): Discriminative and adaptive imitation in uni-manual and bi-manual tasks. Robotics and Autonomous Systems, 54(5), 370–384.
Calinon, S., D’halluin, F., Sauser, E. L., Caldwell, D. G., & Billard, A. G. “Learning and reproduction of gestures by imitation” en IEEE Robotics & Automation Magazine, 17(2), 44–54 (2010).
Mohammad, Y., & Nishida, T. “Tackling the correspondence problem” en International Conference on Active Media Technology, 84–95 (2013).
Morante, S., Victores, J. G., Jardón, A., & Balaguer, C. “Humanoid robot imitation through continuous goal-directed actions: an evolutionary approach” en Advanced Robotics, 29(5), 303–314 (2015).
Smith, L., Dhawan, N., Zhang, M., Abbeel, P., & Levine, S. (2019). Avid: Learning multi-stage tasks via pixel-level translation of human videos. arXiv.
Vinyals, O., Babuschkin, I., Czarnecki, W. M., Mathieu, M., Dudzik & otros.“Grandmaster level in StarCraft II using multi-agent reinforcement learning” en Nature, 575(7782), 350–354 (2019).

Artículo publicado en la revista Telos 113


Ir al número ...


Santiago Morante

Ingeniero y Doctor en Robótica. Ha sido investigador y profesor ayudante en la Universidad Carlos III de Madrid, con una línea de investigación centrada en cómo los robots pueden aprender de los humanos mediante la imitación. Actualmente trabaja supervisando desarrollos de Machine Learning en Telefónica. Autor de El fin de la infancia digital: Reflexiones éticas sobre la tecnología de nuestra era (2020)


Comentarios

Artículos relacionados