Reciente premio Humbold en Alemania, la obra crítica de Joseph Weisenbaum es ampliamente conocida desde hace años. Catedrático emérito en el MIT, expone en esta entrevista su opinión sobre los ordenadores, la inteligencia artificial, la educación y la innovación tecnológica.
El profesor Weizenbaum es una de las voces críticas más relevantes frente a las corrientes fideistas que ven en las tecnologías de la información una referencia liberadora para los seres humanos. En la actualidad es catedrático emérito en el Massachusset Institute of Technology (MIT), centro en el que ha trabajado durante treinta años. Este centro universitario es el que patenta más inventos cada año y ha saltado recientemente a la opinión pública por ser uno de los lugares donde, en la época de la Guerra Fría, se llevaron a cabo experimentos sobre los efectos de la radiación nuclear con seres humanos (sin informarles y, claro está, sin su consentimiento). Pero también es una institución, paradojas del liberalismo, en el que Noan Chomsky ejerce su voz crítica contra el gobierno y los medios de comunicación de los Estados Unidos, Donal Schön ha desarrollado la noción del «práctico reflexivo» y donde, desde finales de los años 60, el profesor Weizenbaum (una personalidad clave en la historia de la informática) ha ido cuestionando el mito de los artefactos sin ideología. Recientemente ha recibido en Alemania el premio Humbold. Con él tuvimos la oportunidad de mantener esta conversación en el Educational Technology Center de la universidad de Harvard, a finales del pasado verano.
Pregunta.- En España se le conoce como el creador del sistema Eliza y por su libro La frontera entre el ordenador y la mente (Madrid: Pirámide, 1987). ¿Qué datos autobiográficos sobre su carrera y trayectoria profesional cree que serían interesantes para que los lectores pudieran entender mejor su trabajo y sus posiciones?
Respuesta.- Nací en Berlín (Alemania) en 1923. Lo que significa que tengo setenta años. Me sorprende tener setenta años, pero los tengo. En 1936, cuando tenía trece años, emigré a los Estados Unidos con mis padres y mi hermano donde cursé la enseñanza secundaria. En 1941 me matriculé en la Universidad, pero en diciembre, Estados Unidos entró en la guerra y tuve que integrarme en aviación, donde permanecí hasta el final de la guerra. Volví a la Universidad y, al cabo de algún tiempo, me convertí en ayudante de investigación de un extravagante catedrático de Matemáticas.
P.- ¿Cómo pasó del campo de las Matemáticas al de la Informática?
R.- Este catedrático decidió que la Universidad necesitaba un ordenador. Esto fue en torno a 1950. En aquel momento, aunque ya existían ordenadores comerciales eran carísimos y tardaban muchísimo en servirlos. De hecho, en aquel tiempo, todas las universidades americanas se construían su propio ordenador. En nuestro caso, este catedrático equipó un laboratorio y un grupo de ayudantes trabajamos para construir uno. Para mí ésta fue una experiencia formativa de gran importancia. Una experiencia que recomiendo a otras personas: llevar a cabo un proyecto en el que tienes que hacerlo absolutamente todo. No es que uno sea responsable de la electrónica y otro de otro aspecto, sino que tú realmente tengas que hacer de todo.
De este modo construimos un ordenador que era ridículo para los parámetros actuales y que nunca realizó ningún trabajo útil. Lo más interesante fue cómo construirlo. Lo que aprendimos haciéndolo. Bueno, en realidad, el ordenador hizo algo útil: en invierno caldeó la biblioteca de la Universidad. Tenía muchos tubos, tubos electrónicos, que se calentaban mucho, así que llevamos el calor hacia la biblioteca. Esta fue su tarea más útil.
Así es como me introduje en el campo de la Informática y lo hice con tanto entusiasmo que nunca lo he dejado. Creo que todos los informáticos de mi generación, que estaban en activo a mediados los años 50, todos llegaron a él desde otros ámbitos. Desde la Psicología, las Matemáticas, etc. No existía un currículum de Informática. En realidad, el término informática no se había acuñado.
Aprendí a ser informático como se aprende un oficio. Es decir, primero uno aprende siendo aprendiz y cuando termina se convierte en oficial. La comunidad era relativamente pequeña porque pocas personas sabían algo sobre ordenadores. Te enterabas de que se hacía algo en algún sitio e ibas, te presentabas, y como había tan pocos informáticos, si podías deletrear la palabra ordenador, si sabías qué era un flip-flop o cualquier otra cosa te contrataban. Me pateé el ámbito de la informática y finalmente acabé en una empresa privada trabajando en un gran proyecto para construir un ordenador para un banco. Nos llevó mucho tiempo y cuando terminé decidí realizar mis propios proyectos. La empresa fue muy generosa dejándome marchar. Publiqué unas cuantas cosas y, en 1963, me llamaron del Massachusetts Institute of Technology (MIT), donde he estado desde entonces.
P.- Usted pasa de la industria y la empresa privada a la universidad, ¿cómo valora este cambio?
R.- Cuando era estudiante en la universidad me interesaban los temas sociales y políticos. Cuando tuve la libertad que te da un contrato académico, que no es ilimitada pero sí considerable, intenté pensar en temas y proyectos que apuntasen en esa dirección. Pensé que un problema fundamental a abordar era que los ordenadores entendiesen el lenguaje natural y nos pudiéramos comunicar con ellos en inglés, alemán, español, etc. Ahora pienso que fue un error. El error no fue trabajar en ello, sino pensar que era un requisito necesario para que los ordenadores trabajasen en temas sociales.
P.- ¿Fueron estos sus inicios en el campo de la Inteligencia Artificial? ¿Cómo llevó a cabo este trabajo?
R.- Construí un mecanismo para manipular y probar el lenguaje natural. Escribí un programa que pudiera conversar en inglés. El problema inmediato que tuve que afrontar es que cuando dos personas conversan los dos han de compartir algún tipo de conocimiento. No se puede conversar con alguien con quien no se comparte ningún tipo de conocimiento y hay que plantearse cuestiones tales como ¿qué le tengo que dar a conocer al ordenador?, ¿cómo darle a conocer estas cosas? Saber qué posibilidades de conocimiento teníamos, era, como sigue siendo ahora, el principal problema. Se han producido avances, pero se está lejos de resolverlo.
Se me ocurrió que tenemos muchas conversaciones que no precisan este tipo de rigor. Por ejemplo, la conversación en una fiesta. Una persona te dice algo, tú asientes con la cabeza y dices «sí, entiendo». Si se habla sobre la familia dices, «bien, ¿cómo está tu hermana?», cosas así. Pero en realidad no participas profundamente en ninguna conversación que requiera un conocimiento especial. El mejor ejemplo que puedo dar de este tipo de cosas es la entrevista con el psiquiatra. Este exhibe, en las respuestas que da, lo que en otro contexto se consideraría como ignorancia. Por ejemplo, uno dice «quiero hablar sobre los editores» y, él dice, «bien, ¿qué hacen los editores?» Uno no piensa que el psiquiatra no sabe qué hacen los editores,cree que tiene alguna razón para preguntarle esto que tiene que ver con los secretos psiquiátricos. Del mismo modo, el compañero con el que hablo -la máquina- es de hecho un psiquiatra. Cuando lo acabé me di cuenta de que existían todas las posibilidades de ser malinterpretado, de ser considerado un ejercicio de psiquiatría automática, y no como un ejemplo de manipulación del lenguaje natural por ordenador. Esto fue lo que pasó y es como lo describo en mi libro.
LOS ORDENADORES EN LA SOCIEDAD
P.- Este fue el origen del sistema Eliza y de su reconocimiento en el campo de la informática, pero ¿cómo cambió esta posición por una actitud crítica frente a los ordenadores?
R.- Aquellos tiempos, estamos en 1963, y los quince años siguientes, entre 1963 y 1978, fueron muy difíciles para el mundo y especialmente para los Estados Unidos. La guerra del Vietnam estaba en pleno apogeo. Yo la veía como una grandísima injusticia y me tuve que aliar con la oposición. Al mismo tiempo, en los Estados Unidos, el movimiento de derechos humanos estaba luchando por dar a las personas negras los derechos civiles y privilegios que tenía el resto de los ciudadanos.
El ambiente se caldeaba, todo iba deprisa, se requería ayuda y, en esas circunstancias, yo no podía permanecer al margen. Me preocupaba el papel de mi universidad, del MIT, y resultó que entonces, como ahora, el MIT estaba muy relacionado con los militares. Precisamente hace unos días, uno de nuestros catedráticos fue nombrado Secretario de la Fuerzas Aéreas, un altísimo puesto en el ejército, el segundo en el escalafón. Por ello, comencé a hacerme preguntas, sobre todo, para tratar de entender qué hacía yo allí. Y resultó que no pude evitar darme cuenta de que yo, y muchos de mis colegas, especialmente los informáticos, estábamos trabajando en el armamento que se utilizaba en Vietnam. Incluso, que cierto tipo de estrategias, como la de zona de alto el fuego, se desarrollaban en el MIT, en el Departamento de Ciencias Políticas y luego se aplicaban en Vietnam. Cuando me di cuenta de todo esto, decidí que no podía continuar haciéndolo y me convertí en una especie de disidente. En principio, como respuesta consciente, que evolucionó desde una especie de sentido anti-militarista inicial a un sentido filosófico posterior. Uno se ha de plantear preguntas filosóficas del tipo: ¿cómo defines lo que estás haciendo?; ¿cómo puedes aumentar la perspectiva sobre ello?
P.- ¿Esta toma de consciencia tiene algo que ver con su experiencia vivida en Alemania y en la Segunda Guerra Mundial?
R.- Creo que un dato importante en mi decisión sobre qué hacer es que era muy consciente del papel que, en general, los científicos y académicos alemanes tuvieron en la Segunda Guerra Mundial. Fundamentaron filosóficamente lo que hacían asegurando que la ciencia y la tecnología carecían de valores, que eran neutrales, que lo que importaba era cómo otros individuos, por ejemplo los políticos, utilizaban sus productos y desarrollos. En ningún caso los científicos y los tecnólogos eran responsables de la utilización que se hacía de su trabajo. ¡Lo encuentro espantoso y no creo que sea verdad! Esta posición está ligada con las ideas filosóficas de objetividad, la perspectiva positivista y todo eso. Estos temas no son simples, pero con mi experiencia e intereses decidí que no iba a representar en esta Universidad el papel que en Alemania y otras universidades del mundo juegan los catedráticos tradicionales.
P.- ¿Qué hizo entonces?, ¿qué salida tomó?
R.- Me retiré y me dediqué a escribir. Quiero decir que me retiré de la investigación científica. Escribía, daba clases e intentaba introducir con gran esfuerzo y sin mucho éxito, las ideas políticas y sociales que iba desarrollando en mi docencia. Aunque, a decir verdad, hasta cierto punto tuve éxito. Daba clases, escribía y daba muchas conferencias, pero nunca volví a participar en un proyecto de investigación y mucho menos como investigador principal.
P.- ¿Cómo reaccionaron la dirección del MIT y sus colegas?
R.- Todos aceptaron el juego. Tuve un permiso de dos años y después aceptaron que volviese. Les estoy muy agradecido y creo que fue muy generoso por su parte. Esto puede sonar muy extraño para la gente de Humanidades, pero tiene que entenderse de qué época se trataba. Era una época en la que todavía se sentían los efectos del éxito del Sputnik. Era una época de una enorme competencia entre la Unión Soviética y nosotros, y también Japón. Especialmente en el ámbito de la Informática. Como consecuencia, este campo estaba dotado con grandes sumas de dinero, especialmente por parte de los militares y también de las casas comerciales. Había muchísima libertad, en muchos aspectos, sobre cómo gastar el dinero en los distintos laboratorios. Y con el prestigio del MIT era más fácil convencer a la gente de que no se preocupasen, que los estábamos haciendo bien. Después de todo, somos el MIT. Tengo que decir que hacía falta generosidad y hasta cierto punto valor, por parte del responsable del laboratorio de Informática, para dejarme continuar haciendo lo que hacía sin contribuir con el dinero de posibles contratos.
P.- Quizás para ellos era una forma de decir «tenemos de todo, incluso personas que critican nuestro trabajo».
R.- Sí, fue algo así. Recuerdo que hace algunos años, se publicó una amplia entrevista en una revista francesa semanal tipo Time con el entonces rector del MIT, Paul Gray. Se le preguntaba sobre todo lo que sucedía en el MIT, no sólo lo relacionado con la Informática, sino sobre otros muchos campos de investigación y desarrollo. La entrevista ocupaba muchas páginas. Casi al final, el periodista le preguntó: «seguramente muchas de estas cosas producen efectos en la sociedad y algunas pueden ser desagradables ¿nunca se preocupa por ello?». Su respuesta fue muy breve: «Bien, tenemos al profesor Weizenbaum. El se preocupa continuamente por ello». La respuesta estuvo bien, fue muy realista. Tenía razón al decir que me tenían a mí y que me preocupaba siempre por todo ello. Pero se puede analizar esta posición y preguntarse lo que ellos probablemente no hacen: «esta postura, ¿libera al resto del profesorado de preocuparse por estos temas?». El periodista no le planteó esta cuestión. Pero en realidad, éste es, en parte, el papel que represento.
P.- ¿Cómo ha vivido este papel, esta posición crítica y de ir a la contra?
R.- Ahora que estoy retirado me he ganado la libertad del bufón de la corte. Puedo decir cosas que a otras personas no les está permitido decirlas. Lo que me lleva a otras de las funciones de los bufones: decir la verdad cuando poca gente se arriesga a decirla. Ya sé que éste es el privilego del loco. Lo que no significa que intelectualmente tenga que ser un loco, pero reconozco que que si alguien me dice «estás desempeñando este papel», no protestaría diciendo «¿cómo puedes decir esto?, ¡yo no estoy loco!».
P.- Tomando como punto de partida su posición crítica nos gustaría conocer su visión ante la opinión de muchas personas que ven en los ordenadores,un modo de liberar a los individuos, sobre todo, de realizar tareas aburridas… Sin embargo, desde sus reflexiones uno puede llegar a la conclusión de que los ordenadores están en contra de las personas…
R.- Una respuesta rápida a su pregunta sería que no se puede inferir eso de lo que estoy diciendo. No es tan simple. Por desgracia, en ocasiones sólo me vienen palabras en alemán. La palabra que me viene es Menschheit para referirme a los seres humanos y a la idea de que el ordenador es un un invento hostil a la humanidad. Pero no es tan simple. Las personas que tienen otro punto de vista al mío, con frecuencia insisten en que el ordenador, tal y como sucede con la tecnología y la ciencia, de manera especial con la informática, es algo neutral, carece de valores. Antes pensaba así, pero ahora no veo las cosas de esta manera.
P.- ¿Cómo se produce y de qué manera fundamenta este cambio de punto de vista?
R.- Insistir en que el ordenador o cualquier otro artilugio es hostil a los propósitos de los seres humanos, implica que aceptas que no carece de valores. Estás diciendo que tiene un valor, que desde tu punto de vista es negativo. Y no puedes tener a la vez las dos opciones: posee o no posee valores. No creo que sea algo personal como preferir el sabor de fresa al de vainilla. No es una cuestión de gusto ni nada por el estilo.
Lo que planteo cuando manifiesto que los ordenadores no están libres de valores es ¿dónde están estos valores? Creo que los artefactos, sean técnicos o sociales, heredan su valor de la sociedad en la que están ubicados. En nuestra sociedad, el ordenador se inventó durante la Segunda Guerra Mundial de forma más o menos simultánea en Alemania, Gran Bretaña y los Estados Unidos. El ordenador fue una herramienta de guerra. En los primeros 25 ó 30 años el mayor impulso lo recibió en los Estados Unidos. Y la mayor parte del trabajo que se hizo fue bajo el patrocinio de este país. Un país que posee una sociedad que ejerce la violencia de todo tipo, sea en la guerra o en las calles, pues forma parte del carácter estadounidense, ya que tiene que ver con la idea de frontera y otras mitologías. El ordenador toma los valores de esa sociedad. En la mente, el ordenador tiene en la actualidad los valores que pueden asociarse con diferentes tipos de violencia. Se puede ver, por ejemplo, a los niños en las videoconsolas o en las salas de juegos, derribando naves espaciales, destruyendo ciudades, obteniendo altas puntuaciones por matar simbólicamente grandes cantidades de personas. Además, la mayoría de las armas modernas tienen dentro un ordenador. Y podría seguir… No creo que tenga que demostrar mucho todo esto para que se entienda. Pero, volvamos a su pregunta.
P.- De manera muy dualista y radical ¿está el ordenador a favor o en contra de la gente?
R.- Puede que en otra sociedad el ordenador sea un instrumento benigno, e incluso muy positivo. Déjenme darles un ejemplo que me parece significativo. Supongo que todo el mundo sabe lo que es un escáner: la unión entre los rayos X y el ordenador. Es un instrumento médico que hasta donde yo sé no se ha utilizado con otros fines. ¿Qué se puede decir sobre él que sea negativo? La respuesta es que no puedes decirlo sino en el contexto de la sociedad en la cual se inventó. En Escandinavia o en Canadá, desde mi punto de vista es un buen instrumento. Sin embargo, en los Estados Unidos, el mismo aparato es un desastre, debido al sistema sanitario que tenemos aquí, que hace que cada año los médicos reciban demandas de grandes sumas de dinero si cometen un error. Por este motivo un médico mandará aquí a realizar una prueba con el escáner aunque no sea necesario, pues en caso de juicio se ha de defender mostrando que ha tomado todas las medidas posibles. Esto incrementa el gasto de la medicina en instrumental médico. Como consecuencia, aumenta el nivel de coste, lo que hace que la gente no pueda pagar para recibir tratamiento médico. Por ello, debido a la electrónica y particularmente al escáner, hay miles de personas, que no tienen acceso a la medicina, que quedan al margen. Por eso, en los Estados Unidos, uno puede decir que el escáner ha matado mucha gente. Por lo tanto no se puede decir que el instrumento sea bueno o malo sino en relación con la sociedad en la está ubicado.
P.- Si le parece pasemos a otro tema. En la historia de la Inteligencia Artificial usted es uno de los autores que dice que se ha llegado a un callejón sin salida. ¿Podría explicarlo?
R.- Hace unos 35 años que se fundó el campo, cuando aparecieron las primeras publicaciones. Pero desgraciadamente, la historia no es algo muy valorado por la academia norteamericana. Pero esto es otra historia. En un principio, la Inteligencia Artificial se consideró que era realizar con los ordenadores aquello que, de ser hecho por personas, sería considerado como inteligente. Así, sucede con el ajedrez, en el que la gente juega una con otra y requiere un cierto grado de inteligencia. Si se puede hacer que un ordenador juegue, esto es Inteligencia Artificial.
Pero no se tardó mucho en cambiar el foco de interés, especialmente por parte de las personas serias, es decir, los representantes de la academia y la Psicología. Para ellos, hacer inteligencia artificial era básicamente pensar sobre el pensar, y, por así decirlo, lo que se simulaba eran los progresos del pensamiento humano. Ante esto, uno se ha de preguntar, explícitamente o no, ¿con qué grado de explicación simulamos el pensamiento humano? Y esto a distintos niveles.
Uno, por ejemplo, sería el nivel cognitivo y otro el neuronal. Estos dos planos son totalmente diferentes. Los dos tratan de explicar un fenómeno, pero resulta muy diferente si se mira desde uno u otro punto de vista. Esto mismo ocurre en cualquier ámbito disciplinar. Hay un tipo de física macro y, por otro lado, está la física atómica y, de alguna manera, las dos tratan de explicar el mismo fenómeno.
P.- Sin embargo, los cognitivistas han sostenido que todo lo humano puede considerarse cognitivo.
R.- Creo que la dificultad que ha dominado el campo de la inteligencia artificial de manera especial entre los individuos que eran serios, era el nivel cognitivo de explicación por el que trataban de simular la cognición humana. La razón es que el pensamiento cognitivo, la actividad cognitiva, está muy lejos de ser todo el pensamiento. La cognición no lo es todo. De hecho, ésta es la parte más pequeña de cómo pensamos. Quizás la más visible, la que podemos comprender mejor que ninguna otra, pero, no deja de ser una pequeñísima parte. Pero los cognitivistas, que eran increiblemente ingenuos, creyeron que habíamos empezado a explicar el pensamiento humano. La teoría actual es que se ha dejado algo fuera que es extremadamente importante. Recuerdo a menudo los comentarios de Ionesco, que decía que todo se podía decir con palabras excepto el sentido de la vida. Podía muy bien haber dicho que todo se puede decir en términos lógicos, sea lógica matemática, binaria, etc., menos el sentido de la vida. Esta es la discusión entre los cognitivistas y yo. Puedo imaginarme a una de mis hijas dedicando su vida a entender la cognición y pensaría que es una pérdida de tiempo. Si me dijera que con ello cubre todo el pensamiento humano, estaría en desacuerdo con ella. No es que sea erróneo, es la arrogancia que supone pensar que esto es todo. Esta es la actitud contra la que argumento.
P.- ¿Tiene alguna relación su argumento con la propia historia de la Ciencia Cognitiva?
R.- Creo que es resultado de que hace algún tiempo se definió un nuevo campo, el de la Ciencia Cognitiva. Muchos informáticos que trabajaban la Inteligencia Artificial se consideran científicos cognitivos. Esto apoya mi argumento. Alguna gente, como Marvin Minsky, se dio cuenta tras largo tiempo,después de un largo conflicto, de que lo que yo había dicho era correcto. No quiero decir que asociasen mi nombre con ello, pero parecen haber tomado la misma visión que yo con respecto a la cognición: reconocer su limitación. Yo dije que realizar una máquina de lo que se ha denominado «el hombre completo» no conducía a ningúna parte o al menos no muy lejos. En cierto sentido, es terrible decir que vas a realizar el hombre completo en una máquina. Esto es lo que intentan y no temen decirlo. De todas formas, hay otra manera de enfocar el tema de la cognición. Consiste en cambiar el punto de vista, el nivel de la explicación. Hoy, este nivel de explicación es neuronal, se refiere a lo que las neuronas hacen. Este es el reto moderno y lo es por ser obviamente un problema difícil. No sé si se dan cuenta de la dificultad o no, en cualquier caso es la trayectoria que se sigue. Hay que decir además, porque si no, esta argumentación no sería completa, que hay una coincidencia entre el desarrollo de los soportes físicos y el cambio de opinión de parte de la intelligentsia artificial, como a veces les llamo. Resulta que en los últimos ocho o diez años el paralelismo entre las neuronas y los ordenadores se ha hecho muy atractivo. Se podían construir procesadores muy pequeños, muy baratos y muy rápidos. La denominada máquina de conexión (connection machine) que tiene mil millones de procesadores, ordenadores diminutos trabajando simultáneamente para realizar ciertos tipos de cálculo es algo muy útil en muchos campos como la Física.
Es difícil no pensar en la analogía de que estos pequeños ordenadores son neuronas que están unidas unas a otras, influyéndose mutuamente. Esta máquina que es muy grande y con un millón de ordenadores trabajando de forma simultánea, sería el comienzo de una simulación realista del cerebro. Y aquí es donde se está ahora. Es algo que sucede siempre: llega un nuevo instrumento y muchos científicos piensan: «¡Ahora lo tenemos! ¡Con el nuevo instrumento lo podemos hacer!»
P.- ¡Pero la ilusión de creer que la magnitud y la multiplicidad de conexiones puede ser similar a la del funcionamiento neuronal es muy grande!
R.- Antes mencioné que era una ingenuidad, aunque creo que tener un millón de ordenadores trabajando al unísono parece una gran cantidad. Pero es muy pequeña comparada con las neuronas que contiene el cerebro humano, en particular con la conectividad de las neuronas. Tenemos neuronas que comunican con otras cincuenta e incluso cien, mientras que en el sistema informático del que disponemos, el procesador sólo puede comunicar con otros ocho o algo así. Las variaciones de magnitud son tan grandes que lleva consigo la propia diferencia. Pero estos argumentos pueden refutarse. Si alguien hubiese sugerido hace quince años que iba a haber una máquina neuronal con un millón de procesadores, le hubiesen llamado, como mínimo, visionario. Puede llegar un momento en que tengamos cien millones o un billón de procesadores trabajando al unísono. Es cuestión de complejidad, pero es lo que está sucediendo. Y no significa que la otra visión, la cognitiva, haya desaparecido. Es interesante pensar sobre la cognición. Al principio hablábamos de las máquinas que realizan tareas que de ser hechas por seres humanos se las consideraría inteligentes. Los ordenadores pueden hacer muchas cosas que son difíciles para los humanos. Sólo se ha de mencionar que muchos grandes aviones, como los 747, despegan y aterrizan de forma rutinaria por ordenador. En el aterrizaje, el capitán puede estar sentado con las manos en los bolsillos.
El ordenador del avión puede presentarse como ejemplo de Inteligencia Artificial. Pero no tiene nada que ver con la simulación del pensamiento humano. Resulta que las palas mecánicas pueden hacer una zanja de forma más rápida que los humanos. Los ordenadores pueden hacer cosas mucho más rápidas que nosotros, sobre todo cosas matemáticas, incluso pueden ser más sensibles que los humanos. El más leve cambio de dirección que tome el aeroplano, tan leve que no lo nota un ser humano, se percibe mediante los giroscopios. Además, uno de estos sistemas puede aterrizar un avión de forma más suave que un piloto.
P.- Esto nos lleva a la discusión planteada por autores como Dreyfus y Searle sobre la naturaleza de la inteligencia y del comportamiento humanos. En los ejemplos que usted ha puesto podría aceptarse que el comportamiento del ordenador es inteligente, pero que el ordenador haga algo con precisión y eficacia no significa que tenga conciencia de que está haciendo algo.
R.- Entiendo la pregunta y creo que tenemos que ser conscientes de que hay una línea divisoria muy estricta. La que existe entre intentar que se realice una tarea, a la que podríamos llamar intento orientado al problema, e intentar llegar a entender o simular la mente humana. Estas dos cosas son totalmente diferentes. En el campo de la informática, hace algún tiempo, desarrollamos una terminología para ello. Hablamos de que el ordenador está en modo de actuación, que el sistema del ordenador que aterriza un avión está en modo de actuación y estamos interesados en ella. Si esta actuación se basa en algo que se parece a algo que hace o no un ser humano, no le importa a nadie. Se debería hacer una clara distinción. Creo que lo que estos autores atacan, y yo también lo comparto, es la idea del ordenador en lo que se denomina el modo teórico que supone un nuevo eslogan: «vamos a simular el hombre global». Esta es la idea que critican Searle y Dreyfuss.
Ahora bien, Dreyfuss ha suavizado su posición de forma considerable. Ahora plantea que las máquinas conectivas pueden afrontar las dificultades encontradas por los ordenadores anteriores. Yo no lo creo. Mi argumento es muy simple pero muy convincente. Comienza con la idea de que hay muchas cosas que sabemos que no podemos decir. Cuando digo que no podemos decir, me refiero a cualquier tipo de formalismo o alfabeto, no sólo en lenguaje natural sino también mediante ecuaciones diferenciales, etc. Llegamos a conocer estas cosas a base de nuestra experiencia vital. Nuestra vida, todas nuestras vidas, nos socializan de tal manera que «serás diferente después de esta decisión final de lo que eras antes». No porque aprendamos nuevos hechos, sino porque incorporamos la realidad. Y la forma de hacerlo tiene que ver con nuestra constitución biológica. Cuando somos bebés son las necesidades biológicas y su satisfacción las que nos informan. Nuestros ordenadores no pueden tener experiencias humanas, por ejemplo, la experiencia de socializarse en nuestro mundo de socialización.
P.- ¿Qué significa desde su punto de vista tener una «experiencia humana»?
R.- A menudo, utilizo el ejemplo de lo que significa para un ser humano sentir la mano en el hombro. Puede tener, para cada individuo, significados totalmente diferentes, según la cultura, el contexto, etc., pero el ordenador no puede tener esa experiencia, no tiene hombro. El contra-argumento es que el ordenador no tiene que tener esta experiencia ya que puedes informarle de lo que pasa. Como alguien puede leer una novela sobre la Primera Guerra Mundial, por ejemplo. Sin estar allí entiende muchas cosas. Esto es cierto, pero no puedes entender todo. No lo entiende de la misma forma que alguien que estuvo allí. Esto lleva al teorema fundamental de Ionesco: «es invisible». No podemos decir un montón de cosas que sabemos. Esto es lo que motiva al artista, que intenta decir cosas que son indecibles sobreponiéndose a las restricciones del lenguaje ordinario, a través de la pintura, la música, una novela, un poema… Para mí la cuestión no es cuánta inteligencia le podemos dar a un ordenador. El hecho es que a pesar de la inteligencia que le podamos dar, signifique esto lo que signifique, o que puedan lograr por sí mismos, su inteligencia tiene que ser muy diferente a la nuestra. Nunca sabrán qué es ser un humano.
P.- Quisiéramos explorar con usted algo que nos interesa mucho y quizás a usted también. Pero si no es así, puede decir que simplemente no está interesado. Hemos discutido muchas veces que en la historia de la cultura occidental la idea de la creación y los creadores ha sido siempre muy valorada. Y nos preguntamos si las personas que trabajan en el campo de la inteligencia artificial se ven como los últimos y más cualificados contribuyentes a la idea de creación.
P.- No todos los que trabajan en inteligencia artificial tienen las mismas motivaciones. Pero si se mira a los líderes, y en particular a los líderes americanos de esta comunidad, hay algunas excepciones, pero pienso en personas como Marvin Minsky y Hans Warbeck, los veteranos, aunque Warbeck no es un veterano…, creo que lo que sugieren es correcto.
Estos, cuando un estudiante llegaba por primera vez al laboratorio de Inteligencia Artificial del MIT, le solían preguntar más o menos bromeando, Freud nos dice que toda broma tiene una base de realidad, «¿quieres hacerte rico o jugar a ser dios?». Lo que esta persona estudiaría después dependía de la respuesta que hubiese dado a esta cuestión. Ahora resulta que uno puede intentar jugar a ser dios y hacerse rico, pero, dejemos eso… La pregunta se planteaba queriendo decir si se estaba interesado en lo que anteriormente he denominado modo de actuación o en la simulación de seres humanos. Los líderes, especialmente en la universidad, están mucho más implicados en el síndrome de jugar-a-ser-dios, que en el modo de actuación. Y está muy claro que se ha desarrollado un vocabulario, un lenguaje para erradicar la ambigüedad. Lo que voy a decir ahora no ha de entenderse al pie de la letra. Es lo que ellos dicen, se puede leer en lo que dicen: «que Dios fue un diseñador e ingeniero muy mediocre, que no supo entender la Naturaleza y produjo al ser humano como un producto realmente mediocre; que hay muchas cosas incorrectas en el ser humano; que se tarda demasiado a que sea realmente útil, y comete errores, se pone enfermo, olvida las cosas, etc.; y cuando llega a ser más o menos fiable entonces se muere. Todo el esfuerzo por educarlo se malgasta y se tiene que comenzar de nuevo. Es una forma terrible de diseñar seres humanos. Nosotros lo podemos hacer mucho mejor. Podemos diseñar, entre otras cosas, seres vivos en forma de ordenador o un robot que, entre otras ventajas, nunca se ponga enfermo, se canse, se confunda y no tenga que morir. Además, a los pocos días de ser construido es tan inteligente como cualquier otro ordenador en el mundo». Esto se dice explícitamente. Quiero recalcarlo: se dice explícitamente.
Otra cosa que se dice y discute explícitamente es sobre la evolución. El desarrollo de la inteligencia artificial se ve como un paso en la evolución. La especie humana es un producto de la evolución natural y ahora se produce una especie de escalera, de forma que puede trepar sobre sí mismo. El resultado final, y esto no es una predicción sino su ambición, es un mundo poblado totalmente por máquinas muy, muy inteligentes.
P.- ¿Un Mundo Feliz?
R.- No, no, es muy diferente al Mundo Feliz. Es muy diferente a 1984. De lo que estamos hablando de forma literal, no más o menos simbólicamente, es de la destrucción del genoma humano. Tiene que haber un término para esto, la palabra es genocidio, ¿se han fijado que la palabra gen está en genocidio? Pero es un genocidio que no se practica en una determinada población, como los judíos, los gitanos, los católicos, los que llevan gafas, etc.,sino en toda la especie humana. Esto es de lo que se está hablando y es por lo que digo que no es sólo una metáfora. Esta es la intención.
Si se le pregunta a Marvin Minsky cuál es la última finalidad de la inteligencia artificial dirá «la eliminación de la muerte». Lo que quiere decir es que los artilugios digitales que producimos no tienen que morir. Y esto tiene que ver con una visión particular de las cosas vivas y, en concreto, de lo que significa ser humano. ¿Cuál es la esencia de la humanidad del ser humano? Esta cuestión se contesta, de nuevo explícitamente -y tengo que seguir diciendo todo esto siempre porque he descubierto que la gente no se lo cree, pero es lo que sucede- que la esencia de los seres humanos es la información. Los seres humanos son un conjunto de información que puede representarse de forma digital. Es lo que llamanos una larguísima serie de bits. Un larguísimo número representado de forma binaria que caracteriza y representa totalmente al ser humano, que puede copiarse, etc. Si preguntas por la función del cuerpo, vuelvo a citar literalmente, se puede leer en el libro de H. Moravec Mind Children. The Future of Robot and Human Intelligence (1), es simplemente mantener junta toda esta información, como un disco compacto, la propia materia, su función, etc., todo lo que se une para hacer una sinfonía. Todo esto está implicado, especialmente con el nuevo ordenador.
P.- Entonces, ¿realmente se sienten como los últimos grandes creadores?
R.- Desde luego.
P.- Quizás tuviésemos también que discutir por qué esta idea de luchar contra la naturaleza, contra dios o como quiera llamarse, es más cosa de hombres que de mujeres.
R.- He escrito algo sobre eso. Seré muy breve. En primer lugar, en este nivel no hay ni una mujer o muy pocas implicadas. Todos son hombres. E interpreto que lo que dicen no es sólo que dios fue un ingeniero mediocre que produce productos falibles -los seres humanos- sino que también las mujeres producen productos falibles que al final deben morir y ellos lo pueden hacer mejor. Lo que esto representa para mí, y lo digo seriamente, es que resulta literalmente increíble. Si uno escribe sobre ello, la gente dirá que no lo cree y tienen que leer la bibliografía. Pero, de todas formas, he identificado éste con lo que yo denomino envidia del útero.
P.- ¿Cómo?
R.- Envidia del útero.
P.- ¿Quiere decir que sienten envidia de las mujeres?
R.- Exactamente.
P.- ¿De las mujeres?
R.- Sí, de las mujeres. Del mismo modo que Freud y otros hablaban de que las mujeres sufrían por la envidia del pene, para mí está claro que también existe le envidia del útero. Se trata realmente de una forma de desprecio efectivo. Desprecio de la vida en general y ciertamente de dios, o de la idea global de dios, como quiera que se piense sobre el creador. Y hay desde luego desprecio por las mujeres. Ellas, por decirlo así, son corresponsables con Dios de producir estos productos mediocres. Deberían estar avergonzadas.
EFECTOS DE LA INNOVACIÓN TECNOLÓGICA
P.- Pasemos al terreno de la vida cotidiana y hablemos sobre el uso del ordenador en la sociedad, no en la academia. Por ejemplo, en la revista Business Week del pasado mes de junio había un monográfico en el que se decía que las compañías habían estado invirtiendo tres mil millones de dólares en los últimos tres años y el saldo de esta inversión había sido un pequeñísimo aumento en la producción, es decir, habían obtenido muy poca rentabilidad. ¿Qué piensan sobre esto? y ¿cómo puede explicarse este fenómeno?
R.- La Escuela de Empresariales del MIT comenzó hace algunos años un proyecto para estudiar el impacto de los ordenadores y del procesamiento de la información en la empresa. Realizaron un amplio informe que fueron resumiendo hasta convertirlo casi en un párrafo largo porque la gente está muy ocupada y no puede leer todo ese material. El resumen final se publicó en la revista del MIT Technology Review, y era más o menos el siguiente: «No existe la más mínima evidencia de que alguien haya incrementado las ganancias por poner un ordenador en su empresa. Es ingenuo decir que si tienes una actividad y sabes que tienes un ingreso de 100.000 dólares al año, sólo por instalar un ordenador pasarás a ingresar 120.000 dólares con el mismo negocio con la única diferencia del ordenador. Durante ese tiempo también has contratado a gente y han sucedido un montón de cosas». Lo que se dice en el informe es probablemente cierto, pero creo que a la vez es un poco erróneo. Lo que pasa es que cambia el juego. Ahora haces algo diferente a lo que hacías antes y quizás tenga que desaparecer la antigua forma de gestión para que esto se entienda. Sin embargo, hay un tema importante que permanece escondido: que introducimos nuevas cosas en el mundo y éstas tienen un efecto. Hay que decir dos cosas sobre el efecto. Por un lado, que a veces es exponencial. Por otro, que en el mundo, en las innovaciones más profundas, los efectos colaterales llegan a ser más importantes que el efecto original. Pensemos, por ejemplo, en el automóvil.
¿Qué pasa cuando introducimos un nuevo sistema de producción? Esto se puede representar de la siguiente manera:
El tiempo va en la línea horizonal. Esto es algún tipo de efecto y aquí hay una curva exponencial, ¿de acuerdo? Cuando se introducen ordenadores en la empresa en un primer momento y miras diez años después, el aumento del efecto es bastante pequeño comparado con el tiempo. Pero cuando llegas a otro punto, resulta que en un año el efecto ha sido mucho mayor que en los diez anteriores. Y de repente la situación se hace explosiva. Esto no es nuevo.
La razón por la que creo que esto es muy importante es que nos pasa a nosotros y nos pilla desprevenidos. Es importante por las cosas que hicimos cuando estábamos en la parte plana de esta curva exponencial. En primer lugar, mencionamos el efecto que no es muy grande, ni radical, por lo que no parece peligroso. De hecho nos sentimos desencantados, y ahora Business Week dice, «¡Eh, mirad! Hemos tenido esto durante veinticinco años y mirad que poco ha cambiado».
Así, entre otras cosas, esto significa que cuando los profetas del destino dicen, «esperad y veréis; esto va a cambiar las cosas y habrá que pagar un precio», parece que estén locos, ya que no cambian muchas cosas. El problema es que la introducción original, el tiempo pasado en la parte plana de esta curva y lo que hemos hecho es irreversible. Cuando las formas empiezan a cambiar de manera profunda, no podemos volver atrás.
P.- ¿Puede poner un ejemplo?
R.- Recuerdo algo que sucedió hace mucho tiempo, parece que fue hace mil años, en 1951, en un periodo antidiluviano con respecto al desarrollo del ordenador. Fue en Detroit, Michigan, donde hice la licenciatura. Estaba trabajando con este ordenador y se nos ocurrió a un grupo de personas muy jóvenes que esto iba a tener un efecto profundo en la industria del automóvil. Unos cuantos nos juntamos y fuimos al Sindicato de Trabajadores del Automóvil, y hablamos con algunas de las personas importantes. Les dijimos: «Tienen que prestar atención a esto. Esto va a cambiar las cosas, las va a cambiar profundamente y producirá efectos en el sindicato. Formas diferentes de producción, papeles diferentes para los seres humanos, etc.». Y creo que podrían haber recordado lo que les dijimos veinticinco años después, en 1976, y decir: «Estos chicos están locos, no les escuchamos y no debimos escucharles. Sí, tenemos unas cuantas máquinas más y algunas controladas por ordenador; pero todavía está la carrocería que pasa por la gran cadena y se pone sobre un chasis en el que la gente introduce el motor, etc. En realidad, nada ha cambiado.»
Pero en los últimos cinco años, las cosas han cambiado de forma dramática y en los próximos cinco años, ya no habrá más trabajadores en las fábricas de automóviles. La productividad ha aumentado muchísimo, si se mide dividiendo el producto por el número de empleados necesarios para su producción. El número de personas que crea se reduce. Y hoy lo vemos en muchas empresas que despiden a más de la mitad de sus empleados . Hace poco la IBM. Es interesante ver la gente que no sabe esto. Durante la época de la Depresión en Estados Unidos, IBM no despidió a una sola persona. Y ahora despiden no sólo trabajadores sino también cuadros intermedios. Gente de clase media-alta con un buen sueldo, que han trabajado durante treinta o cuarenta años en sus empresas, General Electric, General Motors y sitios así. Tienen casas preciosas, dos coches, los hijos en buenas escuelas y todo este tipo de cosas. De hecho, algunos vivían con dos sueldos por adelantado, por lo que estar sin cobrar durante dos meses es para ellos un terrible problema. Lo ven, todo esto son consecuencias. El problema de la industria norteamericana no es totalmente debido a la automatización, pero ha tenido un efecto profundo. El tiempo transcurrido mientras se ponían las bases, el aumento de la curva era tan pequeño que la gente decía que no había motivo para preocuparse. Esto no sólo pasa en la producción, sino en muchos aspectos de la actividad humana.
P.- Vamos a centrarnos en uno de los últimos puntos de la entrevista. Nos referimos al tema de la educación. Seymour Papert, un colega suyo del MIT, argumenta que los ordenadores son la respuesta a los problemas de la enseñanza actual, y que son la organización de las escuelas y los profesores los que no les permiten desarrollar su potencial educativo. ¿Usted cree que los ordenadores pueden realmente ayudar resolver este problema?
R.- Un efecto de la introducción del ordenador en la sociedad y, yo diría, ahora en nuestras mentes, en nuestra consciencia, es el nuevo énfasis, el nuevo sentido que se ha de poner en la palabra problema, la nueva semántica asociada con la palabra problema. Consideramos el profundo y difícil estado de la educación en el mundo moderno, o, digamos en Estados Unidos, y lo etiquetamos como un problema. Decimos «el problema de la educación» y usamos las palabras resolver. Así, este problema será resuelto o puede o no puede resolverse. Pero, en realidad, los problemas sociales, los problemas humanos, nunca se resuelven. Lo que pasa es que se transforman en otro problema, que resulta ser otro y años después parece como si el problema original hubiese desaparecido y creemos que lo hemos solucionado.
Si tomamos el ejemplo de un matrimonio que no funciona y las dos personas deciden separarse, el divorcio parece una solución, pero es la transformación del problema en muchos otros problemas. Creo que es perjudicial hablar en términos de resolución de problemas de carácter social. Desde luego, un solo instrumento, una única medida, no va a modificar de forma radical el problema de la educación. Estoy en total desacuerdo con Seymour Papert. No creo que el ordenador vaya a significar una diferencia importante en el desarrollo de la educación escolar en las Estados Unidos, o en el resto de los países. Lo problemático, y pienso sobre todo en los Estados Unidos, lo que no funciona en nuestras escuelas es una consecuencia de lo que no funciona en nuestra sociedad. No es una consecuencia de métodos de enseñanza buenos o malos, modernos o tradicionales.
Lo que he dicho a menudo es que solemos plantear un problema social y convertirlo en uno técnico y luego aplicamos herramientas técnicas a este problema. Entonces creemos que lo hemos resuelto. Un buen ejemplo, aunque uno podría decir un mal ejemplo, es el de la guerra del Vietnam.
El gobierno de los Estados Unidos observó el problema que había allí. El problema era que los comunistas del Sudeste Asiático se habían hecho cargo del poder, comenzando por Vietnam. Y lo convirtieron en un problema militar. En esencia dijeron «Ahora, ¿qué herramientas tenemos que puedan afectar este problema?». Las herramientas más a mano eran las militares. Se convirtió en un problema militar y se buscó una solución militar.
P.- ¿Puede poner un ejemplo similar en el campo de la educación escolar?
R.- Si miramos un problema con el que nos enfrentamos, diciendo: «Juan no sabe leer», y lo convertimos en un problema técnico y pedimos las herramientas técnicas disponibles que puedan afectar al problema, llegamos a los programas de ordenador que enseñan a Juan a leer. Incluso puede suceder que le ayuden, y decimos: «Bien, aquí lo tienes, estás solucionando este problema y gracias a Dios por el ordenador que nos ha ayudado a ello».
El problema es el primer paso, pues la conversión del problema en una cuestión técnica impide hacerse las preguntas que deberían hacerse cuando se llega a la conclusión de que Juan tiene problemas para leer. Preguntas del tipo ¿por qué tiene problemas?, ¿cuáles son las razones?, ¿hay algo en los alimentos americanos que impide a la gente aprender a leer?, ¿por qué Juan leía hace cincuenta años y ahora no?
Si preguntas esto puedes tener una serie de respuestas, según el distrito escolar. Por ejemplo, que Juan siente miedo cuando está en la escuela porque la gente tiene armas y se hace daño, o que tiene hambre. O un montón de razones que tienen que ver con la sociedad en la que vivimos, en la que todo esto sucede.
Déjenme hacer aquí una observación. Anteayer se anunció que los Republicanos van a proponer una proyecto de ley contra el delito, distinta a la introducida por la administración demócrata. Quieren más dinero para construir cárceles, jueces especiales para tratar casos relacionados con la droga, más policía en las calles, etc. He olvidado cuántos dólares, pero serían aproximadamente mil millones para detectores de metales en las escuelas. Si alguien hubiese propuesto esto hace veinte años, se hubiera pensado que estaba loco. ¿Qué significa detectores de metales en las escuelas?, ¿que hay plomo en la pintura y lo quieren detectar? Hoy, todo el mundo sabe qué significa y la persona que lo dijo en la radio no tartamudeó en absoluto. Los detectores de metales están en la propuesta de ley para el gobierno de los Estados Unidos. Y los ordenadores ¿van a hacerse cargo de esto?
Esto afecta a toda la sociedad, y no me estoy poniendo a favor de la postura que dice que la única manera de resolver estos problemas es cambiando la sociedad, que no hay que preocuparse por la escuela y todo eso, que hemos de hacer la revolución y después de la revolución todo irá bien. No, no estoy diciendo esto. Lo que tiene que entenderse es que se necesitan medidas políticas para que las escuelas puedan cambiar.
La imposición de soluciones tecnológicas es una forma de evitar enfrentarse con las cuestiones clave. Vuelvo al ejemplo del escáner que he utilizado con anterioridad. En este sentido, los ordenadores son las peores cosas que podemos pensar para las escuelas, no porque sean perniciosos -que alguien se electrocute o algo así- sino porque tenemos la ilusión de que estamos haciendo algo cuando en realidad estamos posponiendo cualquier solución posible al problema.
Seymour Papert dice -y lo está diciendo desde hace más de quince años- que personas como Montessori y otros reformadores de la educación fracasaron no porque sus ideas fueran malas, sino porque no contaban con las herramientas para llevarlas a cabo. Ahora tenemos la herramienta, así que el ordenador llegó justo a tiempo. Tenemos tres mil o quizás cinco mil años de historia sin ordenador y la gente se las arregló y hay que decir que algún pensamiento profundo salió de estos cinco mil años. Recuerdo la afirmación de una persona del ámbito de la inteligencia artificial que ha dicho que la invención del ordenador, o la entrada del ordenador a la sociedad, es el hecho más importante de la historia humana desde el nacimiento de Jesucristo.
Esto son tonterías. Es un terrible perjuicio señalar algo como la solución a todos nuestros problemas en algún terreno, porque nos alienta a no mirar a ninguna otra parte. Creo que esto es ridículo y peligroso.
Recuerdo ahora -volviendo a ELIZA y este tipo de cuestiones- otro contexto totalmente diferente como la aplicación de los ordenadores en la psiquiatría. El ordenador simulaba un psiquiatra con un paciente. Ahora existe un programa que cuesta 199 dólares, llamado Overcoming Depression (Venciendo la depresión), comercializado por un psicoanalista de California. Y producirá el efecto de que alguien que tenga problemas psicológicos, quizás con el diagnóstico acertado o no de depresión, vea este programa como la salvación y posponga disponer de un diagnóstico y quizás de un tratamiento correctos. Este material no es necesariamente una ayuda y puede ir en una dirección completamente opuesta, como muchos medicamentos, sobre todos los que se compran sin prescripción médica.
P.- ¿Quiere añadir alguna otra cosa?
R.- Podría ser un buen final para la entrevista decir que a estas alturas, después de cinco mil años o más de estar por aquí, deberíamos haber aprendido, sin excepciones, que las soluciones globales y únicas a los problemas sociales y políticos siempre nos han llevado a tiempos terribles. Tanto si hablamos de la religión como única forma de salvación, ya sea islamismo, cristianismo, judaísmo o cualquier otra, o si hablamos de nacionalsocialismo o comunismo. Cuando esto se presenta como la única solución posible, siempre nos conduce a una tragedia.
Artículo extraído del nº 38 de la revista en papel Telos
Comentarios