R
Reflexiones sobre la inteligencia colectiva y las Tecnologías de la Información y la Comunicación (TIC)


Por Aníbal R. Figueiras Vidal

Información y comunicación son dos de los pilares en los que se asientan las sociedades humanas. La actual revolución de las tecnologías asociadas a ellas brinda insospechadas oportunidades, pero el desconocimiento de los procesos que están naciendo deja las puertas abiertas a riesgos de imposible valoración. El conciso análisis que se presenta en estas líneas quiere servir de invitación a reflexionar atenta y colectivamente sobre ello y, sobre todo, hace una llamada a la acción cooperativa.

Los beneficios del comportamiento social se aprecian hasta en sus formas elementales, como la danza de las abejas exponiendo el resultado de sus exploraciones o la definición de buenas rutas mediante trazas de feromonas para las búsquedas de las hormigas. Me gusta destacar que la comunicación resulta necesaria para la existencia de las sociedades: communicare era poner en común. También suelo resaltar que la información es imprescindible para la vida. Algunos seres vivos -muy señaladamente los humanos- disfrutamos de un extraordinario privilegio: gran capacidad de procesar información. Una ventaja decisiva que además, al menos en nuestra especie, puede dar lugar a nueva información a través del conocimiento.

Los actuales niveles de desarrollo e imputación de las Tecnologías de la Información y la Comunicación (TIC) -no abjuro de mi preferencia por los términos Computación y Telecomunicaciones, pero no quiero distraer la amable atención de los lectores- están modificando radicalmente las posibilidades de acceso y de intercambio de información. Piénsese en lo que se ha dado en llamar redes sociales, de las que se debe advertir que no son más virtuales que las que se califican como reales: existe tan solo una diferencia en el entorno inmediato.

Esta explosión de las TIC implica una situación revolucionaria. Tal vez no una más, sino una de alcance mayor que las precedentes. En Maynard Smith y Szathmáry (1999) se opina que sus potenciales efectos serán aún más profundos que los causados por la eclosión del lenguaje -prudentemente, no conjeturan los autores cuáles podrán ser esos efectos-. Por ello, como tantos que me han precedido en estas apreciaciones, considero precisa una atenta reflexión sobre las incertidumbres, las oportunidades y los riesgos que entraña este momento histórico.

No temeridad sino simple descaro sería que pretendiese transitar en soledad por los muchos saberes que han de combinarse para buscar respuestas provechosas a las difíciles preguntas que se plantean. Me limitaré a presentar unas primeras reflexiones sobre cómo pueden afectar al comportamiento, al aprendizaje y a la interacción entre las personas ciertos destacables componentes de las actuales TIC. Eso me permitirá hacer un llamamiento a la investigación interdisciplinar que se requiere para disipar las nieblas y distorsiones que dificultan la visión de estos aspectos de la realidad.

Aprendizaje e inteligencia colectiva

Hay serias discrepancias sobre la validez de la variante de la Teoría de la Evolución que se atribuye a James Mark Baldwin y cuya formulación actual puede consultarse en Weber y Depew (2003). A mí me convence: sacrificando precisión para conseguir claridad -haber presentado la cita bibliográfica lo hará tolerable-, diré que propone que lo aprendido, y no solo la herencia genética, influye en la supervivencia de los individuos.

Si se acepta el baldwinismo, ha de concluirse que los humanos somos los más favorecidos, dada nuestra singular capacidad para aprender. Pero nuestro aprendizaje transcurre en un ambiente social. Y poco importa que se acepte o no la existencia de los ‘memes’ (Dawkins, 1989) o ideas sometidas a la lucha por sobrevivir -que, sorprendentemente, se sugieren por el más feroz defensor del monopolio de los genes en el devenir de la evolución-: no puede discutirse que el aprendizaje depende largamente de la colectividad, que esconde, exhibe, reprueba y demanda conocimientos y actuaciones, lo que sirve de guía para la aprehensión y la asimilación que quería Jean Piaget (1964). Incluso finos análisis (Ridley, 2010) argumentan muy sólidamente en favor de atribuir el progreso -en el sentido de aumento del bienestar de la mayoría- al intercambio; y el intercambio sistemático verosímilmente proviene de las capacidades de procesar información y comunicarse.

Excúsenme quienes ya me han leído que insista en el hondo paralelismo que existe entre aprendizaje y toma de decisiones. Decidir -cuyo remoto origen, caedere, cortar, resulta muy ilustrativo-, incluyendo cualquier elección consciente entre alternativas, como la adopción de opiniones y de juicios, es seguramente lo que con mayor frecuencia hacemos los humanos. Adoptar una decisión consiste en observar la información disponible, evaluar las opciones teniendo en cuenta costes o beneficios y elegir. Si al modelo de Piaget se le añade una imprescindible primera etapa de percepción de lo que se puede aprender, hay una exacta correspondencia entre las fases de ambos procesos. Ítem más: la hoy tan invocada creatividad es también una facultad que, de acuerdo con la que prefiero de las tres familias de teorías que la explican (Boden, 1994), aquella que se apoya en principios biológicos, supone explorar, valorar y explotar lo que se ha estimado como valioso. Añadiendo esta facultad a las de aprender y decidir, se forma un triángulo en el que creo que cabe localizar lo que denominamos inteligencia. Inteligencia que, naturalmente, se muestra en facetas, como expone Gardner en su obra clásica (Gardner, 1983).

En virtud de lo que antecede, cabe asegurar que la apreciación de la importancia de la inteligencia colectiva entendida como la potencial ventaja de agregar decisiones individuales, tal y como expone Surowiecki (2004) -un libro de título excesivo-, se queda corta: la agregación puede potenciar igualmente el aprendizaje y la creatividad. Dicho de otro modo: un mejor aprovechamiento de las oportunidades de agregación nos ayudaría a comportarnos más inteligentemente. Lo que no sería insensato interpretar como un camino hacia una mayor calidad de vida. Concedámosle, en consecuencia, un poco de atención.

Puede decirse que la primera contribución formal a la defensa de la inteligencia colectiva fue el Teorema del Jurado del marqués de Condorcet. Dicho teorema establece que si los componentes de un jurado son independientes entre sí y cada uno de ellos tiene una probabilidad mayor del 50 por ciento -mayor que el puro azar- de emitir un voto correcto, su veredicto por mayoría resultará prácticamente infalible simplemente con que el número de sus miembros sea suficientemente alto. La demostración es muy sencilla bajo la hipótesis de independencia, sobre la que volveré más adelante. Pero la aportación de Condorcet tiene más valor como evidencia de la ventaja de agregar resultados de decisiones de entidades imperfectas que como aval de simples procedimientos mayoritarios de decisión sobre cuestiones públicas o políticas, porque ha de recordarse que el Teorema de Incompletitud de Arrow (Arrow, 1951) descubre dramáticas limitaciones si se aplica sin más a situaciones algo más complejas -de múltiples opciones-: no se puede conseguir que se cumplan una serie de requisitos más que deseables, como que haya preferencia mayoritaria por A ante C, si mayoritariamente se prefieren A a B y B a C.

Les propongo ahora seguir la vía que acaba de aparecer: ¿cómo obtener ventaja de la agregación? Veamos primeramente cómo decidimos los humanos, ya que se hace preciso disminuir nuestra desmedida presunción en cuanto a nuestras capacidades personales si se desean apreciar en su justa medida las posibilidades que brinda la agregación. Tal vez no haga falta decirlo, pero yo soy de los que creen que los dos primeros párrafos del Discurso del Método suenan más a un sutil pero irónico ejercicio de falsa modestia que a un sincero convencimiento de la esencial igualdad de todos en cuanto a disponer de lo que Descartes llama buen sentido -o sentido común-.

La toma de decisiones por los humanos

A mediados del pasado siglo, el Premio Nobel de Economía Herbert Simon introdujo su Teoría de la Racionalidad Limitada para explicar cómo tomamos decisiones los humanos (Simon, 1957). La denominación de la teoría revela su contenido. Paradójicamente, hasta hace pocos años la mayor parte de los economistas han permanecido de espaldas a dicha teoría, pero la influencia que ha tenido entre los sicólogos (cognitivos) ha sido más que notable. Dos escuelas, aparentemente enfrentadas, vienen estudiando el tema: la descriptiva, uno de cuyos más conspicuos representantes es el alemán Gerg Gigerenzer, y la normativa, cuya cumbre forman, en mi modesta opinión, los estadounidenses Daniel Kahneman (sicólogo, que también recibió el Nobel de Economía) y Amos Tversky, por desgracia ya fallecido.

Sostiene la escuela descriptiva que los humanos, aunque imperfectamente, tomamos decisiones de la mejor manera posible. Sus argumentos son sólidos y sus ejemplos convincentes. Así, el inesperado principio de que menos es más (saber menos puede facilitar una mejor elección) se ve respaldado por hechos como el de que la pregunta de si tiene más habitantes San Diego que San Antonio es respondida correctamente por un mayor porcentaje de estudiantes alemanes que de estudiantes norteamericanos. Permítaseme aclarar, para evitar deducciones apresuradas e inexactas, que el principio subyacente es totalmente lógico: si tengo más información, albergo dudas; si solo he oído los nombres, la frecuencia de cada uno refleja la importancia de la ciudad, y esa importancia normalmente es mayor a mayor población.

Se suele presentar esta teoría como equivalente al uso de una caja de herramientas sencillas: se elige y aplica cada una según el escenario -quiero resaltar que identificar el escenario pasa a ser lo difícil-. No cabe aquí más extensa exposición, pero el lector que lo desee puede acudir al libro divulgativo (Gigerenzer, 2002) o al más formal (Gigerenzer et al. 1999) para satisfacer su curiosidad.

La posición normativa demuestra mediante repetidos experimentos -y formaliza en adecuados modelos- que los humanos vulneramos los principios de la lógica, no apreciamos ni manejamos con solvencia las grandes o pequeñas magnitudes ni las probabilidades, nos dejamos llevar por la envoltura narrativa en la que se nos presentan los problemas, tendemos a considerar prototipos y no casos concretos y cometemos un sinfín de otros errores semejantes. Ejemplo paradigmático es la conocida como ‘falacia del fiscal’, que consiste en inducir a error resaltando lo pequeña que es la probabilidad de que el acusado sea no culpable, pero sin dar por hecho que el delito se ha cometido.

Para aclarar la diferencia, me valdré de un famoso caso en el que la defensa aplicó la falacia contraria, el enjuiciamiento de O. J. Simpson por el cargo de asesinar a su ex esposa, tomando los datos del excelente ensayo divulgativo (Mlodinow, 2008). El defensor Alan Dershowitz, profesor en la Universidad de Harvard, resaltó que en los EEUU solo 1 de cada 2.500 hombres maltratadores acaba asesinando a sus parejas. Pero esa es la probabilidad de que se cometa el asesinato y el asesino sea el marido sabiendo que había maltrato; lo relevante es la probabilidad de que el asesino sea el marido sabiendo que había maltrato y que la mujer ha sido asesinada. Esta segunda probabilidad resulta ser de 9 entre cada 10 casos. Las cifras hablan por sí solas. De nuevo mis disculpas por tan insuficiente presentación de las ideas de esta escuela; ruego al lector interesado que las acepte a cambio de las citas bibliográficas (Kahneman y Tversky, 2000; Gilovich, Griffin y Kahneman, 2002).

Sin ánimo de sembrar el desconcierto, manifestaré que me incluyo entre quienes piensan que ambas escuelas tienen razón. La descriptiva, cuando se refiere a la mayoría de los problemas que aparecen en la vida común, a los que se plantean con muy escasa información, a los que revisten fuertes connotaciones personales -problemas que se ven afectados por costes con gran peso de los sentimientos- e incluso, a veces, a los abordados por expertos en su campo de especialidad. En la mayoría de los otros casos, ha de admitirse la validez de la doctrina normativa.

Pero las fronteras no son, ni mucho menos, nítidas: recientes experimentos llevados a cabo por los que se denominan a sí mismos economistas cognitivos, en los que se examinaba la hipótesis de que la correcta apreciación del valor del dinero que se nos supone a todos mitigue nuestra dificultad de cuantificar otras magnitudes o comparar lo imposible de cuantificar, indican que ni siquiera puede darse por sentada esa correcta apreciación (Ariely, 2010).

Sin embargo, otros economistas arguyen que el propio hecho de que los sujetos experimentales sepan que están participando en un experimento desvirtúa los resultados. A mi juicio, hay tanta evidencia de comportamientos económicamente irracionales en la vida real que los escépticos deberían revisar su incondicional creencia en la completa racionalidad de los que jugamos a vivir.

A la espera de que adquiramos un mejor conocimiento acerca de nuestro cerebro -Ratey (2001) proporciona una buena ayuda- y de los avances esperables de la investigación en Neurociencia -Macknik y Martínez-Conde (2010) entretiene y enseña-, ha de admitirse que hay campo más que sobrado para que las TIC nos auxilien en los intentos de sacar partido de la inteligencia colectiva. Y también que hasta las tan denostadas y casi siempre rechazadas herramientas para la ayuda a la toma de decisiones -y entre ellas, especialmente las que ofrecen sus propias predicciones- tienen un lugar en ese terreno.

Las TIC y la inteligencia colectiva

Lo ya dicho me parece suficiente para abordar, sin el lastre de prejuicios antropocéntricos, el asunto crítico: si aprendizaje, toma de decisiones y creación son procesos mentales (similares) de tratamiento de información (incluyendo la que ha tomado la forma de conocimiento), y si los tres muestran importantes dimensiones sociales, ¿no podrán las colosales capacidades de procesar datos que ya ofrece la computación servir de alguna ayuda? ¿Y no la pueden ofrecer también las crecientemente accesibles y versátiles telecomunicaciones?

Para responder a la primera pregunta, considero que debe concederse especial atención a las conocidas como máquinas con aprendizaje: máquinas que aprenden, Learning Machines, (LMs), en inglés. Discúlpese que tome LMs como siglas, pero evita ciertas dislocaciones en posteriores denominaciones abreviadas.

Las LMs son, en lo básico, algoritmos que pueden resolver problemas aprendiendo de la experiencia: eligiendo los valores de un conjunto ajustable de parámetros de los que van dotadas, de modo que proporcionen buenas prestaciones sobre un conjunto de casos de resultados conocidos y, sobre todo, que generalicen adecuadamente: que también lo hagan para nuevos casos cuya solución no es conocida. No es este lugar que permita una exposición técnica, pero remitiré a Bishop (2006) para hacerse una idea de métodos y posibilidades.

Es bien cierto que lo habitual es que dichas máquinas se diseñen para resolver problemas concretos; pero debe decirse, por un lado, que en muchos casos consiguen resolverlos con más acierto que los expertos; y por otro, que ya se avanza -muy poco a poco, siendo sincero- hacia diseños que puedan abordar varias tareas (relacionadas) a la vez (Caruana, 1997).

Me apresuro a esclarecer que en absoluto estoy pretendiendo que tales máquinas deban o puedan sustituir a los humanos, tanto porque muchas veces su actuación no nos es comprensible (se comportan como inescrutables cajas negras) como porque las personas percibimos aspectos de la realidad aún no observables para los sensores asociados a esas máquinas y, lo que es más importante, nuestra valoración de costes y beneficios no es fácilmente traducible para las máquinas -en muchos casos, además, es muy personal-. De modo que me sumo al criterio expuesto en Lanier (2010): la mitificación de los recursos tecnológicos no necesariamente conduce a nuestro beneficio, porque hay aspectos de lo humano que no cabe reducir a datos. Pese a ello, sí podemos obtener ventaja de la computación y, en concreto, de las LMs.

Por su parte, las telecomunicaciones han pasado de ser la conexión a distancia de dos humanos -H2H, según el argot en boga- a posibilitar la conexión entre humanos -Hs2Hs, digamos-. Además, también se habla de las comunicaciones entre (dos) máquinas -convencionales, al menos una de ellas-, M2M. Subsiguientemente, se empezará -realmente, ya se ha empezado- a considerar los casos Ms2Ms -de entre los que la forma LMs2LMs presenta el mayor interés, como queda demostrado por el que recibe su primera generación, las redes de sensores con procesamiento distribuido-. Y ¿por qué no?, Hs2Ms. Lo más atractivo, Hs2LMs (no se olvide que las actuales telecomunicaciones ofrecen doble sentido para el flujo de la información).

Mi tesis es que hay que comenzar a ocuparse de las comunicaciones LMs2LMs y de las Hs2LMs. Y sostengo que para ello ha de conocerse un poco más sobre las LMs, así como completarse la perspectiva con la que ha acometido Albert-László Barabási sus pioneros y extraordinarios trabajos (Barabási, 2002).

Cuando se analizan las redes sociales, considerar las topologías y los tráficos a través de ellas supone una aceptable aproximación -no invasiva, lo que es trascendental-. Importan los nodos centrales de las subredes que se forman en ellas e importan los nodos conectores entre esas subredes. Lo mismo ha de decirse en referencia a las redes P2P que están implantadas fuera de las grandes redes sociales. Pero si se trata de redes LMs2LMs y Hs2LMs, se hace necesario considerar qué tipo de información está transitando -y comprender por qué-. Seguramente ganarán mucha importancia los nodos conectores, porque será en ellos donde radiquen la diversidad y la cohesión. Pero vayamos por orden y consideremos qué cabe esperar de las LMs, y qué puede aprenderse de las concepciones y tendencias de su diseño.

 

Las máquinas de aprendizaje

Al escribir este apartado he puesto todo mi empeño en evitar derivas hacia una exposición de sesgo especializado. Puede no haber sido suficiente: solicito la indulgencia del lector si la nada despreciable dificultad de traducir el lenguaje matemático al lenguaje común me juega alguna mala pasada y le causa desasosiego o incluso descontento. Dispuesto quedo a aclarar lo que convenga.

Sabido lo que es una LM, procede preguntarse hasta dónde pueden llegar y mediante qué concepciones. Dejando aparte algunos ámbitos de I+D que no hacen al caso, debe señalarse que hace más de veinte años muchos investigadores se dieron cuenta de que atacar problemas de gran envergadura (de alta complejidad, sobre todo) pretendiendo diseñar directamente una LM a la que se exigieran buenas prestaciones no era la mejor estrategia. Y, curiosamente, se optó por explorar una línea que coincide casi exactamente con la idea de ‘inteligencia colectiva’: agregar los resultados de LMs menos poderosas -aprendices débiles, suele decirse- que se eligen y entrenan para ofrecer un grado suficiente de diversidad, contraparte de la independencia de los miembros del jurado de Condorcet. Nacieron así los conjuntos de LMs, de potenciales mejores prestaciones y menor dificultad de diseño. Para evitarme la tentación de ir por donde no debo, me detengo recomendando a Kuncheva (2004) como mi texto preferido en lenguaje técnico.

Conjuntos de LMs

Puede calificarse como natural el hecho de que los primeros diseños de conjuntos de LMs perteneciesen a una familia que recibe la denominación genérica de comités (de LMs, naturalmente). Primero se diseñaban los aprendices, imponiendo diversidad, y después la forma de agregar sus resultados (generalmente, de modo sencillo: mayoría, combinación lineal, etc.). Si traigo esto a colación es no solo para comparar con los diseños que vinieron después, sino para discutir una tendencia que en mi opinión ha causado serio daño al desarrollo de nuestro conocimiento y, aún peor, puede causar mucho más en la actualidad y en el futuro.

La concepción y el diseño de los comités de LMs constituyen un magnífico ejemplo de cómo pueden combinarse el Principio de Indiferencia de Epicuro -reténganse todos los modelos que tengan igual capacidad predictiva- con el de Parsimonia o Navaja de Occam -de los modelos con la misma capacidad predictiva, selecciónese el más sencillo-. Puede decirse que la Navaja se aplica para diseñar los aprendices y la Indiferencia para agregarlos. Ver las cosas de este modo me parece esencial para implantar y entender las futuras redes LMs2LMs y Hs2LMs (y también para las actuales Hs2Hs).

Se trata no solo de encontrar explicaciones que sean fácilmente asimilables para nuestras mentes, sino también de encontrar soluciones satisfactorias para las personas y los colectivos. Me permitiré opinar que, si bien la Navaja tuvo gran valor para el nacimiento y progreso inicial de la ciencia y la técnica, la desmedida consideración que aún se le concede está dificultando el avance de muchos estudios dedicados a asuntos que requieren modelos o procedimientos complejos. Seguir educando bajo la tiranía de presentar únicamente lo simple y fácil -que, además, parece propagarse irresistiblemente de conceptos a métodos; lo que no es extraño, puesto que los métodos vienen de conceptos sometidos a la misma opresión- tendrá efectos perversos para nuestra inteligencia y, en consecuencia, para el uso que hagamos de las herramientas disponibles, también las computacionales y de comunicación a distancia. Y eso por no alertar de las todavía más temibles consecuencias que tendría el contagio de estos males a nuestro carácter.

Una segunda familia de conjuntos de LMs se fundamenta también en los mismos principios -que han sido acertadamente expresados como la fuerza del aprendizaje débil-, pero aplicados de un modo diferente: los aprendices colaboran entre ellos al objeto de resolver el problema con el que se enfrentan. Conceptualmente, los llamados conjuntos a impulsos (boosting ensembles) son un buen ejemplo: los aprendices se van añadiendo uno a uno y cada uno de ellos presta más atención a los casos del problema que a los anteriores les resultan más difíciles de resolver (Freund y Schapire, 1997).

Mezclas de Expertos (ME) 

Las Mezclas de Expertos (ME) son otro interesante tipo de conjunto colaborativo. Una puerta o árbitro, que también aprende a partir de las observaciones de los ejemplos disponibles, decide cuánto ponderar la opinión de cada aprendiz -que, curiosamente, aquí se califican de expertos, porque en el aprendizaje del conjunto se induce la especialización (Jacobs y otros, 1991)-. Nótese que el esquema se puede contemplar como una versión dulcificada del modelo de la caja de herramientas de la escuela descriptiva. Percíbase, por otra parte, que el aprendizaje del árbitro es lo que posibilita la especialización.

Según la visión de Matt Ridley en el ya citado libro (Ridley, 2010), parece que en las sociedades humanas hay implícito un arbitraje de ese tipo, que lleva a que sus integrantes desarrollen actividades productivas distintas -no tengo claro que equivalga a la Mano Invisible-. De estas analogías se deduce el potencial que alberga considerar modelos humanos o sociales para concebir nuevos conjuntos de LMs. En ocasiones basta combinar visiones, como las de impulsos y puerta (Omari y Figueiras-Vidal, 2012).

En el sentido contrario, los conjuntos de LMs pueden servir para modelar individuos y sociedades, contribuyendo a entender mejor a unos y otras. Recurramos a un ejemplo: el árbitro invisible (la lucha por la supervivencia, probablemente) nos ha enseñado a los humanos la ventaja del trabajo especializado, que en definitiva es una forma de cooperación. En contextos que nos resulten poco conocidos, la cooperación no emerge sin dificultades y frecuentes retrocesos (Axelrod, 1997) y no siempre se aplican los principios elementales (de corte aparentemente ético) que propiciarían su pronto asentamiento (Mérö, 1998). Pero, como he dicho, los conjuntos -las colectividades, por extensión- cooperativos resultan más apropiados para resolver problemas que la (teórica) independencia o la diversidad y una subsiguiente agregación sencilla, que podrían tomarse como una forma cómoda de resolver problemas complejos. Es posible que emplear modelos de conjuntos de LMs contribuya a descubrir mejores formas de proceder que la agregación sencilla, incluso con elevada probabilidad de ser aceptadas.

Guarda relación con la preferencia por los conjuntos de LMs un principio general cuya incomprensión sigue causando grandes perjuicios a nuestras sociedades. En su versión técnica, el principio adopta la forma de teorema: No Free Lunch. Lo bautizó así Wolpert, quien lo propuso para las LMs (Wolpert, 1995). El teorema prueba que no puede existir una LM que sea la mejor para todos los problemas.

Combinar LMs da la oportunidad de reducir las duras consecuencias de dicho teorema. Hay diversos modos de enunciar equivalentes para la vida ordinaria: es insensato proceder siempre del mismo modo -véase lo que hay detrás de la Caja de Herramientas-. Nada es gratis es otra posible traducción, y esta forma sustenta directamente la necesidad de la visión normativa. Sé que me arriesgo a resultar reiterativo, pero no puedo evitar insistir en que los modelos formados por conjuntos de LMs pueden ser un buen modo para entender el mundo de las personas.

Redes de sensores

No debo cerrar este apartado sin mencionar otra familia de conjuntos de LMs: las redes de sensores, en que estos, distribuidos, capturan datos en general distintos. En muchas ocasiones no es posible enviar esos datos a una unidad central; en otras muchas ni siquiera cabe pensar en una unidad que centralice nada, sino que los propios sensores, normalmente con una muy reducida capacidad de aprendizaje, han de colaborar entre sí para realizar su función lo mejor posible.

Los sensores intercambian informaciones -como puede ser el modo en que corrigen las estimaciones que realizan- que aprovechan para ofrecer mejores prestaciones individuales. Juzgo que son una buena analogía para las redes sociales; y lo serán más cuando las operadoras decidan dar marcha atrás en su obcecado empeño por mantener las injustas y empobrecedoras tarifas planas (que lo son en todos los sentidos: per se, por contribuir a propalar la falacia de que todo es gratis, y, en salto acrobático, por devaluar los derechos de quienes se esfuerzan por crear). Pero esta vez no me repetiré.

Ya ve el amable lector: me estoy atreviendo a proponer la utilización -de una forma distinta y, desde luego, con la debida mesura- de nada menos que la Teoría de la Probabilidad -que se halla en el fondo de las LMs y sus conjuntos -para intentar comprender lo propiamente humano más allá de promedios y porcentajes. Una vez en ello, pasaré a las preguntas cuyas respuestas no conozco -aunque me gustaría-.

Algunas preguntas y una cordial invitación

A fin de que no se me atribuya lo que no pretendo decir, dada la sensibilidad que existe ante ciertos asuntos, permítaseme comenzar por una aclaración. Los procesos de toma de decisiones políticas que implican a poblaciones enteras -elecciones o referéndums, por ejemplo- se llevan a cabo en condiciones que impiden la aplicación directa de lo que voy a proponer: los votos son secretos, no hay supervisión inmediata (aunque podrían considerarse las consecuencias) y no se dispone de suficientes casos para el aprendizaje.

De modo que el posible uso de modelos derivados de los esquemas que se han discutido requiere un delicado análisis previo. Pero, aun y con eso, debería admitirse que conseguir que los votantes no tomen el proceso como un juego de suma cero y que recuerden que el Teorema del Jurado necesita independencia o que ensayar adecuados procedimientos de agregación -el Teorema de Imposibilidad no indica qué defecto es el menos nocivo en cada clase de consulta- pueden ser tareas cuyos resultados tengan apreciable valor.

Todavía no hay acuerdo sobre cuál es la influencia de que las redes sociales se establezcan en entornos -que no mundos- virtuales, combinando mayor alcance con menor compromiso (inmediato, al menos). En esos entornos virtuales caben modos de actuación -más emergentes que impuestos- no necesariamente iguales a los aceptados en entornos reales, de modo que las interacciones pueden seguir pautas diferentes. Y la curiosidad asalta: ¿Se facilita la cooperación, o se dificulta? ¿Será más aceptable la adopción de herramientas de ayuda a la toma de decisiones o bajará su aceptación? ¿Produce la creciente tendencia a adoptar identidades múltiples (en realidad, a mostrar múltiples caretas) algún tipo de ganancias o pérdidas?

Pasando a niveles más trascendentales: ¿Podría pensarse en agregar las tomas de decisiones de grupos o expertos, o combinaciones entre estos tipos de colectividades, sin que provocase rechazos viscerales la mención de esta mera posibilidad? ¿Habría que preferir los mecanismos distribuidos? ¿Cuáles serían las mejores opciones para desarrollar las comunicaciones Hs-LMs? Y, rozando ya la ficción científica: ¿facilitaría este último tipo de comunicaciones la progresiva implantación de conjuntos de humanos y LMs para resolver problemas de aprendizaje, de adopción de decisiones, hasta de potenciar la creatividad?

Las consecuencias de investigar en las líneas anteriores y otras similares no se limitarán a los entornos virtuales. Investigar siempre con escrupuloso respeto a la intimidad y a la voluntad de los actuantes, porque no se trata de implantar los horrores de Orwell, sino de averiguar cuáles son los riesgos y los beneficios esperables, dónde están las amenazas y las oportunidades e impedir así que el azar pueda producir irremediables estragos.

Las actuales TIC multiplican por factores casi inconcebibles las consecuencias de los aciertos -de ahí el fulminante éxito de algunas empresas-, pero incrementan del mismo modo el daño de los errores. ¿Esperamos tranquilamente a verlo?

Hasta aquí he expuesto algo de lo poco que sé, con el inevitable sesgo que domina el discurso de los ingenieros cuando se refieren a asuntos en que su materia es un ingrediente. Mi parcialidad afecta más a mi visión que a mi propósito: se hace necesaria la participación de matemáticos, sicólogos, informáticos, economistas, sociólogos, neurocientíficos, ingenieros y posiblemente otros profesionales en esfuerzos cooperativos para tratar en todas sus dimensiones los asuntos que he considerado. Se hace preciso un decidido apoyo político, empresarial, financiero y también social para conceder a dichos esfuerzos la relevancia, el nivel, la continuidad y la atención que merecen. Humildemente, me ofrezco desde aquí a contribuir a las iniciativas que apunten en esas direcciones.

 

Bibliografía

Ariely, D. (2010). The upside of irrationality. New York: HarperCollins.

Arrow, K. (1951). Social choice and individual values. New York: Wiley.

Axelrod, R. (1997). The complexity of cooperation. Agent-based modes of competition and collaboration. Princeton: Princeton University Press.

Barabási, A. L. (2002). Linked. Cambridge, MA: Perseus.

Bishop, C. M. (2006). Pattern recognition and machine learning. New York: Springer.

Boden, M. M. (1994). Dimensions of creativity. Cambridge, MA: MIT Press.

Caruana, R. (1997). Multitask learning. Tesis doctoral. Pittsburgh, PA: Carnegie-Mellon University, School of Computer Science.

Dawkins, R. (1989). The selfish gene (2a. ed.). Oxford: Oxford University Press.

Freund, Y. y Schapire, R. E. (1997). A decision- theoretic generalization of on-line learning and an application to boosting. Journal of Computation and System Sciences, 55, 119-139.

Gardner, H. (1983). Frames of mind: The theory of multiple intelligences. New York: Basic Books.

Gigerenzer, G. (2002). Calculated risks: How to know when numbers deceive you. New York: Simon & Schuster.

-, Todd, P. M. y ABC Research Group (1999). Simple heuristics that make us smart. New York: Oxford University Press.

Gilovich, T., Griffin, D. y Kahneman, D. (eds.) (2002). Heuristics and biases. The psychology of intuitive judgement. New York: Cambridge University Press.

Jacobs, R. A., Jordan, M. I., Nowlan, S. J. y Hinton, G. E. (1991). Adaptive mixtures of local experts. Neural Computation, 3, 79-87.

Kahneman, D. y Tversky, A. (eds.) (2000). Choices, values, and frames. New York: Cambridge University Press.

Kuncheva, L. I. (2004). Combining pattern classifiers. Methods and algorithms. Hoboken, NJ: Wiley.

Lanier, J. (2010). You are not a gadget: A manifesto. New York: Knopf.

Macknik, S. L. y Martínez- Conde, S. (2010). Sleights of mind. What the Neuroscience of magic reveals about our everyday deceptions. New York: Holt.

Maynard Smith, J. y Szathmáry, E. (1999). The origins of life. From the birth of life to the origin of language. Oxford: Oxford University Press.

Mérö, L. (1998). Moral calculations. Game theory, logic, and human frailty. New York: Copernicus.

Mlodinow, L. (2008). The drunkard’s walk. How randomness rules our lives. New York: Pantheon.

Omari, A. y Figueiras-Vidal, A. R. (2012). Feature combiners with gate generated weights for classification. Remitido a IEEE Transactions on Neural Networks and Learning Systems.

Piaget, J. (1964). Six études de psychologie. Paris : Folio.

Ratey, J. J. (2001). A user’s guide to the brain. New York: Pantheon.

Ridley, M. (2010). The rational optimist. How prosperity evolves. London: HarperCollins.

Simon, H. A. (1957). Models of Man. New York: Wiley.

Surowiecki, J. (2004). The wisdom of crowds. Why the many are smarter than the few and how collective wisdom shapes business, economies, societies, and nations. New York: HaperCollins.

Weber, B. H. y Depew, D. J. (eds.) (2003). Evolution and learning: The Baldwin effect reconsidered. Cambridge, MA: MIT Press.

Wolpert, D. H. (1995). The relationship between PAC, the statistical physics framework, the Bayesian framework, and the VC framework. En D. H. Wolpert (ed.), The mathematics of generalization. Reading, MA: Addison-Wesley.

 

Artículo extraído del nº 92 de la revista en papel Telos

Ir al número Ir al número


Avatar

Aníbal R. Figueiras Vidal

Comentarios

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *