El término Web 2.0 hace referencia a la evolución que ha experimentado el servicio web. En constante progresión, ha pasado de unas primeras páginas estáticas en HTML (Web 1.0), a un segundo nivel más elaborado (Web 1.5), caracterizado por la creación al vuelo de documentos dinámicos. Pero los cambios que se intuyen ahora son más profundos y complejos. Este nuevo estadio de la Web es el que se conoce como Web 2.0.
La nomenclatura 2.0 no es casual y sugiere un cambio significativo en relación al modelo de páginas web disponibles hasta ahora. Esta denominación sigue el símil de los programas informáticos: las versiones de un mismo producto se identifican con dos o más números, separados por puntos. Las variaciones realizadas en el programa se indican incrementando la numeración con la lógica de que cuanto más a la derecha está el número que varía, de menor importancia resulta la mejora o la corrección realizada. Pero si es el primer dígito el que cambia, se está indicando que se han producido modificaciones sustanciales.
La manera de denominar el servicio web también sugiere que nos encontramos ante un producto que estará sometido a una constante revisión. Resulta significativo que los creadores de un servicio 2.0, durante su lanzamiento (que suele alargarse, cuando menos, unos cuantos meses), nunca muestran en sus páginas el socorrido mensaje de «en construcción», sino que identifican su situación como en fase Beta», tal como se hace con los programas informáticos. Lo cual apunta a que una Web 2.0 no se construye, sino que se prueba. Y se modifica continuamente para dotarla de nuevas prestaciones.
Este nuevo modelo nos ha dejado palabras y siglas para definir productos o situaciones comunicativas de reciente aparición, algunas de ellas todavía sin equivalente en nuestro idioma (blogs o bitácoras, vblogs o videoblogs, folkMind, folksonomía, mashup, agregador, permalink, RSS, feed, Redes sociales, tag clouds, trackBack, wiki, AJAX ). No es propósito de este artículo explorar las posibilidades de cada una de estas aplicaciones. Pretendemos acercarnos a la Web 2.0 como concepto general para definirlo, con el fin de aislar los rasgos característicos, identificar los actores que intervienen y ayudar a comprender el cambio de paradigma que plantea. El objetivo es descubrir qué es la Web 2.0.
Aunque parezca increíble, encontrar una respuesta concreta o una definición estricta en la bibliografía actual (incluida la electrónica) es difícil. Más aún si tenemos en cuenta que es un término que desde su aparición, a mediados de 2004, se ha extendido rápidamente entre la comunidad de Internet (a inicios de julio de 2007, Google indexa aproximadamente 332 millones de entradas bajo esa expresión). Los padres del término otorgan al concepto valores y matices abstractos, y plantean la Web 2.0 como un koan ( 1) sólo asequible a los iniciados que, tras invertir largas horas de reflexión y experiencia, se verán recompensados con la iluminación y el conocimiento. Así, por ejemplo, Davis (2005) afirma que la Web 2.0 «no es una tecnología, sino una actitud» y OReilly (2005b) expresa que el concepto «no tiene límites definidos, sino [que es] más bien un núcleo gravitatorio».
La dificultad de estos autores para definir el concepto de forma clara radica en su pretensión de abordar todas las variables que rodean al fenómeno de forma simultánea, mezclando entorno, tecnología, aplicaciones, usos… Dado que para poder acercarnos al objeto con propiedad necesitamos disponer de una definición que no lleve a confusión, podemos considerar como Web 2.0 todas aquellas utilidades y servicios de Internet que se sustentan en una base de datos, la cual puede ser modificada por los usuarios del servicio, ya sea en su contenido (añadiendo, cambiando o borrando información o asociando metadatos a la información existente), bien en la forma de presentarlos o en contenido y forma simultáneamente.
Dicho de otra forma, una aplicación on line podrá considerarse como Web 2.0 cuando permita procesos de interactividad de contenidos contributiva ( 2) (cuando el usuario pueda añadir y compartir información con otros usuarios, como en Flickr / www.flickr.com), procesos de interacción de contenidos combinatoria (cuando posibilite la interrelación de contenidos de diferentes bases de datos como en los denominados purés o Mashups o, por poner un ejemplo concreto, en Whats Up? / www.jeroenwijering.com/whatsup o procesos de interacción de interficie como en Netvibes (www.netvibes.com) o iGoogle (www.google.com/ig), ya sean de preferencias estéticas o de funciones (cuando el usuario puede ubicar los contenidos en diferentes lugares de la pantalla o decidir qué contenidos aparecen) o generativa (cuando el sistema, a partir del análisis del modo de operar del usuario con la interficie, decida por el usuario cómo o qué datos presentar).
Cabe señalar que esta definición, de forma intencionada, no excluye aquellas aplicaciones on line que estén soportadas en entornos diferentes al servicio web. Se dará, pues, la paradoja de que algunas aplicaciones denominadas Web 2.0 no sean propiamente web, esto es, accesibles a través de un navegador, y se requiera de programas o dispositivos específicos para recibir sus contenidos o servicios (como ocurre en las redes peer to peer ( 3)).
El hecho de permitir al interactor la manipulación directa de la fuente de datos que sustenta un servicio on line no tiene, al menos técnicamente, nada de novedoso: los foros (un elemento de comunicación electrónica muy conocido entre los internautas) podrían considerarse como un ejemplo (tal vez, el primero) de la Web 2.0. Igualmente, las aplicaciones de telebanca, al permitir acciones como el traspaso de efectivo de una cuenta a otra, en realidad, están dejando que el usuario modifique los contenidos de la base de datos bancaria. Pero es que la Web 2.0 no es nueva: herramientas tan representativas de la corriente Web 2.0 como los weblogs se remontan a 1993 (Riley, 2005). Y el wiki, por ejemplo, data de 1995 ( 4).
Así, la novedad de las aplicaciones Web 2.0 viene determinada por los nuevos usos y situaciones comunicativas que se derivan de la asociación de nuevos datos a los datos existentes en una base de datos (metadatos) y a la explotación de esos metadatos y de que, además, la asociación pueda realizarse de forma sencilla, ubicua y mancomunada.
Los metadatos, esto es, los datos que hablan de otros datos, sirven para identificar, describir, localizar, recuperar, organizar y preservar la información a la que están vinculados. A partir de estas múltiples funciones se están desarrollando aplicaciones web de muy diversa índole. Sin ánimo de ser exhaustivo, encontramos servicios que cumplen con la definición de 2.0 propuesta anteriormente, asociados a categorías tan dispares como buscadores, herramientas de publicación, portales personales, sistemas de distribución del conocimiento, espacios virtuales para almacenar y compartir contenidos, listados de marcadores sociales o utilidades distribuidas de acceso on line (ver tabla ( 1)).
La Web: de recurso a entorno hipermediático
Resulta curioso observar cómo la aparición de las aplicaciones Web 2.0 supone un avance hacia atrás. Dicho de otra forma, se evoluciona hacia los sistemas hipertextuales primigenios, como el teórico Memex de Vannebar Bush, el NLS de Douglas Engelbart o el Xanadu de Ted Nelson, los cuales estaban dotados de ciertas características que la Web 1.0 o 1.5 no pudo ofrecer jamás. Nelson, en su web (http://xanadu.com/xuTheModel), menciona defectos del WWW tales como el establecimiento de enlaces en un solo sentido, la existencia de enlaces que apuntan a recursos inexistentes, la imposibilidad de agregar notas o comentarios, la imposibilidad de comparar diferentes versiones de un documento o la inexistencia de un control sobre los derechos de autor y su gestión, entre otros. Estas carencias, en mayor o menor medida, están siendo superadas por la Web 2.0.
En esta misma línea, y teniendo en cuenta que Liestøl considera como recurso de documentos hipermedia aquel que permite al interactor «leer, copiar y navegar por una gran base de datos con enlaces hipertextuales, pero la información permanece fija; no pueden añadirse nuevos documentos y la relación estructural del material viene dada» y que el mismo autor se refiere a entorno de hipermedios como aquel donde el interactor «que lee no interacciona desde el exterior sino desde dentro, añadiendo documentos y enlaces, lo que modifica la estructura y los contenidos del sistema» (1997: 135), podemos afirmar que con las aplicaciones Web 2.0, el espacio web ha conseguido la categoría de auténtico entorno hipermedia. Y es que las aplicaciones y servicios Web 2.0 están dotando al interactor de la capacidad para ver, seguir y crear enlaces unidireccionales y bidireccionales, de la posibilidad de comparar diferentes versiones, de trabajar de forma simultánea sobre un mismo documento o de la posibilidad de publicar contenidos de forma ubicua y desde el propio entorno de acceso a los documentos.
La folksonomía y la Web semántica
Hemos mencionado anteriormente que los metadatos son el rasgo característico de la Web 2.0. Y más concretamente, la posibilidad de crearlos y de explotarlos. Pero su valor no radica en la posibilidad técnica de su existencia y de su manipulación sino en las manifestaciones y fenómenos comunicativos a los que está dando lugar.
Así, nos encontramos ante aplicaciones cuya importancia reside en la clasificación de la información. Las grandes bases de datos multimedia, por ejemplo, deben hacer uso de los metadatos para gestionar los enormes volúmenes de información con los que trabajan y resolver las peticiones que reciben con cierta rapidez. Tal como comenta Fernández Quijada (2006), «la manera fundamental de abordar esta hiperinflación es la indexación y el tratamiento automatizado de los datos de esta indexación».
En algunas aplicaciones 2.0 los usuarios se convierten en indexadores de la información. Y lo hacen relacionándola con palabras clave o marcas (tags) que ellos mismos eligen libremente. Esta libertad del usuario para etiquetar la información se ha bautizado con el nombre de folksonomía y se opone, en cierta forma, a la taxonomía tradicional, donde las categorías de clasificación están previamente establecidas. Espacios virtuales en los que almacenar y compartir contenidos como Flickr (www.flickr.com) para imágenes fotográficas, Goear (www.goear.com) para sonidos y canciones o YouTube (www.youtube.com) para contenidos videográficos utilizan la folksonomía como forma de clasificar y, posteriormente, localizar los contenidos. Lo mismo ocurre con los marcadores sociales como del.icio.us (http://del.icio.us) o simpy (www.simpy.com), servidores donde los usuarios almacenan las direcciones de sus enlaces favoritos, los marcan con tags y, si quieren, los hacen públicos. Como adelantábamos, la trascendencia de la folksonomía se basa en los resultados obtenidos y no en la mera posibilidad técnica. Si observamos más allá de la anécdota o de la aplicación en concreto, veremos que, en realidad, nos encontramos con gran número de personas trabajando, de forma continua, voluntaria y gratuita, en la clasificación de material, o lo que es lo mismo, dando significado a contenidos de todo tipo (sitios web, imágenes fotográficas, material audiovisual…). Estos usuarios, que crean y mantienen una base de datos de forma manual voluntaria (Bricklin, 2001 ( 5)) están contribuyendo, sin saberlo, a fraguar la idea de la Web semántica (www.semanticweb.org) planteada por Berners-Lee (2001).
Los RSS y las tecnologías push
Las tecnologías de la información denominadas pull (del inglés, tirar) son aquellas en las que el usuario inicia la demanda de información y el sistema sirve los contenidos solicitados. La navegación tradicional funciona de este modo. Con la integración de metadatos a la información es muy fácil invertir el proceso y construir aplicaciones push (del inglés, empujar), esto es, herramientas de comunicación en las que el sistema toma la iniciativa y es capaz de enviar contenidos a los usuarios y que dichos contenidos sean acordes a sus intereses. Con las tecnologías push no es el usuario quien va a buscar la información, sino que es la información la que acude al encuentro del receptor. El ejemplo más claro de tecnologías push de la Web 2.0 lo encontramos en la explotación de los documentos RSS asociados a los weblogs.
Un RSS (Rich Site Summary o Really Simple Syndication) ( 6) es un documento que contiene metadatos relacionados con un sitio web en concreto. Los archivos RSS (llamados también feeds RSS o canales RSS) se estructuran en ítems, con el título, el resumen y el enlace de la información que describen y, eventualmente, pueden contener otros datos (fecha de publicación del documento, nombre del autor ).
Los weblogs son, como los wikis, otra de las herramientas de publicación rápida del universo 2.0. Los contenidos de los blogs y de sus parientes cercanos, los audioblogs y los videoblogs ( 7), son accesibles mediante tecnologías pull, visitándolos con el programa adecuado. Pero existe otra forma de obtener la información que contienen. Cuando un blogger (persona que mantiene un weblog) escribe una nueva entrada en su bitácora, de forma automática, genera o modifica un documento RSS asociado a ella. Así, los seguidores de un determinado blog, mediante programas denominados lectores de feeds de RSS, pueden mantenerse informados sobre las actualizaciones y novedades publicadas en sus blogs favoritos, sin necesidad de visitarlos uno a uno, estableciéndose una comunicación de tipo push. Hasta hace poco, los lectores de feeds de RSS eran herramientas que debían ser instaladas en el ordenador del usuario para funcionar (iTunes / www.apple.com/itunes). La Web 2.0 ha creado lectores de feeds on line como bloglines (www.bloglines.com) o Google Reader (www.google.com/reader). Actualmente ciertos programas navegadores como Firefox (www.mozilla.com/firefox) o Microsoft Internet Explorer 7 (www.microsoft.com/windows/IE/ie7/default.mspx) ya los incorporan como opciones de sus menús. De este modo, se está produciendo un acercamiento de las tecnologías push hacia los usuarios.
Una de las grandezas que se atribuyen a Internet es que cualquier usuario, individual o colectivo, puede convertirse en emisor, creando y publicando su propio sitio web. Con las herramientas de publicación 2.0 es extremadamente fácil colocar contenidos en la Red. Pero la Web 2.0 no sólo ofrece herramientas para trabajar en entornos contributivos sino que, además, otorga a la comunidad la posibilidad de ejercer su inteligencia colectiva (entendida como la capacidad del grupo para resolver problemas que cada individuo del colectivo, de forma personal, no sería capaz de resolver ni, incluso, de entender). La inteligencia colectiva provocará, por ejemplo, que cierta referencia aparezca mejor o peor situada en Google o será capaz de construir un producto tan monumental como la Wikipedia (www.wikipedia.org).
Las actividades de la inteligencia colectiva en Internet pueden dividirse en tres grandes grupos: la producción de contenidos, la optimización de recursos y el control ejercido sobre contenidos e individuos.
a. La producción y el modelo bazar
La inteligencia colectiva, entendida meramente como el trabajo individual de millones de usuarios, produce nada más (y nada menos) que el fruto de la suma de sus partes. Así, nos encontramos ante aplicaciones como los marcadores sociales (del.icio.us) o los almacenes virtuales (flickr) que actúan a modo de repositorios, cuyo valor se corresponde de forma directa y unívoca con la cantidad de referencias disponibles ( 8).
Además, como se verá, la producción de la inteligencia colectiva se ejerce sin la figura de una autoridad supervisora central que coordine el trabajo. Esta forma de trabajo fue bautizada por Raymond (2000) como el modelo bazar (opuesto al modelo catedral, jerarquizado y supervisado por un poder central). El modelo Bazar (o la cooperación sin mando) es el sistema empleado en el diseño de programas de código abierto. El modelo se caracteriza por una constante publicación de resultados, una máxima distribución de responsabilidades y tareas y «ser abierto hasta la promiscuidad para estimular al máximo la cooperación» (Vidal: 2000).
b. Recursos en común y el equilibrio de Nash
Al observar cómo la inteligencia compartida ejerce funciones para optimizar recursos, nos encontramos ante entornos como el de las redes P2P como las de eDonkey2000, accesible mediante un programa cliente como emule (www.emuleproject.net), o BitTorrent, accesible mediante un programa cliente como uTorrent (www.utorrent.com). Estas redes también pueden medir su eficacia de manera directamente proporcional al número de ficheros que comparten. Pero en ellas, además de información, el colectivo aporta al entorno infraestructura propia, necesaria para que el sistema funcione. Así, cada usuario conectado reserva espacio en el disco duro de su ordenador como almacén de los contenidos compartidos y destina algo del ancho de banda de su propia conexión para poder distribuirlos en la red P2P.
Además de los sistemas P2P, han surgido proyectos de sistemas distribuidos ( 9) en los que el usuario participa exclusivamente cediendo recursos, sin obtener ningún beneficio directo a corto plazo. Uno de los más duraderos ha sido el pionero proyecto Search for ExtraTerrestrial Intelligence (SETI / http://setiathome.ssl.berkeley.edu), orientado a analizar las señales recibidas del espacio exterior con el fin de encontrar patrones de los que se pueda inferir la existencia de vida extraterrestre inteligente. Otro proyecto destacado de procesamiento distribuido ha sido Compute Against Cancer (www.computeagainstcancer.org), orientado a la lucha contra el cáncer.
En estos proyectos es fácil entender una colaboración desinteresada, completamente altruista, debido a la noble finalidad de los objetivos y a que los recursos se ofrecen mientras el propietario no los necesita. En cambio, no es tan fácil comprender por qué funcionan entornos como el P2P, donde la estrategia de beneficios máximos consiste en acceder a recursos y materiales ajenos sin compartir recursos y materiales propios. La respuesta no es sencilla. Pero si se contempla la relación usuario / sistema P2P desde la teoría de los juegos, encontraremos argumentos que nos ayudarán a contestar esa pregunta. Desde ese punto de vista, se puede entender que el uso de un sistema P2P cumple con las características de un «juego de aditividad no nula, con repetición» (10), entorno ampliamente estudiado por esta especialidad de las matemáticas.
Para minimizar el abuso por parte de un usuario-jugador, algunos sistemas premian a los participantes que comparten más material. De esta manera la tendencia de los usuarios es la de optar por la estrategia de colaborar compartiendo recursos, sin tener la tentación de dejar de hacerlo (para no ser penalizados por el sistema). O lo que es lo mismo, pero dicho en términos de la teoría de los juegos, el sistema tiende a un punto de equilibrio de Nash (11), cosa que lo hace estable, sólido, permanente. Además, las redes P2P se basan en la cooperación egoísta, estrategia que se ha demostrado como la más eficaz en todo tipo de escenarios (económicos, biológicos, culturales…).
Adelantábamos anteriormente que en el trabajo de la inteligencia colectiva no existe una autoridad central que organice el proyecto, lo cual no es del todo cierto. Es la propia inteligencia colectiva la que, además de producir contenidos y de compartir recursos, se convierte en entidad ubicua, reguladora de la producción, supliendo la existencia de una figura ubicada, jerárquicamente superior, que controle el trabajo del resto. Será, pues, la propia comunidad de usuarios, que hasta ahora no había podido actuar como un ente homogéneo en el entorno web (porque no era entorno, sino simple recurso), quien califique, valore, recomiende o prime ciertos contenidos por encima de otros. Y esa valoración no va a depender de un solo individuo sino del grupo como tal.
El control de la inteligencia colectiva se ejerce de dos maneras: a) en forma plebiscitaria, en la que la opción escogida por mayoría es la que se toma como decisión; y b) en forma de edición permanente, donde cada individuo, en cualquier momento, añade, corrige o elimina los contenidos aportados por otros individuos.
La comunidad puede ejercer un control plebiscitario en el momento que es capaz de otorgar valor, como colectivo, tanto a los usuarios individuales como a los contenidos. Dicho de otra forma, el comportamiento del conjunto de los usuarios influirá de manera determinante en los datos de la aplicación, asignando metadatos calificadores a personas o a informaciones. Esto ocurre, como ya hemos mencionado, en buscadores como Google, donde la prioridad de aparición de un enlace depende del número de veces que los usuarios lo incluyen en sus propias páginas (pageRank) o, en otros buscadores, de la cantidad de visitas que los interactores hacen a una determinada página web.
Otro ejemplo de control plebiscitario lo encontramos en el ejercicio de la folksonomía, donde las decisiones del individuo formarán parte del todo. La folksonomía se convertirá en una fuerza de regulación de contenidos, ya que contribuye «a generar una categorización emergente, donde cada elemento quedaría clasificado bajo la etiqueta ganadora» (Fumero, 2005).
Estos sistemas, que podríamos denominar de votación, basados en el reconocimiento, el prestigio, la confianza o la relevancia que otorga el colectivo a contenidos o a otros iguales, suelen ser el fundamento para que ciertas aplicaciones Web 2.0 se sustenten: el servicio de subastas virtuales eBay, por ejemplo, se cimienta en la opinión manifestada por los usuarios al completar una transacción. Aunque cada usuario valora de forma individual cómo se ha desarrollado la operación en la que ha participado personalmente (calificando el tiempo de entrega, el embalaje del producto, el estado del artículo adquirido, la realización del pago en el tiempo y por el importe convenidos ), es el porcentaje final, determinado por la cantidad de transacciones valoradas positivamente, el que configura el índice de confianza asignado a un determinado usuario siendo, finalmente, esa inteligencia colectiva la que otorga o niega la honestidad a cada comprador o proveedor y establece su índice de confiabilidad.
El otro tipo de control que hemos mencionado, el control de edición permanente, es el que se desarrolla en aplicaciones Wiki, como Citizendium (http://en.citizendium.org) o la más conocida Wikipedia (12). En Wikipedia (que es, de momento, el entorno que otorga mayor grado de libertad a los usuarios), el control se fundamenta, paradójicamente, en la inexistencia de privilegios o categorías de control: todos los usuarios tienen la misma jerarquía frente al sistema (13). Cualquier visitante de la Wikipedia puede introducir nuevos contenidos, corregir errores o eliminar entradas. Así, cuando Eco (2006), con cierto tono apocalíptico, se pregunta «¿Quién controla en la Wikipedia no sólo los textos sino también sus correcciones? ¿O actúa una suerte de compensación estadística, por la cual una noticia falsa antes o después se localiza?» ya sabe la respuesta: la fuerza de la Wikipedia radica en esa suerte de compensación estadística que Eco intuye como una debilidad y que se ha demostrado como una excelente forma de control de revisión por pares. Tal como proclama la denominada Ley de Linus (14), bajo la que se han elaborado los programas de código abierto, «dados suficientes ojos, todos los errores serán evidentes». Así, cualquier internauta (erudito o incompetente, honrado o malintencionado, experto o novel) puede añadir o modificar una entrada, sin registros ni identificaciones previas. El control sobre la información introducida se ejerce a posteriori por todos los usuarios que accederán a esos contenidos ya que, si detectan alguna anomalía, podrán modificarlos nuevamente, sin censura.
Tal como afirma Morville (2005), en el caso de la Wikipedia «la autoridad deriva de la arquitectura de la información, del diseño visual, del control y de la marca Wikipedia y de la fe extensa en la honradez intelectual y en el poder de la inteligencia colectiva».
Aunque a primera vista puede parecer que el sistema tenderá a desestabilizarse, la experiencia demuestra que no es así: la Wikipedia en lengua inglesa, nacida en 2001, contaba, a inicios de febrero de 2006, con más de 950.000 entradas. ¡Algunas de ellas corregidas por personas de tanto prestigio como el propio Eco!
La Web 2.0 ha permitido el desarrollo y la puesta en práctica de ideas y conceptos teóricos que Internet no soportaba hasta el momento: podemos hablar del servicio web como de un entorno hipermedia, nos acercamos a la Web semántica y las tecnologías push son una realidad accesible.
Además, la inteligencia colectiva se ha erigido como la auténtica protagonista de los entornos de comunicación telemáticos. Y lo ha hecho en tres ámbitos diferentes y con tres funciones: como creadora de contenidos, como socializadora de recursos y como entidad controladora de la producción.
Pero el hecho fundamental que merece la máxima atención es que nos encontramos ante nuevas formas de producción y de edición de contenidos. Y eso nos obliga a desarrollar nuevas formas de acceder a ellos y aprender a consumirlos. O, al menos, a gestionarlos con la cautela que se deriva de las nuevas formas de autoría, caracterizadas por la libertad, el anonimato, la ubicuidad, el trabajo en equipo y la constante revisión de la producción.
El inconveniente que se deriva de ese continuo estado de creación y modificación es el mismo que afecta a otros medios de comunicación electrónicos on line: si atendemos a la clasificación que hace Rolero de los documentos según su conservabilidad (2001, web) observaremos que la información en Internet no es inalterable (como ocurre con el libro impreso), sino que se considera permanente (no desaparece hasta que alguien, voluntariamente, la borra o la modifica). A pesar de esto, la Web se está utilizando como fuente de citas en todo tipo de artículos y publicaciones científicas, tanto impresas como electrónicas, teniendo la precaución de mencionar la fecha de consulta del documento al que se hace referencia, puesto que el administrador del sitio web podría modificar los contenidos o, incluso, eliminarlos.
La Wikipedia, a pesar de estar sometida a un mayor número de modificaciones y de ser ingente el número de administradores potenciales, también puede utilizarse como herramienta de referencia. Incluso con mayor eficacia que una página web, ya que, aunque a primera vista pudiera parecer lo contrario, el grado de inalterabilidad de sus contenidos es inferior. La libertad, la cantidad y el anonimato de los sujetos capaces de modificarla son algunos de los factores que llevan a una baja permanencia de sus contenidos. Pero la Wikipedia ofrece herramientas para recuperar versiones anteriores y comprobar, por ejemplo, que cierta cita, en una fecha determinada, era exactamente la que aparece en un documento. El entorno web 1.0 no proporciona estos mecanismos de revisión y aun así lo hemos integrado al conjunto de posibles fuentes de referencia, sin achacarle defectos apocalípticos.
En el caso de la Wikipedia, conociendo cómo se construye, el interactor que accede a sus artículos puede asumir el riesgo que comporta que los autores y editores de La enciclopedia libre sean múltiples, anónimos y distribuidos y, a cambio, beneficiarse de las virtudes de la inteligencia colectiva. ¿O es que no debemos ser prudentes antes de aceptar como verídicos otros contenidos que se publican en Internet? Igual que debemos cuestionarnos los contenidos que aparecen en televisión y no podemos asumir que todo lo que aparece en forma de libro impreso es la Verdad, así hay que enfrentarse a la Red: siendo críticos. Críticos con los medios. Con todos los medios. Y no sólo con las nuevas formas de producción o de distribución de contenidos on line.
BERNERS-LEE, T.; HENDLER, J. y LASSILA, O.: «The Semantic Web», Scientific American, mayo de 2001.
BRICKLIN, D.: «The Cornucopia of the Commons», en ORAM, A. (ed.): Peer-to-peer, OReilly & Associates, Sebastopol, 2001.
DAVIS, I.: «Talis, Web 2.0 and All That», 4 de julio de 2005; en: http://internetalchemy.org/2005/07/talis-web-20-and-all-that (Consulta: 1 de febrero de 2006).
ECO, U.: «Los riesgos de la Wikipedia», La Nación, Buenos Aires, 29 de enero de 2006; en www.lanacion.com.ar/edicionimpresa/suplementos/enfoques/nota.asp?nota_id=775943 (Consulta: 3 de febrero de 2006).
FERNÁNDEZ QUIJADA, D.: «Bases de datos multimedia en la Red global. Un recurso para la localización e indexación de contenidos», Telos, núm. 67, Fundación Telefónica de España, Madrid, 2006.
FUMERO, A.: «Un tutorial sobre blogs. El abecé del universo blog», Telos, núm. 65, Fundación Telefónica de España, Madrid, 2005.
GILES, J.: «Internet encyclopaedias go head to head», Special Report, Nature, 14 de diciembre de 2005; en: www.nature.com/news/2005/051212/full/438900a.html (Consulta: 2 de febrero de 2006).
LIESTØL, G.: «Wittgenstein, Genette y la narrativa del lector», en LANDOW, G. P. (ed.): Teoría del hipertexto, Paidós, Barcelona, 1997; págs. 109-145.
NELSON, T.: «The Xanadu® Model», Xanadu; en: http://xanadu.com/xuTheModel (Consulta: 6 de febrero de 2006).
MORVILLE, P.: «Authority», Semantic Studios, 11 de octubre de 2005; en: http://semanticstudios.com/publications/semantics/000057.php (Consulta: 10 de enero de 2006).
OREILLY, T.: «Not 2.0?», 5 de agosto de 2005a; en: http://radar.oreilly.com/archives/2005/08/not_20.html (Consulta: 11 de enero de 2006).
———– : «What Is Web 2.0. Design Patterns and Business Models for the Next Generation of Software», 30 de septiembre de 2005b; en: www.oreillynet.com/pub/a/oreilly/tim/news/2005/09/30/what-is-web-20.html (Consulta: 30 de octubre de 2005).
RAYMOND, E. S.: «The Cathedral and the Bazaar. V.3.0», 2000; en: www.catb.org/~esr/writings/homesteading/cathedral-bazaar/ ; traducción al castellano en: http://lucas.hispalinux.es/Otros/catedral-bazar/cathedral-es-paper-00.html
RIBES, F. X.: «Las emisoras de radio del estado español en Internet: Las bitcasters», Departamento de Comunicación Audiovisual y Publicidad de la Universidad Autónoma de Barcelona, Bellaterra, 2001; en: www.tdcat.cbuc.es/TESIS_UAB/AVAILABLE/TDX-0114102-161943//fxrg1de1.pdf
RILEY, D.: «A Short History of Blogging», The Blog Herald, 6 de marzo de 2005; en: www.blogherald.com/2005/03/06/a-short-history-of-blogging
ROLERO, G.: «Documento electrónico y firma digital. Necesidad de una legislación específica», 2001; en: www.aaba.org.ar/bi180p30.htm (Consulta: marzo de 2006).
VIDAL, M.: «Cooperación sin mando: una introducción al software libre», 2000; en: www.sindominio.net/biblioweb/telematica/softlibre/sl.pdf
Artículo extraído del nº 73 de la revista en papel Telos
Comentarios