L
La investigación de Internet


Por Carlos Lamas

La multiplicidad de métodos, técnicas y empresas de medición de las audiencias y los usos de Internet muestran una etapa de transición, lejos de un estándar de medición universal en un terreno complejo. Sin embargo, la experiencia internacional y española resultan ya de una notable riqueza.

Introducción

Al mismo tiempo que el uso de Internet ha ido incrementándose durante los últimos años, se ha venido también planteando la necesidad de su cuantificación y medición. Al igual que en el caso de otros medios de comunicación (radio, cine, televisión, prensa, revistas, etc.), esta necesidad surge por el efecto combinado de dos intereses básicos: el interés sociológico (el desarrollo de Internet se puede contar como uno de los hechos más relevantes y con mayor trascendencia de la última década) y por el interés económico que su utilización conlleva (su uso como medio publicitario, como vehículo del comercio electrónico, etc.).

Las metodologías sobre Internet han venido clasificándose en tres grupos, dependiendo de la tipología de la unidad básica de estudio:

– Métodos basados en los usuarios (user-centric en la terminología anglosajona), donde la unidad a estudiar es la persona.

– Métodos basados en los servidores (site-centric) donde el sitio web es el objeto inmediato de la investigación.

– Métodos basados en el los suministradores de publicidad (ad-centric) donde la medición se lleva a cabo desde los servidores encargados de gestionar la publicidad de una red de sitios web –como, por ejemplo, DoubleClick–, suministrando en cada momento al visitante a uno de esos sitios web un elemento publicitario diferente sobre condiciones previamente pactadas. Suelen combinar el contaje de peticiones a través de los registros log del servidor con la utilización de cookies para poder estimar cobertura y frecuencia. Estos métodos se centran específicamente en la medida de la audiencia de los banners publicitarios (tanto su mera exposición como su tasa de click-through) y aunque no nos extenderemos más en su descripción, sí merece la pena mencionar que muchas veces estas mediciones han entrado en conflicto con las realizadas por los sites en base a sus ficheros log (estas últimas suelen proporcionar cifras más elevadas). Dado que el medidor tiene un interés comercial en el dato que proporciona, las mediciones de este tipo precisarían de una auditoría y consiguiente certificación externa (no existente en estos momentos) que les conceda imagen de neutralidad y garantía de objetividad ante el usuario.

Los tres grupos de metodologías tienen ventajas y debilidades relativas y, hasta que se produzca un cambio tecnológico relevante, parece que el estudio de Internet debe combinar, en proporciones adecuadas, análisis de las tres tipologías mencionadas.

Métodos basados en los usuarios

Dentro de este grupo vamos a señalar los tres tipos de estudios más frecuentemente utilizados.

Encuestas tradicionales (personales o telefónicas)

Realizadas específicamente a los efectos del estudio de Internet o, lo que es más habitual, integradas en estudios multiobjetivo, utilizan una muestra de la población general para medir temas globales sobre la penetración y uso de la Red. Las preguntas usuales en los cuestionarios utilizados se refieren a la posibilidad de acceso a la Red, a la frecuencia de uso, al lugar de conexión y uso de los diferentes servicios (navegación por la web, correo electrónico, transferencia de ficheros, chats, etc..). Las respuestas a estas preguntas se combinan y cruzan con las características socio-demográficas habituales (edad, sexo, estudios, región, hábitat, etc.). Se utilizan como referente general de la extensión del uso de la Red proporcionando una cuantificación de los usuarios de la Red así como sus perfiles caracteriológicos básicos. Están sujetos, en el detalle de las preguntas, a las limitaciones inherentes a la capacidad de memoria de las personas. Merece la pena resaltar el esfuerzo de homogeneización de este tipo de investigaciones llevado a cabo por EuroJICs (http://www.ejic.org ) con una propuesta de cuestionario a utilizar.

También se utilizan sistemas de encuesta para cuantificar la cobertura de los sites. Generalmente estos estudios se limitan a un número limitado de sites (entre los más importantes) y utilizan técnicas de recuerdo sugerido combinadas con una pregunta sobre el momento de la última visita, siguiendo la metodología más utilizada para el estudio de la audiencia de los medios impresos.

Encuestas en la propia Red

Los encuestados se reclutan entre los visitantes a un grupo de sitios web o, alternativamente, entre los integrantes de listas de correos electrónicos recogidos por diferentes entidades. Son eficientes en la medida que se encuesta sólo a usuarios de la Red, tienen un coste relativamente bajo y, en general, parecen apropiadas para realizar cuestionarios extensos sobre Internet. Su mayor handicap es la falta de representatividad estadística derivada de los sesgos en el reclutamiento de la muestra. El fenómeno de autoselección de la muestra en unos casos y la baja calidad de las listas disponibles por otro, hacen que el muestreo se aleje de los requisitos básicos del muestreo probabilístico. La dirección del sesgo, en la medida que éste se ha podido estudiar, apunta a una sobrerrepresentación de aquellas personas que hacen un uso más intenso de la Red, entre otras posibles desviaciones. Pero si las muestras que se consiguen son suficientemente altas, se puede justificar el estudio, siempre que el analista sea consciente de los riesgos que supone proyectar los datos muestrales al colectivo general.

Aunque probablemente no solucionen totalmente la falta de representatividad de las muestras, es obligado señalar que las técnicas de selección de la enésima visita (en sus diferentes variantes) para muestrear entre los visitantes a un sitio específico atenúan en gran medida los sesgos muestrales mencionados.

Paneles de PC´s (PC-meters)

De forma muy análoga a la metodología de medición de audiencia de televisión a través de paneles audimétricos, tratan de reclutar una muestra representativa de usuarios de Internet y colocan en sus respectivos PC´s un software de control que permite el seguimiento continuo de la actividad de estos PC´s; cuando se conecta a la Red, qué sitios visita, qué paginas dentro del sitio, etc. Tienen el indudable valor de la precisión y detalle que se consigue, así como de la combinación que permite de los datos recogidos con las características socio-demográficas de los panelistas. Es, sin lugar a dudas, el mejor método para efectuar estimaciones sobre el uso de la Red, proporcionando indicadores imposibles de obtener por otros métodos. Su mayor problema reside en el tamaño de la muestra que se necesita para hacer estimaciones sobre el tráfico de los sitios individuales, dada la gran fragmentación de los contenidos de la Red. Y tampoco es despreciable la dificultad de obtener una muestra adecuada de los PC´s situados en centros de trabajo. Necesitan un estudio constante de la penetración de los usuarios de Internet dentro de la población general que asegure la actualización de las proyecciones y proporcione, al mismo tiempo, un marco de muestreo adecuado para actualizar el panel con muestras de las nuevas incorporaciones de usuarios.

Métodos basados en los servidores (site-centric)

A través del análisis de los ficheros log de los servidores, miden automáticamente las peticiones de páginas que se realizan a los mismos. Y lo hacen con un detalle considerable y sin estar sujetos –al ser un sistema de tipo censal– a los márgenes de fiabilidad inherentes a los procedimientos de muestreo. Para poder ser un elemento de información creíble, el contaje debe ser realizado o auditado por un organismo de reputada credibilidad y neutralidad. Las mayores debilidades del método residen en la falta de control de los accesos que se producen a través de servidores proxy o recuperando información a través de la memoria cache del usuario. Y, adicionalmente, el hecho de no poder suministrar el perfil socio-demográfico de los usuarios ni la cuantificación de los mismos –cuentan contactos o, en el mejor de los casos, las visitas, pero no los visitantes– representa una limitación relevante. Por otra parte no proporcionan, ni lo pretenden, una visión general del uso de la Red, sino que se concentran en el estudio del tráfico de sitios específicos.

Para paliar en lo posible algunas de las deficiencias apuntadas de los sistemas log-based anteriormente descritos, se han desarrollado los sistemas browser-based como los que comercializan firmas como HitBox, Red Sheriff, Weborama, etc. El principio básico es introducir unas marcas (tags) no visibles en las páginas del site a medir. Cuando el usuario descarga esta página, el navegador lee el tag y ello activa el envío de la oportuna información (día, hora, página, navegador, dirección IP, etc.) al servidor central encargado de la medición. Suelen combinarse con la emisión y seguimiento de cookies para estimar la cobertura y frecuencia de los sites. E incluso mantienen que es posible dar perfiles tras una extensa campaña de registro de usuarios.

Principios, directrices, conceptos y definiciones

Desde que Internet salió del circulo restringido de los ámbitos académicos y gubernamentales, diversos organismos y asociaciones han tratado de dar recomendaciones de cara a una medición lo más perfecta posible por una parte y, por otra, fomentar la mayor homogeneidad entre las diferentes operaciones de medida, fomentando el uso de definiciones y conceptos uniformes. Mencionaremos sólo dos referencias importantes:

Internet Advertising Bureau (ver http://www.iab.net)

Principios FAST( ver http://www.fasteurope.org/audience/guidelines.htm )

El estudio de Internet en España

Podemos decir que prácticamente todas las metodologías antes reseñadas han sido utilizadas utilizado en nuestro país, o están muy cercanas a serlo.

Encuestas tradicionales: el Estudio General de Medios

Resaltamos dentro de este apartado el EGM, por ser, no el único ejemplo, pero sí el más veterano, con mayor continuidad y el más conocido y utilizado. Se trata de un estudio multimedia con un cuestionario amplio que recoge información sobre:

1. Las características socio-demográficas del entrevistado.

2. Consumo de los diferentes medios (televisión, radio, prensa, suplementos semanales, revistas, cine e Internet).

3. Equipamiento del hogar.

4. Consumo de productos y servicios (generalmente sin descender a marcas).

5. Características indicadoras de los estilos de vida.

Las preguntas que se hacen con respecto a Internet se centran en el acceso, el uso y su frecuencia, el tipo de uso, el lugar de acceso, etc., y últimamente se han añadido preguntas adicionales sobre el acceso a diarios electrónicos, buscadores/directorios más frecuentemente utilizados y sobre la compra a través de la Red.

El universo del estudio es el de residentes en España con al menos 14 años de edad. El muestreo se realiza en tres etapas básicas: selección aleatoria de los puntos de muestreo –secciones censales–, selección de seis hogares por sección censal a través de un método similar al de rutas aleatorias, y selección aleatoria de una persona dentro de cada hogar elegido. Las entrevistas son personales y se utiliza un tamaño de muestra de algo más de 40.000 entrevistas por año.

El estudio lo lleva a cabo AIMC (Asociación para la Investigación de los Medios de Comunicación), entidad sin ánimo de lucro a la que pertenecen las empresas de medios (televisiones, radios, editoras de prensa diaria o revistas, etc.) y también las empresas de publicidad (centrales de compra, agencias, exclusivistas, etc.). La distribución completa de la información del EGM está limitada a los asociados a AIMC, pero la información sobre Internet y un resumen general de los otros medios está disponible en la Red (ver http://www.aimc.es )
Ver gráfico (01) .

A título de ejemplo sobre la información que el EGM proporciona (desde 1996), podemos observar en el gráfico 1 la evolución del principal indicador de la penetración de Internet (personas con uso último mes). El gráfico muestra el porcentaje de penetración sobre la población de 14 años o más y también el valor absoluto de usuarios en miles de personas.

Para responder a la necesidades que el mercado manifestaba en relación a la audiencia de los diferentes sites –en un momento en el que no existían los paneles de Internet y el abanico de soportes electrónicos controlados por la OJD era muy limitado–, la Comisión Técnica de AIMC propuso avanzar en esta línea fundamentalmente a través de dos preguntas que se introdujeron en el EGM. Las dos preguntas se refieren a la lectura de diarios electrónicos y al uso de buscadores/directorios. En los dos casos la pregunta es de tipo espontáneo lo que, dada la multiplicidad de sites, no es el planteamiento idóneo y posiblemente favorezca en el ranking a los sites con más notoriedad. En el caso de los buscadores/directorios se optó por preguntar por los visitados más frecuentemente en vez de los visitados en el último periodo, lo que tampoco responde a la metodología más admitida y aplicada en la investigación de audiencia de medios. Por tanto, en una etapa inicial, se sacrificó el rigor metodológico en función del carácter puramente complementario y provisional que entonces se le quiso dar a estas preguntas y en aras de un más fácil consenso en el planteamiento de las preguntas.

El acuerdo sobre una metodología más rigurosa y más en consonancia con las pautas generalmente aceptadas para la investigación de medios aplicada a la estimación de las audiencias de los sites ha llevado algún tiempo y supuesto múltiples discusiones en el seno de diversos grupos dentro de AIMC. La propuesta que finalmente ha sido aprobada sigue la siguiente secuencia de preguntas:

1. Pregunta filtro: Durante los últimos 30 días, ¿ha visitado algunos de los websites que le voy a mostrar? Indique cuáles. Presentación de cartones con los logos para la lista seleccionada de sites.

2. Para los sites que superen la pregunta filtro, hacer las preguntas de frecuencia y de visita última vez (esquema horizontal).

3. Frecuencia. ¿Con qué frecuencia suele ud. visitar este site? Las posibilidades de respuesta serán:

– Varias veces al día
– Prácticamente todos los días
– Algunos días por semana
– Al menos una vez a la semana
– Varias veces al mes
– Al menos una vez al mes
– Con menor frecuencia

4. Sin contar el día de hoy, ¿cuándo ha sido la última vez que ha visitado este site?

– Ayer
– Última semana
– Último mes

Con carácter experimental, se inició este tipo de medición para 17 sites en la tercera ola de 2001. Los primeros resultados oficiales vieron la luz con la primera ola del 2002 y para la segunda ola se están estudiando unos 25 sitios. Como se ve, el planteamiento se asimila al aplicado en la investigación de revistas y suplementos con una metodología de recuerdo sugerido para un número limitado de soportes. El desarrollo del sistema incluye la probabilización de los contactos y la inclusión de los soportes de Internet en los programas de planificación (TOM) de forma análoga a los soportes de los medios tradicionales.

Debemos señalar que el uso de técnicas de declaración y recuerdo como la anteriormente descrita está totalmente justificado, aun cuando, en paralelo, existan otras técnicas de medición de la audiencia basadas en recuentos electrónicos porque:

a) En relación a la medición de Internet, nos encontramos en una fase inicial donde todavía no se ha llegado a un consenso sobre la técnica de medición ideal. Las discusiones sobre los méritos y deméritos de las diferentes técnicas están a la orden del día, con la agravante de que las diferencias entre las estimaciones que proporcionan las diferentes mediciones electrónicas son de tal magnitud que no llegan a explicarse en función de la respectiva técnica de medición ni en función de errores muestrales. En esta situación, la existencia de una medida de declaración –método imperfecto pero sin cajas negras y suficientemente contrastado históricamente– constituye un aporte indispensable en la construcción de una fotografía que refleje adecuadamente la realidad. Al menos, tan indispensable como cualquiera de las otras técnicas existentes.

b) Las técnicas de declaración son menos manipulables que las técnicas electrónicas.

c) Las operaciones de medida hoy existentes no apuntan exactamente al mismo objetivo y por lo tanto no son sustitutivas. Por citar algunas de sus diferencias relativas, los paneles de Internet se circunscriben al uso de Internet desde el hogar, el recuento de la OJD no tiene en cuenta las páginas servidas desde los servidores proxy o el cache del PC del usuario, ni proporciona características sociodemográficas de los visitantes, etc.

d) Operaciones de medida basadas en la declaración existen en muchos países, normalmente coexistiendo con alguna otra técnica de medición.

e) Es la única forma de combinar, bajo una metodología homogénea, la lectura de diarios (o revistas, emisoras de radio, etc.) en sus versiones online y offline.

f) En un momento en que la investigación social y de mercado busca bases de datos single source con información múltiple relacionada para los mismos individuos, poder combinar a través del EGM la información sobre audiencia de soportes de Internet con un amplio abanico de información sobre otros medios, equipamiento, estilos de vida y consumos tiene un valor indiscutible para una mayor aproximación al conocimiento de los usuarios de Internet y a una mejor planificación de las inversiones publicitarias.

No solo el EGM hace investigación de Internet por medio de sistemas de declaración en España. Sin ánimo de exhaustividad, podemos señalar las operaciones de Opinática (con encuestas telefónicas), el estudio de Online-Monitor que recientemente ha lanzado GfK y otras mediciones que realizan institutos como Demoscopia, TNS Market Research o Ipsos.

Encuestas en la propia Red

AIMC ha realizado cuatro estudios de este tipo. En el primero, realizado a finales de 1996, se consiguió una muestra de 10.826 entrevistas útiles. En el segundo –en la primavera de 1998– y el tercero –referido a finales de 1999– la muestra útil se elevó hasta las 32.408 y 35.234 encuestas, respectivamente. En la última edición –primavera de 2001– se consiguió un total de 43.942 respuestas válidas. Los altos tamaños de muestra alcanzados se deben fundamentalmente a la destacable participación de numerosos e importantes sitios web que colocaron un banner de llamada y direccionamiento a la participación en sus páginas y, por otra parte, al grado de interés que el tema de Internet suscita entre sus usuarios. El cuestionario se realizó, además de en castellano, en catalán, euskera y gallego. Y, sin llegar a la exhaustividad del estudio de este tipo más conocido y representativo (el que lleva a cabo periódicamente GVU en Estados Unidos http://www.cc.gatech.edu/gvu/user_surveys/ ), el cuestionario era relativamente extenso, lo que supuso una media de cerca de 20 minutos en la cumplimentación del mismo. Los resultados están disponibles en la web de AIMC.

Paneles de PC´s

Desarrollados inicialmente en Estados Unidos, pusieron sus primeros pasos en Suecia hace tres o cuatro años y posteriormente se introdujeron en Inglaterra, Irlanda, Alemania y Francia, para extenderse luego por una amplia lista de países. En España, tres paneles se establecieron durante la segunda mitad del 2000. Uno pertenece a la firma MMXI (que une las fuerzas de la compañía americana Media Metrix –que gestiona el panel más antiguo de Estados Unidos– con la alemana GfK y la francesa Ipsos), otro a Nielsen eRatings (empresa que combina las capacidades de A. C. Nielsen con la experiencia de NetRatings en este tipo de paneles) y el último a la compañía francesa NetValue. Las últimas noticias dan cuenta de la compra por parte de NetRatings de los contratos que MMXI tiene en Europa, lo que seguro tendrá importantes consecuencias en el mercado de la medición aunque, al día de hoy, no se conozca cómo se van integrar los dos paneles.

Métodos basados en los servidores

En 1997, la OJD (http://www.ojd.es ),–siguiendo una estrategia avalada por la Federation of Audit Bureaux of Circulations de la que forma parte– comenzó a proporcionar a los websites interesados un servicio de certificación de tráfico de los mismos, haciendo uso de programas de análisis de los ficheros log de los respectivos servidores. Aunque el uso de estos programas se conociera con anterioridad, OJD vino a ofrecer, a través del servicio de certificación, una garantía de medida homogénea –todas las mediciones eran hechas de la misma forma y usando las mismas herramientas– e independiente –neutralidad avalada por la trayectoria del mismo organismo en la medida de la difusión de los medios gráficos–. El número de webs bajo estudio supera el centenar y, entre ellas, se encuentran los periódicos electrónicos más visitados tales como El País Digital, El Mundo, ABC, La Vanguardia Digital, El Periódico On Line, Marca Digital, etc., y también algunos de los portales más importantes, Terra, Altavista, Canal 21, EresMas, etc. Los resultados se publican mensualmente en la web de la OJD (ver http://www.ojd.es ).

La información que proporcionan se centra en número de páginas y de visitas. Las definiciones que utilizan son, entre otras:

– Página

Documento de una dirección que puede contener texto, imágenes u otros elementos. Cuando la página está formada por varios marcos, el conjunto de los mismos tendrá, a efectos de cómputo, la consideración de página unitaria. Tienen la consideración de página los cgi’s que realicen llamadas a páginas de hipertexto, como consecuencia de la acción de un usuario.

– Visita

Una secuencia ininterrumpida de páginas realizada por un usuario en una dirección. Si dicho usuario no realiza páginas y visitas en un periodo de tiempo discrecional (10 minutos) predeterminado, la siguiente consulta constituirá el principio de una nueva visita.

Las características de los Paneles de PC’s

El sistema guarda una clara analogía con la medición de la televisión a través de paneles de audímetros. El hecho de que el uso de la Red se hiciera a través de un PC, con capacidades de proceso infinitamente superiores a la de la terminal tonta que es la caja de televisión, hacía posible descartar –por innecesario– el diseño y construcción de un elemento hardware como el audímetro, para simplemente desarrollar un software de control que, residiendo en los PC´s, pudiera efectuar el seguimiento deseado. Este software “chivato” controla y registra todos los movimientos efectuados por una muestra de máquinas. Y, al comienzo de cada sesión, solicita la identificación del usuario concreto que va a usar el ordenador. Por otra parte, se recogen y almacenan las principales características de todas las personas colaboradoras (sexo, edad, hábitat, provincia, etc.), con lo que se está en disposición de caracterizar el consumo de la Red por todas estas variables.

La base de datos resultante recoge con fidelidad y puntillosidad todos los movimientos (página a página y segundo a segundo) de los individuos controlados y la gama de análisis que su explotación permite es sumamente amplia y atractiva. En relación a la Red en su conjunto, tiempo promedio de uso, número de sesiones, días de uso, concentración del consumo, etc. En relación a los sites, número de usuarios únicos (reach), perfiles sociodemográficos de los visitantes, migraciones (a corto y a medio plazo) entre sites, estudios de procedencia y destino, repetición de visitas, duplicaciones, tiempo de permanencia en el site, páginas más visitadas, etc. Permite también conocer el reach que alcanza un banner específico a lo largo de todos los sites que lo contienen y el perfil de los contactos, determinar la curva de distribución de los contactos, medir las tasas de click-through, etc. Es especialmente interesante el seguimiento de los comportamientos del visitante en los sites de comercio electrónico midiendo todas las posibles fases del proceso, visitas, selección de artículos, confección del pedido, envío de la orden, etc. Y un sinfín de otras utilidades posibles dependiendo del interés específico del usuario de la información.

La información generada es de utilidad para los sites, los empresarios de la nueva economía, los inversores, etc. Pero el uso que me interesa resaltar aquí es el de servir de moneda de cambio para la compraventa de espacios publicitarios en la Red. La magnitud de la inversión publicitaria en Internet evoluciona positivamente y pronto alcanzará cotas importantes.

Durante el último año y medio han venido operando en España tres paneles para la medición de Internet, los correspondientes a las empresas MMXI Europe, Nielsen eRatings y NetValue. MMXI Europe (http://www.mmxieurope.com) procede de la unión entre la americana Media Metrix (http://www.mediametrix.com) y dos firmas europeas: la alemana GfK (http://www.gfk.com/) y el grupo Ipsos de origen francés (http://www.ipsos.com/). Media Metrix es la compañía pionera en esta metodología. En 1995 construyó su primer panel en Estados Unidos, entonces bajo el nombre de NPD. De forma un tanto indirecta, también le pertenece el primer panel europeo de este tipo. La compañía sueca SIFO construyó un panel hace cuatro años años usando tecnología procedente de la firma americana Relevant Knowledge, a la sazón competidora de Media Metrix en Estados Unidos. Media Metrix absorbió a Relevant Knowledge hace tres años y recientemente ha comprado el panel sueco en funcionamiento. En junio de 2001, Media Metrix se fusionó con Jupiter Communications (http://www.jup.com/home.jsp) –firma consultora especializada en el análisis de Internet– para formar la actual Jupiter Media Metrix.

La compañía NetRatings (http://www.netratings.com/), en posesión de tecnología propia para medir el uso de la Red y con la experiencia de haber gestionado un panel en Estados Unidos, cuenta hoy con dos aliados estratégicos de primer orden. Con Nielsen Media Research (http://www.nielsenmedia.com/), la empresa más veterana del mundo en la gestión de paneles para medir la televisión, para sus operaciones en Estados Unidos. Y con ACNielsen (http://www.acnielsen.com/) y a través de la firma Nielsen eRatings para la creación y gestión de los paneles fuera de Estados Unidos. ACNielsen es la mayor empresa de estudios de mercado del mundo y cuenta con una enorme experiencia en la explotación de paneles de detallistas –su principal producto– y también en paneles de consumidores.

La francesa NetValue (http://www.netvalue.com/), alternativa totalmente europea a las dos opciones tecnológicas americanas ya citadas, cuenta con un importante aliado, el grupo anglofrancés Taylor Nelson Sofres (http://www.tnsofres.com/), especialista también en el diseño y operación de paneles de televisión y de consumo. Ya está presente en Estados Unidos, principal campo de batalla, y ha sido el primero en presentar datos para España, los correspondientes al mes de octubre del 2000, mientras que el primer mes que los otros dos contendientes reportaron fue diciembre de 2001.

Como no podía ser menos tratándose de Internet, los tres grupos tienen una estrategia de desarrollo global y presentan unos planes de introducción en nuevos países de ritmo trepidante. Todos entienden, con razón, que debido al carácter de la Red y la existencia de jugadores importantes de carácter internacional (Yahoo, Microsoft, etc.) se buscan mediciones de cobertura geográfica muy amplia, lo que implica la implantación de paneles en los países más avanzados y con poblaciones importantes de forma que el panel global tenga cobertura suficiente para controlar al menos el 90 por ciento del tráfico de Internet. La lucha comercial tiene un carácter internacional que no se ha dado en operaciones de medida de otros medios, donde la creación, gestión y financiación se ha hecho desde una óptica casi estrictamente nacional.

Además del mencionado carácter internacional, las tres compañías presentan características metodológicas comunes:

· Realizan estudios referenciales de tipo continuo para cuantificar a los usuarios de Internet y suministrar información sobre sus características más importantes (generalmente, de carácter demográfico, de equipamiento y otras relacionadas con el uso de la Red). Estos estudios se utilizan para ajustar periódicamente el diseño y composición del panel, para proyectar los datos de la muestra al universo y también para pulsar el interés de los entrevistados de cara a una posible colaboración en el panel, seleccionándose aquellos que tienen las características que el panel precisa en cada momento. La actualización de los universos se hace de forma relativamente frecuente en consonancia con la fuerte dinámica de crecimiento del medio.

· Al menos en una primera fase, las tres operaciones se limitan a la medida del consumo desde la casa propia. Otros consumos, como los realizados desde el puesto de trabajo, la universidad, bibliotecas, cibercafés, etc., no están cubiertos por la operación de medida.

· La captura de colaboradores se hace básicamente por teléfono. No hay visitas a los hogares. La instalación del software de control la hacen los propios panelistas, a partir de un disquete que reciben por correo o descargando el software a través de la Red.

· En todos los casos, el usuario del PC donde reside el programa de control debe identificarse, eligiendo su nombre entre los posibles usuarios del mismo PC, usuarios que están convenientemente parametrizados en el sistema.

· Las características básicas de los panelistas están introducidas en el sistema a fin de poder ser utilizadas como variables de segmentación.

· El programa de control y seguimiento recoge y archiva la información referida a los movimientos del usuario a través de la Red, sin participación alguna del panelista, fuera del requisito de identificación ya mencionado.

· El archivo de movimientos es descargado por el servidor mientras el panelista está conectado a la Red. Esta transferencia de información se hace de forma automática, sin que el panelista sea consciente del momento en que se produce y, según declaración de los medidores, sin ralentizar la velocidad de navegación de la máquina del panelista, ya que se utilizan los tiempos muertos (sin actividad) que se producen durante la navegación.

Se suele apuntar el carácter “pasivo” de esta metodología. En realidad no es más pasivo este sistema que el de los audímetros empleado para medición de la televisión. La intervención del panelista es similar en los dos casos. Se le pide a la identificación al comienzo de cada sesión y el seguimiento posterior (canales en el caso de la televisión y sites y páginas en el caso de Internet) se hace sin necesidad de intervención adicional por parte del panelista.
Ver cuadro (02)

Definición del universo

Tanto MMXI como NetValue definen como pertenecientes al universo a aquellas personas de 2+ años de edad que han accedido a Internet (cualquiera de sus servicios: navegación por la Web, correo electrónico, grupos de noticias, FTP, etc..) desde la casa propia al menos una vez durante los últimos treinta días.

Nielsen eRatings trabaja con dos universos diferenciados. El de los “usuarios potenciales”, definido como el que forman las personas de 2+ años que viven en hogares con posibilidad de acceso a Internet desde los mismos (existencia de PC y también módem, red de cable, etc.) y el de los “usuarios activos” formado por aquellos “usuarios potenciales” que han accedido a la Red al menos una vez durante los últimos treinta días.

Cuantificación y caracterización del universo

Los tres operadores llevan a cabo un estudio referencial (establisment survey, ennumeration survey, etc.) a estos efectos. En todos los casos este estudio es de carácter continuo, de entrevista telefónica y la selección de la muestra se hace por marcado aleatorio de los dígitos que componen el teléfono a llamar (RDD, Random Digit Dialing). Aunque es más caro, el RDD presenta la ventaja de que, frente a los sistemas que utilizan las guías telefónicas como marco muestral, no se excluyen los hogares que han pedido –por distintas razones– no figurar en dichas guías. Los americanos lo cualifican como procedimiento “gold standard” y lo aplican con una frecuencia bastante mayor de lo que se hace en Europa.

A través de estos estudios referenciales continuos, los operadores producen actualizaciones frecuentes de los universos a aplicar al diseño, estructura y elevación del panel y, al mismo tiempo, aportan una base de contactos de donde extraer la muestra de hogares/individuos que el panel, en cada momento, precisa. Lo que produce cierta preocupación es el muy reducido número de entrevistas en las que basan estas frecuentes actualizaciones.

Muestra

En los tres casos, la unidad última de selección es el hogar. Es decir, que se busca la inclusión de hogares en el panel donde todos los internautas residentes en el mismo estén dispuestos a colaborar en la investigación. Y el software de seguimiento se instala en todos los PC´s de la casa con acceso potencial a la Red.

Puestas las cosas así, uno podría expresar la muestra y su tamaño en términos de número de hogares, de usuarios (con dos posibles alternativas en el caso de Nielsen eRatings) e incluso, en términos del número de PC´s controlados. Pero, al menos, se debería aspirar a que los operadores informaran sobre la muestra teórica, muestra instalada y muestra útil (in-tab) –según sea el caso– tanto en términos de individuos como de hogares, para proporcionar al usuario alguna idea del efecto conglomerado –derivado de la agrupación de los individuos muestrales en hogares– que afecta a la precisión de las estimaciones.

Las tres compañías tienen planes a medio plazo de ir ampliando progresivamente el tamaño de muestra establecido para el momento de arranque.

Participación

Tanto las declaraciones de los operadores hispanos como la información procedente del panel sueco (01) apuntan a una cierta predisposición del usuario de Internet a prestar su colaboración dado el interés que el tema suscita entre los mismos y su vinculación personal con el medio. Pero es seguro que las noticias constantes sobre virus, gusanos, caballos de Troya, actividad de los hackers, etc., no ayudan precisamente a despejar posibles suspicacias de los contactados sobre la seguridad de su sistema y sus archivos y también sobre la confidencialidad de sus acciones y comportamientos individuales ante la tesitura de dejar instalar un software “vigía” en su máquina. Y el miedo a que el nuevo software ralentice su navegación, por muchas seguridades que se le den, puede también afectar negativamente al nivel de participación. De forma muy general, las tasas de respuesta esperadas estarán bien por debajo del 50 por ciento.

Los incentivos a los panelistas

Se dice muchas veces que hay un porcentaje de la población que no va a colaborar en una investigación específica. Hay otro grupo que está predispuesto a participar sin importarle que haya o no contraprestación alguna. Y un grupo central que colaborará o no dependiendo de cómo se le venda la idea, del objeto de la investigación y también del incentivo que le prometan. Es a este grupo, casi siempre cuantitativamente importante, al que van dirigidos los esquemas de incentivos. La cuantía y forma (sorteos, suscripciones, catálogo de regalos, pagos en metálico, etc.) del incentivo no está sujeta a reglas pero cada vez se le concede más importancia en el diseño de estrategias para conseguir tasas de respuesta lo más elevadas posibles.

La rotación del panel

En estos momentos iniciales parece que, a primera vista, es un poco prematuro hablar de esquemas de rotación forzosa. Pero, si se va aplicar alguna regla sobre este tema, es conveniente tenerla en cuenta desde el principio y no dejar llegar al panel inicial a su antigüedad máxima sin haber aplicado algunas acciones de reemplazamiento previas para evitar, en ese momento del tiempo, roturas importantes en la estabilidad del panel. Hay dos operadores que fijan una permanencia máxima en el panel, cuatro años MMXI y tres años Nielsen eRatings, mientras que en NetValue no consideran necesario fijar ningún tipo de límite. En los paneles de televisión, éste es un tema de permanente debate sin que, a pesar de los relativamente numerosos estudios para cuantificar el “efecto fatiga” en el panel, se haya llegado a un consenso: ni en la necesidad de establecer un límite ni en la cifra de años idónea –suponiendo que la existencia del límite sea aceptada–.

Otros elementos metodológicos

Para mantener la extensión de este artículo en límites razonables, el análisis comparativo no ha entrado en otros componentes de la metodología como el tratamiento de los panelistas en vacaciones, los sistemas de control de calidad, las variables utilizadas en el diseño y control del panel, los procedimientos de cálculo de los factores de elevación, las reglas de clasificación de sites, la definición de property, el tratamiento de subdominios, las definiciones de los indicadores de audiencia, etc. Pero todas estas cuestiones merecen también un análisis detenido por tener repercusiones en la magnitud y significado de las cifras reportadas.

La tecnología del meter

En la presentación oficial en España de los servicios ofrecidos por su compañía, Bill Pulver –CEO de Nielsen eRatings– hizo una distinción entre la metodología (universos, muestreo, gestión del panel, etc.) y la tecnología (características y capacidades del software de seguimiento), distinción que me parece especialmente oportuna. Mientras que los aspectos metodológicos tienen su equivalencia en otros tipos de paneles y son suficientemente conocidos, los elementos tecnológicos son nuevos y específicos a la medición de Internet. Es por ello que es en esta parte donde se necesita un mayor esfuerzo de explicación y clarificación para despejar toda posible imagen de “caja negra” asociada al meter.

La rentabilidad de las operaciones de medida

En comparación con los paneles audimétricos al servicio de la medición de la televisión, estos paneles para Internet cuentan con dos claras ventajas en al menos dos de los capítulos de gastos más significativos. El coste de cada copia adicional de meter es prácticamente nulo, mientras que el precio de cada audímetro para televisión es hoy todavía relevante. Y, frente al coste sustancial que para los paneles de televisión representan las llamadas nocturnas a cada uno de los hogares muestrales para recoger los registros de movimientos, en los paneles de Internet se aprovecha la conexión a la Red que realiza el mismo panelista para efectuar la transmisión de la información recogida sobre el comportamiento de los internautas del hogar hacia el centro de proceso.

Pero también es verdad que la comercialización del panel y la recuperación de la inversión presenta mayores retos. No todos los potenciales clientes del servicio están convencidos de la utilidad/necesidad del mismo y, por otra parte, dentro de la cultura imperante en la Red se ha cultivado la presunción de que la información debe ser abierta y gratuita. Y el hecho de que los ingresos potenciales deban repartirse entre varios operadores mengua las posibilidades de alcanzar balances positivos. La relativa crisis actual de Internet no ha venido precisamente a ayudar en este sentido. Probablemente la solución a la falta de rentabilidad actual de los paneles pasa por la existencia de una única operación que concentre todas las aportaciones de los agentes del mercado. Esta hipotética operación única podría, alcanzado el umbral de la rentabilidad, afrontar el coste de tamaños de muestra mayores que los actuales y/o encarar la medición en el lugar de trabajo. El concurso que la industria italiana llevó a cabo, a través de AUDIWEB, el año pasado para seleccionar un operador “oficial” así como la reciente creación en Gran Bretaña de JICNET para hacer algo similar van por ese camino.

Comscore y otros jugadores (02)

La compañía americana Comscore ha enfocado su panel de forma un tanto heterodoxa. Su universo es de máquinas y no de individuos. Captura a los participantes con un sistema de reclutamiento a través de banners en la Red que propicia el carácter de muestra autoseleccionada y no probabilística, con el consiguiente riesgo de sesgo. Cuando alguien accede a participar en el panel, descarga un applet que le reconfigura el navegador de forma que el tráfico se redirecciona hacia una de los 200 proxy servers de Comscore. Al potencial panelista se le promete una velocidad de acceso más alta gracias a este redireccionamiento. Posteriormente, el tráfico generado por el panelista se determina a través del análisis de los ficheros log de los servidores de Comscore. Nos encontramos, por tanto, ante un procedimiento un tanto mixto entre site-centric y user-centric. Afirman que el consumo desde el lugar de trabajo está incluido aunque probablemente, al igual que en los paneles de trabajo de NetRatings y Media Metrix, infrarrepresentará a los empleados de las grandes firmas.

Su gran ventaja es el tamaño del panel. En Estados Unidos cuentan con más de un millón y medio de panelistas, lo que les permite un detalle en la información muy superior a la que ofrecen los paneles tradicionales. Específicamente, les permite hacer un seguimiento del comercio electrónico y desarrollar lo que ellos llaman un Buying Power Index que cualifica a los navegantes y que constituye un elemento sumamente atractivo en la cualificación de los visitantes de un site. Comscore, en un esfuerzo conjunto con su aliado NetValue, está comenzando a introducirse en Europa y España está dentro de sus planes para 2002.

Y hay otros intentos. Por ejemplo, Compete.com ofrece seguir la navegación de más de ocho millones de máquinas y Alexa websearch está en la misma línea. Y la aparición de nuevos medidores no cesa. Aunque también es justo mencionar que muchos de ellos desaparecen después de una breve existencia.

La moneda única está todavía lejos

Según un analista británico y refiriéndose a la comparación entre la información proporcionada por los tres paneles en el Reino Unido, las cifras reportadas han venido siendo consistentemente inconsistentes (03) . Y esto se ha venido repitiendo en los diferentes países donde han empezado a operar, sin que las diferencias puedan justificarse por los márgenes de error estadístico. Habría que analizar en detalle las metodologías utilizadas para ver en qué medida pueden justificar las diferencias obtenidas. Si queremos evitar la confusión y la pérdida de credibilidad del método –considerado en su conjunto– hay que hacer todos los esfuerzos para que el usuario de la información conozca en detalle las implicaciones que una determinada opción metodológica tiene en las estimaciones de audiencia. Como en el resto de estudios de audiencia, la transparencia de los métodos aplicados debe ser un principio de aplicación general.

Las diferencias entre los datos que proporcionan los paneles se dan en otros países y, específicamente, en Estados Unidos. Para Francia, Emmanuel Fraisse dio cuenta de estas discrepancias en la ponencia que presentó en el Seminario de ESOMAR sobre Internet celebrado en París (04) .

Y algo parecido sucede cuando se comparan los resultados ofrecidos por los paneles con mediciones site-centric procedentes del análisis de los ficheros log de los servidores. Hace dos años se llevó a cabo un estudio comparativo de este tipo en Estados Unidos y para 28 sites (05) . La falta de congruencia fue relevante.

El camino que ha recorrido la televisión hasta llegar a la publicación de unas normas de aplicación internacional (06) es un referente a imitar. Y por último, se han iniciado actividades auditoras externas sobre las operaciones de medición. En 1999, el CESP (http://www.cesp.org/) francés –asociación del sector formada con la participación de los medios, de los anunciantes y de las empresas de publicidad– comenzó a auditar los paneles de Internet al igual que ya hacía con todos los estudios de audiencia existentes en el país vecino. Los primeros resultados se hicieron públicos a mitad de 2001. En Estados Unidos, el Media Rating Council también ha comenzado a efectuar auditorías de sistemas site-centric y ad-centric mientras que ha abandonado sus planes de auditoría de los paneles. En relación a los sistemas site-centric y a principios de 2001, el IAB encargó a PriceWaterhouseCoopers un estudio comparativo de los métodos existentes y la confección de unas recomendaciones que favorecieran la homogenización de los mismos.

Hasta ahora han sido las empresas de medición las que han llevado la iniciativa. Y los mercados o usuarios no han jugado un papel mínimamente decisivo en el desarrollo de las herramientas de medición, aunque probablemente los intentos mencionados del AUDIWEB italiano o del JICNET británico constituirán precedentes a imitar y mejorar.

Pero es claro que todavía estamos lejos de tener un estándar de medición. Hace falta que las posibilidades de la Red se estabilicen, que haya más investigación comparativa entre los diferentes sistemas y más actividades auditoras que den seguridad a los usuarios. O quizá ese momento no llegue nunca: que estemos ante un medio técnicamente tan complejo y con tantas posibilidades que nunca tendremos un único sistema de medida ya que sólo una combinación de metodologías podrá proporcionar la visión justa y precisa de la realidad de Internet.

Artículo extraído del nº 52 de la revista en papel Telos

Ir al número Ir al número