Por Miguel Ángel Pérez Ruiz
Los estudios de audiencia de los medios han recorrido un largo camino. Pero la multiplicación de soportes, y la consiguiente dispersión creciente de las audiencias, exige nuevos instrumentos. La informática y el dinero aportado por las centrales y los medios están contribuyendo a la generación de un nuevo orden en la investigación de los medios publicitarios.
Tener y conocer la audiencia ha sido siempre el principal deseo de todos los propietarios de medios de comunicación. Esta tendencia se manifestó con inequívoca claridad incluso en los primeros editores de diarios. Ante la progresiva competencia, seleccionaban segmentos de público a los que dirigir aquellos dípticos de tamaño aproximado al tabloide. Su afán se centraba en conseguir el suficiente número de lectores para que se mantuviese activa la publicación.
Más tarde este concepto se fue depurando, sobre todo desde que comenzaron a acudir con asiduidad los anunciantes. Como la inserción de avisos cubría parte de la financiación del diario, ya no era tan apremiante buscar el número de compradores que permitiese la subsistencia sin problemas. Pero había que seguir fiel a los intereses de los lectores que renovaban su fe en la publicación diariamente, porque esa fidelidad justificaba las inversiones en avisos. Fue así como la audiencia adquirió, a partir de entonces, dos significados distintos: 1) la audiencia como indicador del éxito de una publicación, de un programa, sin más condicionantes que la mera cantidad como punto esencial de referencia, y 2) la audiencia como medida de impacto, que admite múltiples consideraciones desde un punto de vista fragmentado, surgiendo así el concepto de segmentación. Esta distinción se aplicará en años sucesivos plena y principalmente en los medios electrónicos: la radio y la televisión.
Hoy día, la pugna por las audiencias ha alcanzado uno de los momentos de máxima expresión. Incluso, se puede afirmar que se busca el valor cuantitativo sin ningún tipo de miramiento. A diario se están dando los resultados alcanzados por cualquier tipo de programa, en los que un punto porcentual puede significar su continuidad o rechazo. La audiencia se ha convertido así en la obsesión de los programadores y presentadores, figurones y figurillas que, sin el más elemental rubor, no dudan en pedir a quienes siguen sus evoluciones que no se vayan, permanezcan atentos porque en unos minutos, después de la publicidad, volvemos a vernos otra vez. También se termina midiendo por este concepto el éxito de los ejecutivos y directivos de los medios, cuyo sillón se mueve de acuerdo con las subidas y bajadas de las curvas de audiencia.
La otra cara de las audiencias tiene un claro tinte publicitario. A nadie se le oculta que buena parte de las decisiones aludidas en las líneas precedentes están soportadas en los ingresos publicitarios. En este sentido no cabe la menor duda de que el concepto audiencia se piensa en clara referencia a la inversión publicitaria, porque donde hay audiencia acuden los anuncios. La audiencia se convierte así en una moneda de cambio: yo te proporciono personas que se exponen a este espacio y tú sitúas en él tus anuncios.
Esta sencilla ecuación tiene sus repercusiones en las personas que están en la orilla de la publicidad: las agencias y, más concretamente, los planificadores de medios, los planners y los directores de cuentas. Es su especialidad.
En concreto, el problema que se les plantea a los planificadores de medios, desde que la profesión publicitaria se tecnificó, se resume en dos palabras: dónde y cuándo. Dos adverbios que resumen dos conceptos fundamentales el soporte y el tiempo, ambos necesarios para que el mensaje llegue al grupo objetivo y alcance los efectos para los que ha sido programado. En realidad, ambos conceptos son la base de la planificación de medios. Pero para planificar hay que conocer una serie de datos sobre las audiencias, información que no está al alcance en todos los medios. Existe un tratamiento distinto en su investigación que, en ocasiones, no se adecúa a su naturaleza. Los resultados en estos casos dejan que desear.
¿Qué se está haciendo al respecto para conocer las audiencias de cada medio? ¿Es correcta la orientación que se le está dando al problema? La profesión publicitaria se ha dotado de unos cuantos instrumentos de investigación que le aportan información en lo referente a este punto. Pero no están todos los que deben y alguno de los que están necesita una adecuación urgente.
Estas afirmaciones se basan en un hecho explícito y comprobado, ligado a la propia naturaleza del medio. Aunque su ámbito de aplicación se reduzca a estas líneas, se podría definir como una teoría de la continuidad de la audiencia. Con esta enunciación me refiero a que existen medios que constituyen en sí fenómenos continuos, en el sentido de que sus audiencias están variando constantemente, ya sea por la naturaleza de los contenidos de los programas, ya por las circunstancias que acompañan a esas audiencias. La radio y la televisión, por ejemplo, han experimentado un índice de desarrollo tal que las distintas ofertas de programas consiguen un seguimiento continuo de audiencias, más o menos numerosas, en función de variables como interés del contenido, oportunidad del horario, disponibilidad de receptor, tiempo libre, etc.
Otros medios, generalmente los medios impresos, no poseen esta característica. Están conformados de manera discontinua, esporádica, con un intervalo mayor o menor entre cada una de sus apariciones. Su naturaleza de sucesos concretos, anclados en ese período de tiempo un día, una semana, un mes, etc., fracciona la continuidad de su mensaje, lo que comporta que las audiencias desarrollen hábitos de exposición acordes con la aparición de esos contenidos: comprarlo o leerlo cada día, semana, quincena, mes o en el intervalo temporal que aparezca. En los primeros, se incluyen la televisión, la radio e Internet. Los segundos están integrados por las publicaciones impresas diarios, revistas y cualquier otra publicación que inserte publicidad-, a las que habría que añadir el cine y la publicidad exterior.
Si esta realidad es así y todo indica que lo es, parece lógico que se arbitren las metodologías o instrumentos técnicos para que la investigación de las audiencias de unos y otros esté en plena consonancia con su naturaleza. Es decir, que estén dotados de la sensibilidad y capacidad para medir exactamente esta característica fundamental la continuidad, puesto que influye directamente en las variaciones que experimentan sus audiencias.
Los primeros intentos de medir la audiencia de los medios no continuos datan de 1880. Será, no obstante, en 1964, fecha de la constitución de la Oficina de la Justificación de la Difusión OJD, cuando se obtengan los primeros resultados concretos: la medida de la difusión como una aproximación inicial para conocer las audiencias de cada medio. Actualmente, la OJD mide la tirada y difusión de los soportes que controla y aporta mensualmente un dato de mucho interés, una cualidad horizontal de dichos medios: la distribución geográfica de las publicaciones. La atribución de una cifra promedio de lectores por ejemplar facilita una orientación un tanto imprecisa si se quiere de las audiencias que dichos medios consiguen en esas respectivas demarcaciones donde son distribuidos.
La constitución de la Asociación para la Investigación de los Medios de Comunicación AIMC y la consolidación de su principal producto, el EGM, supuso un gran paso. A pesar de sus sucesivas correcciones y reorientaciones o quizás por ellas el EGM se ha constituido en el referente de la profesión para conocer cuatro aspectos fundamentales de las audiencias de los medios: 1) los hábitos de exposición, en general, a dichos medios; 2) la exposición a ciertos soportes concretos, sobre los que se les pregunta a los encuestados; 3) el consumo de una serie de productos algo más de cien entre comunes, específicos de cada sexo y otros que compra el ama de casa, lo que facilita el conocimiento de los artículos que más se consumen, un dato muy importante, y 4) los estilos de vida de esas audiencias. El EGM constituye hoy día el indicador más preciso en lo que a tendencias de las audiencias se refiere. Su validez y fiabilidad son incuestionables.
De toda la vida han sido dos radio y televisión aunque con la llegada de Internet se puede hablar ya de tres. Se les denomina así porque su audiencia está en continuo cambio: personas que sintonizan canales y/o emisoras, permanecen un tiempo y abandonan más o menos rápidamente este escenario.
Así las cosas, para medir las oscilaciones provocadas por estas conductas expositivas a los medios no les sirve cualquier instrumento que mida comportamientos estáticos, que haga fotos fijas. Se requiere un instrumento que registre la película imágenes en movimiento, hechos continuos que desencadena comportamientos de exposición a ese medio de similares características. Esa metodología de investigación debe cumplir varios requisitos:
1) Que aporte una medida continua y completa del uso que se hace de esos medios, de la conducta de las audiencias ante/hacia ellos.
2) Que lleve a cabo la medida con precisión. Los espacios susceptibles de atraer las audiencias oscilan desde unidades mínimas de 5 ó 6 segundos hasta otras de varios minutos u horas.
3) Que establezca medidas de investigación estandarizadas para todos los medios. Es decir, que los resultados sean equiparables, de acuerdo con las unidades empleadas como signo de rendimiento o eficacia: reach, rating, share, GRP´s, etc.
4) Finalmente, ha de ser capaz de procesar rápidamente la información, de manera que se disponga de ella en el menor tiempo posible. Lo ideal es al día siguiente, a primera hora, para poder programar los estímulos publicitarios en función de la conducta observada por las audiencias el día anterior. O la semana anterior.
La revisión de las medidas de audiencia
Existe una corriente muy importante entre las agencias, las centrales y los propios medios, que pretende renovar el panorama de su investigación. Por mera y simple eficacia. Porque se están desaprovechando oportunidades que, además de hacerlos cumplir mejor sus funciones, les puede volver más rentables. Algunos, tras exhaustivos desarrollos de nuevas metodologías y tecnologías complementarias, ya están proporcionando los resultados que tanto tiempo se han esperado de ellos.
En el último año, este cambio metodológico ha tocado de lleno a la publicidad exterior. No obstante, todavía se encuentran pendientes de completar su correspondiente chequeo el cine y la radio.
La publicidad exterior: un ejemplo a imitar
La publicidad exterior siempre fue el patito feo de los medios. Ya en los primeros proyectos del EGM, elaborados por Eco y Metra, quedaba fuera de su consideración. Tras varios intentos aislados 1977, 1978 y 1992, el estudio Miró, que supervisó la AIMC, comenzó a marcar la pauta, en 1998, de cómo debía entenderse la investigación del medio. El Miró ofrecía la posibilidad de conocer la notoriedad de una campaña a través de distintos niveles de recuerdo espontáneo y asistido, combinados con tres situaciones: antes de exponer la campaña, mientras estaba en los soportes de exterior y después de retirarla. Estos resultados han sido complementados y perfeccionados con la aplicación del Geomex, un estudio que utiliza la digitalización de la cartografía como base y combina fundamentalmente dos parámetros: 1) la proyección de los estímulos de publicidad exterior, lo que da lugar a una serie de posibilidades de impactos, y 2) los itinerarios que siguen las personas en sus desplazamientos. El cruce de ambas informaciones determina la consecución de impactos y la calidad de los mismos.
El cine
La investigación de la audiencia del cine cuenta ahora mismo con tres fuentes de datos distintas, puestas en práctica por otras tantas entidades: el EGM, el control de taquilla del Ministerio de Cultura y el tándem empresarial Nielsen-Edi.
El EGM facilita datos sobre la frecuencia de asistencia al cine y cuándo fueron por última vez las personas entrevistadas. Es decir, mide el hábito de ir al cine y la frecuencia con que se exponen al medio.
El Ministerio de Cultura pone a disposición de las empresas los controles de taquilla, que aporta información sobre el número de entradas que se han vendido. O sea, el número de espectadores que han asistido al cine. El problema que suscita este control es que no se dispone de la información hasta que el Ministerio hace públicas las cifras.
Nielsen-Edi realiza un recuento diario de las entradas vendidas prácticamente en todo el censo de salas puesto que controlan el público asistente al 98 por ciento de las mismas. El sistema es muy sencillo: cuando se cierran las taquillas, las diferentes salas facilitan los datos de número de asistentes a cada sala y pase.
Existe otra fuente de datos, directamente orientada a la comercialización de las audiencias con fines publicitarios: las compañías exclusivistas. Ellas realizan investigaciones privadas que les proveen de información sobre la eficacia de los circuitos de salas que admiten publicidad. La posibilidad de comparar resultados de la eficacia de estos circuitos con los obtenidos en otros medios ha dado un vuelco espectacular al cine, de manera que su facturación en los últimos años ha crecido más que el de ningún otro medio, exceptuando los dos últimos ejercicios de Internet.
En cualquier caso, quedan flecos importantes por concretar en este medio. Desde hace aproximadamente diez años se venden las salas como soportes publicitarios atendiendo fundamentalmente a características cualitativas de la audiencia: el 50 por ciento es gente joven, los espectadores son de clase social media alta y alta, que residen en grandes núcleos urbanos y que, por tanto, son grandes consumidores potenciales.
Pero esto no es suficiente. Julio González, director de compras de Arena Media Communications (Grupo Media Planning), expuso las razones por las que estos resultados no son satisfactorios en las II Jornadas de Marketing Cinematográfico, celebradas en febrero de 2001. Entre otros argumentos destacó que estas ventajas son insuficientes si volvemos a recordar la importancia de la cuota de espectadores, necesaria para los datos de rentabilidad, para la comparación con respecto a otros medios y para responder a las garantías de los objetivos del cliente (El Publicista, 42, 16). Como resumen de su intervención afirmó que hay que dar datos de impacto para la compra de la planificación.
En esta misma línea de la necesidad de conocer más a fondo el cine se expresó Mª Jesús Calvo Poch, directora de marketing de RMB España Multimedia, una de las compañías exclusivistas que ha entrado con más fuerza en el panorama español. En su intervención manifestó en los siguientes términos la exigencia de profundizar en el conocimiento del cine como fenómeno de audiencias: Tenemos la necesidad de cuotas por espectadores que nos den datos de impactos alcanzados por las campañas, costes por impacto y rentabilidad de la inversión, que es lo que se plantea todo planificador de medios (El Publicista, 42, 15). Sobre el tema de las cuotas reclamó que se investigase más sobre los siguientes tipos:
– Cuotas de salas, puesto que no todas las salas tienen el mismo número de pantallas ni generan el mismo número de audiencia potencial, de lo que se deduciría que se asignaría el mismo valor publicitario a todas las salas, independientemente del número de pantallas, aforo o asistencia.
– Cuotas de pantallas, porque no todas las pantallas tienen el mismo aforo.
– Cuotas de butacas, ya que no todos los asientos se ocupan en una sesión.
A estas cuotas habría que añadir otros elementos que impiden concretar el número exacto de asistentes a las salas cinematográficas, entre los que cabe citar la variación de la asistencia a dichas salas a lo largo de la semana y a lo largo del año. En palabras de la directora de RMB, hace falta una nueva cuota de espectadores para responder a esto, para que el cine pueda mirar cara a cara al resto de los medios (El Publicista, 42, 15).
No obstante, hay que constatar que el cine, desde que estableció los circuitos, está atravesando un buen momento publicitario. Tendría que saber permanecer en él incrementando las inversiones de los anunciantes pero sin saturarse de publicidad.
La radio
Por extraño que parezca, la radio medio continuo tuvo su propio audímetro en el año 1942. Los profesores Elder y Woodruf diseñaron un prototipo que fue construido por el MIT de Massachussets. Sin embargo, la llegada de las radios portátiles, los famosos transistores, en los primeros sesenta, impidió su aplicación a la medida de la audiencia. Posteriormente, la aparición de la televisión reconvirtió su aplicación a la investigación de las audiencias del nuevo medio, dejando así a la radio sin el único instrumento válido para su investigación. En los últimos años se han experimentado algunos audímetros portátiles, sin que hasta la fecha las compañías se hayan decidido especialmente por uno de ellos. Tres son los proyectos que gozan de mayor aceptación:
1) Arbitron (Personal Portable Meter). Con aspecto exterior muy similar a una tarjeta, el Arbitron capta y registra unas señales audio inaudibles para la audiencia, que emiten las cadenas. Así se sabe si esa persona estaba conectado a esa emisora o no. Al final del día hay que descargarla en una unidad de almacenaje.
2) Radiocontrol. Con aspecto exterior similar a un reloj de pulsera, está basado en la forma de funcionar de un audímetro clásico: cada cuatro segundos capta y registra todos los sonidos del entorno. La información se descarga por teléfono.
3) Infratest Burke. Con forma exterior similar al anterior, la principal diferencia radica en que la identificación de la emisora se produce cuando se escucha.
Todos ellos tienen algunas características comunes:
– La unidad de estudio es el individuo oyente.
– Son audímetros pasivos.
– Su ámbito de aplicación rebasa el ámbito del hogar.
– Se pueden aplicar también a la medida de la TV.
– Registran cuatro segundos por cada minuto, con descarga en laboratorio cada semana.
También comparten dos desventajas, igualmente comunes:
– No registran la escucha por auriculares: walkman, etc.
– No dan fe del lugar donde se produce la escucha.
Ninguno de ellos se ha establecido en España, por lo que la única medida fiable está en el EGM de la AIMC.
El replanteamiento del ARCE
Así estaban las cosas cuando la compañía de investigación IMOP dio a la luz un nuevo método de investigación de la radio: el ARCE Radio, un estudio que consistía en la realización de 73.000 encuestas anuales, a razón de 200 diarias, por el sistema Cati. En su presentación, el responsable del estudio, José A. Storch, lo definía como un estudio continuo y monomedia sobre la audiencia de la radio que permitía:
– Analizar la audiencia de cualquier período del año con suficiente tamaño muestral.
– Disponer de información con periodicidad semanal.
– Obtener informes por targets, períodos temporales, horarios, etc., con la posibilidad de utilizar diferentes indicadores de audiencia según las necesidades: reach, rating, share, tiempo medio de escucha, etc.
– Mayor precisión en la probabilización de los hábitos que permita realizar planificaciones de campaña de modo más completo, preciso y con referencia a períodos temporales abiertos a la decisión del usuario.
– Disponer información de las cuñas publicitarias emitidas por las cadenas de mayor cobertura para que sea posible realizar seguimientos de campañas propias y/o de la competencia en tiempo oportuno.
– Incrementar el conocimiento sobre la eficacia de las campañas publicitarias (IMOP, 1999, 1-2).
El propio director del proyecto presentó los beneficios principales del Arce, entre los que cabe destacar los siguientes:
1) Para el medio:
– Un conocimiento más preciso de la dinámica del fenómeno de la audiencia tanto en el tiempo como estructuralmente.
– Una gestión más eficiente de la parrilla al permitir decisiones más cercanas a los fenómenos.
– Conocimiento de las acciones publicitarias en cada una de las cadenas (presencia simultánea y/o exclusión) e intensidad de las mismas.
2) Para el planificador gestor de medios:
– Planificación más precisa respecto a períodos temporales y targets.
– Seguimiento de lo planificado y obtenido.
3) Para el anunciante:
– Conocimiento más preciso del alcance y retorno de sus inversiones en el medio.
– Seguimiento en el tiempo de la notoriedad publicitaria de sus campañas y su relación con los otros medios (IMOP, 1999, 3-4)
En un escrito posterior, Storch reveló datos muy interesantes obtenidos por el Arce, todos ellos referidos al año 2000. Entre otros destacaba los siguientes:
– La estacionalidad de contacto de la audiencia con el medio era mínima.
– Tampoco variaba mucho el tiempo dedicado a oír la radio. Si el promedio diario rondaba los 170 minutos, los intervalos más extremos se situaban entre 183,94 y 157,97 minutos.
– En el consumo de radio predominaba la radio generalista (54 por ciento) seguida de la fórmula musical (43 por ciento) y de las noticias (3 por ciento).
– En lo que respecta al lugar, la mayor exposición al medio se producía en casa (56 por ciento), seguida del lugar de trabajo (31 por ciento), el coche (11 por ciento) y otros (2 por ciento).
– La saturación de las tres cadenas principales a lo largo del año fue de un 10,49 por ciento, bastante inferior a la prensa y a la televisión. El promedio de duración de las inserciones fue de 24 segundos.
Pero donde el Arce mostraba una importancia que rebasaba lo sospechado era en los datos de la tabla (01), en la que se relacionan el número de inserciones, el consumo de tiempo y los GRP obtenidos. La relación que puede establecerse en algunos casos es aleccionadora: ciertos anunciantes han conseguido un elevado porcentaje de GRP con un moderado número de inserciones y de segundos ocupados, mientras que otros se sitúan en la posición contraria. Basta seguir el orden del ranking para obtener conclusiones profesionalmente aprovechables y, en cualquier caso, por lo menos, curiosas.
Ver gráfico/ tabla (01)
Pero el Arce Radio dejó de existir en el año 2000, lo que supuso que la radio se quedó sin la oportunidad real de tener una investigación que se aproximaba al estudio continuo de su actividad. En la oleada de septiembre del EGM de septiembre de 2000, el Arce Radio se unió al primero originándose un nuevo producto: EGM Radio XXI. El cometido exacto de Arce reside en que, aprovechando las mismas olas del estudio de la AIMC, realiza 9.000 encuestas en cada una, resultando así que el EGM convencional pasó de basarse en 43.000 entrevistas a apoyar sus resultados en 70.000 entrevistas.
Sin embargo, a pesar de la desaparición del Arce Radio, su espíritu no ha muerto. Como escribió Elvira Esparza fue el revulsivo necesario para llevar a cabo una modernización del tradicional estudio de la AIMC. (…) El bautizado como EGM Radio XXI surge del acuerdo alcanzado con IMOP. (Esparza: 2001). Arce Media, la nueva compañía fundada por IMOP, que aglutina diversas iniciativas de investigación, se ha hecho cargo de las 27.000 encuestas telefónicas que vienen a reforzar la ola de verano de EGM radio, además de las 43.000 tradicionales que realiza la AIMC para dicho estudio.
¿Cuáles fueron las reacciones al respecto? (Esparza: 2001, 20) las resumía así: El sector en general ha aceptado las novedades introducidas en el EGM aunque en opinión de algunos profesionales quedan algunos flecos.
Luis Ponzini ponía el dedo en la herida: El medio radio continúa sin contar con un estudio de audiencia que sea continuo, útil para los grandes y los menos, que mida todos los períodos, que dé credibilidad a la radio ante los anunciantes, que ayude a no ser un medio de refuerzo que, en definitiva, equilibre el mix del medio radio en el mercado de los medios de comunicación (la radio es el segundo medio en audiencia y el cuarto en inversión (Esparza: 2001, 20-21). Sobre la ampliación del EGM manifiesta que hay aspectos positivos: que se amplíe el número de entrevistas, la mayor cobertura poblacional derivada del incremento de las encuestas telefónicas, la consistencia de los datos y el menor margen de error.
Marta Masdeu manifestaba un cierto optimismo sobre las innovaciones introducidas en el nuevo EGM Radio: Las modificaciones introducidas en el EGM, con la contratación de los servicios de IMOP para la ampliación de la muestra telefónicamente, benefician a la radio en general, porque al ampliar el trabajo de campo del EGM hace que los datos no fluctúen tanto, aportando así una mayor fiabilidad (Esparza: 2001, 21).
La investigación de las audiencias de Internet
El penúltimo capítulo en la investigación de los medios, especialmente en lo que a medios continuos se refiere, lo protagonizan las empresas que investigan las audiencias de Internet. Nielsen Netraitings y Net Value llevan casi dos años de actividad comercializadora de la medida de audiencias. Al margen de las diferencias sustanciales que ofrecieron en el Reino Unido al anunciar sus resultados en el año 2000 con más de dos millones de diferencia en las visitas de una misma web sobre un total de cinco millones de visitantes parece que van afinando sus resultados a medida que asientan sus paneles y seleccionan bien sus muestras de usuarios de la Red.
Actualmente cuentan con la ventaja de que se está en los inicios de la comercialización de este tipo de información y el mercado se muestra muy oscilante. Sin embargo, está claro que conocen que esta profesión es de un solo estudio por actividad, como lo demuestra el hecho de que, en febrero de 2002, Nielsen absorbió Media Metrix, una de las tres compañías que comenzaron a trabajar en España en el año 2000. Todo ello les obliga a 1) esforzarse por hacer las cosas bien, 2) decir que lo están haciendo bien y 3) multiplicar sus atenciones para captar el máximo número de clientes. Porque, en un período aproximado de un par de años, se juegan su permanencia en el mercado español. Y todo ello, por supuesto, perdiendo una buena suma de dinero. Por cierto, no deja de ser curioso que ésta sea la única investigación importante en la que la AIMC no controla su calidad. ¿Para más adelante? ¿Lo exigirá así la profesión?
Los hechos descritos anteriormente inclinan a pensar que se está fraguando un nuevo orden en la investigación de las audiencias de medios. Sobre todo si se tiene en cuenta que los resultados serán sometidos a un juicio crítico por parte de agencias, centrales y los propios medios. Las primeras necesitan información cada vez más precisa del comportamiento de las audiencias. La multiplicación de soportes, dentro de los propios medios, está contribuyendo a una ruptura y dispersión cada día mayores de las audiencias, lo que ocasiona nuevos y diarios trastornos a los planificadores de la estrategia de comunicación y de los medios. La informática y el dinero aportado por las centrales y los propios medios están contribuyendo a que se inicien proyectos de investigación que aporten un mínimo de claridad sobre las dificultades de control de las audiencias, inherentes a esta proliferación mediática. El caso de la publicidad exterior puede resultar un modelo paradigmático, por ahora.
En este sentido, tal y como evolucionan los hechos, todo parece apuntar a que se puede llegar a una doble plataforma de investigación:
1) Plataforma básica: compuesta fundamentalmente por la AIMC. Esta asociación continuaría desempeñando su doble papel actual:
– Por una parte, realizando los estudios que ahora lleva a cabo, centrados principalmente en el EGM e Internet. El EGM quedaría como el estudio multimedia por excelencia, que marcaría las grandes tendencias en lo que a orientación de audiencias se refiere.
– Por otra, la AIMC seguiría ejerciendo el papel de organismo garantizador de la fiabilidad y calidad de los otros estudios que se llevan a cabo en el entorno de la publicidad, tal y como viene desempeñando esta función hasta ahora.
– También habría que incluir en esta plataforma a la OJD, otro de los organismos que viene suministrando información básica desde mayo de 1965. Sus informes sobre la difusión de medios convencionales y los accesos que registran los medios electrónicos representan otro de los pilares en que se apoya la profesión.
2) Plataforma de estudios aplicados individualmente. Formada por empresas y organismos que usualmente con la colaboración del medio llevan a cabo actualmente o iniciarán en breve estudios monomedia, ya se trate de estudios sobre medios continuos o discontinuos. Se supone que estos organismos individuales, unión de empresas o colectivos tratarán de apurar al máximo la investigación de las características de cada medio, ofreciendo los resultados más completos posibles. Porque el desarrollo y la contratación publicitaria dependen en buena parte de ellos.
Esparza, Elvira: La modernización de la radio, en El Publicista 39, págs. 16-21, 2001.
Imop Encuestas: ARCE 2000. Audiencia de radio y control de emisiones. Madrid, IMOP, 1999.
Marín, Patricia: Publicidad Cinematográfica. II Jornadas de Marketing Cinematográfico, en El Publicista 42, págs. 14-16, 2001.
Storch, J.A.: Los números de la radio. El 2000 en cifras, en El Publicista 39, págs. 22-26, 2001.
Artículo extraído del nº 53 de la revista en papel Telos