N
Nuevas tendencias en la creación musical propiciadas por las nuevas tecnologías


Por Francisco José Cuadrado Méndez

La concentración de la creación y la producción musical en torno al ordenador ha introducido nuevas herramientas de creación, a la vez que ha generado importantes consecuencias sobre el proceso creativo del músico y sobre el producto resultante.

En 1967, con la producción del álbum Sergeant Pepper’s Lonely Hearts Club Band, The Beatles reinventaron el concepto de disco, invirtiendo el proceso de creación y grabación hasta entonces utilizado en los estudios. El cambio tecnológico que supuso la aparición en la industria musical de los sistemas de grabación multipista, que permitían grabar en ocho pistas independientes (enlazando dos mesas de mezclas de cuatro canales cada una) para luego combinarlas en una única señal máster, proporcionó a los músicos, a los productores musicales y a los técnicos de grabación una mayor libertad en el registro sonoro y en el proceso de mezclas: las bandas podían, por ejemplo, grabar las distintas partes instrumentales y vocales por separado o grabar varias veces un mismo instrumento o voz para añadir densidad a la mezcla. Surgieron además técnicas propias, como el ping-pong, que permitía pasar a una sola pista el contenido de varias de ellas, aumentando así el número de pistas disponibles para grabación.

El germen Beatle

Sergeant Pepper’s Lonely Hearts Club Band fue el primer disco producido utilizando un sistema de grabación y mezcla multipista. Esta innovación tecnológica fue aprovechada por The Beatles y especialmente por su productor musical, George Martin, para dar rienda suelta a la creatividad y experimentar con técnicas que hasta entonces no se habían utilizado: superposición de sonidos en capas, grabaciones a diferentes velocidades, montaje de grabaciones sonoras reproducidas hacia atrás en el tiempo, etc. Con la producción de este álbum aparece, como acertadamente apunta Jenaro Talens, la noción de simulacro: el disco ya no copia al directo, sino que el directo debe ser el que se parezca al disco grabado en estudio. En palabras del propio Talens, «Al producir un tipo de sonido artificial, que no podían ‘reproducir’ en directo, salvo mediante la introducción de aparatos que simularan el directo, se generó en los oyentes un tipo de expectativa muy diferente de la que había funcionado con anterioridad. […] La representación ya no funcionaba como representación de una exterioridad que le otorgue sentido de ‘verdad’, sino que funciona como representación de lo inexistente. Es decir, que lo único original es la copia y, fundamentalmente, el mundo real solo es creíble en tanto en cuanto se parezca a lo que previamente hemos construido en laboratorio» (Talens, 2000, pp. 377-378).

Del audio digital al audio virtual

La evolución de la tecnología musical de las últimas décadas ha conducido, al igual que ocurriera con la aparición de los sistemas multipista, a una reconsideración del proceso creativo y compositivo, así como de la forma en que un músico afronta todo el proceso de producción musical. Desde una perspectiva histórica, la base de los actuales sistemas de secuenciación y grabación de audio digital la constituye, por un lado, el protocolo MIDI, desarrollado en la década de 1980 como lenguaje a través del cual poder controlar distintos instrumentos musicales electrónicos; en segundo lugar, la tecnología de audio digital, permitiendo convertir el sonido analógico (variaciones continuas de voltaje de una señal eléctrica) en una combinación de código binario y, finalmente y en estrecha conexión con lo anterior, el tratamiento informático de los datos, la posibilidad de manipular y modificar el código binario (en este caso representando el sonido) a través de un programa de ordenador.

El desarrollo de las denominadas estaciones de trabajo de audio digital (a las que usualmente nos referimos con el acrónimo DAW, de Digital Audio Workstation) en la década de 1990 fue el primer paso hacia el establecimiento de los ordenadores como herramienta principal en la grabación de audio en la actualidad (Théberge, 2012).

Estos programas, que en un principio surgieron como versiones digitales de los tradicionales sistemas multipista analógicos, poco a poco han evolucionado, a través de un proceso de concentración, hasta llegar a constituirse como sistemas completos de creación y producción musical basados en ordenador, que integran herramientas de composición, edición de partituras, grabación, edición de sonido, mezcla y ‘masterización’. Estas DAW, además de permitir que el músico, usando simplemente su ordenador personal, pueda desarrollar «tareas antes reservadas a los estudios profesionales, desde la preproducción hasta el mastering» (Tomaz de Carvalho, 2012, p. 1), han contribuido también a una mayor creatividad musical (Roca, 2004; Kaloterakis, 2013) y a desarrollar distintas propuestas de aprendizaje musical y tecnológico (Walzer, 2016).

Este proceso de concentración de los procesos creativos y productivos en torno al ordenador simbolizan el paso del audio digital al audio virtual. Todo el equipo tecnológico de un estudio de sonido se convierte en representaciones virtuales del mismo, tanto en su presencia física (la vista del ingeniero estará a partir de este momento centrada en la pantalla del ordenador) como en la composición musical, la interpretación musical o el proceso de la señal sonora: cuadernos de pentagrama, pianos, guitarras, transistores, transformadores o válvulas de vacío son sustituidos por algoritmos y cálculos matemáticos que modifican series de números en código binario que representan la música y el sonido. Esta transformación ha generado el surgimiento de una serie de herramientas y recursos que, como veremos, han modificado radicalmente tanto el proceso creativo como el resultado de la creación musical.

Nuevas herramientas para los músicos

La creación del sistema MIDI permitió a los músicos grabar secuencias de datos y órdenes, a modo de partituras electrónicas, para que fueran reproducidas por los sintetizadores. La aparición del sampler introdujo la posibilidad de capturar cualquier sonido y tratarlo como una nota musical. En la actualidad, los ‘instrumentos virtuales’ han multiplicado las posibilidades tímbricas y expresivas del compositor (Tanev & Bozinovski, 2013). Estos virtual instruments (VSTi) sustituyen a la fuente sonora real, el instrumento acústico, eléctrico o sintético, por otra virtual, que nace dentro del mismo ordenador, principalmente a través de dos técnicas: la síntesis digital del sonido (bien mediante modelado físico, síntesis sustractiva, aditiva o de FM) o la reproducción de muestras. Este último método es el que más eficacia y éxito ha demostrado en la emulación de instrumentos acústicos y ha llevado al sampler a una evolución y un desarrollo tecnológico solo posibles cuando este se ha convertido en un programa dentro del ordenador, gracias a la implementación de tecnologías como el disk streaming o a la programación avanzada en la reproducción de muestras.

El desarrollo más avanzado en la creación de instrumentos virtuales lo ha realizado, sin duda, Vienna Symphonic Library (VSL)[1], un ingente proyecto de simulación del sonido de todos y cada uno de los instrumentos de una orquesta sinfónica completa. La calidad de esta extensa librería, con más de dos millones de muestras de sonido, se basa en la idea de un control exhaustivo de los parámetros sonoros y musicales de cada instrumento. Se ha grabado cada nota de cada instrumento, con todos los estilos posibles de ejecución del mismo (legato, pizzicato, con sordino, con y sin vibrato, con y sin legato, glisandi, repeticiones de notas), todas ellas con hasta ocho niveles de dinámica (desde ppp hasta fff), en un estudio –The silent stage– especialmente diseñado con una casi total ausencia de reverberación. Las transiciones entre notas están controladas mediante un algoritmo de fundido cruzado (a través de una herramienta denominada performance legato tool) y las secciones instrumentales se basan en la grabación de secciones reales de instrumentos, con diferentes configuraciones (orquesta completa, orquesta de cámara, cuarteto, etc.). La interfaz de usuario del propio instrumento virtual VSL Instrument ofrece al compositor la posibilidad de controlar, vía MIDI, todos los parámetros de interpretación de cada instrumento.

Instrumentos virtuales. En un reciente estudio, Kopiez, Wolf y Platz (2016) compararon la grabación de una obra musical (La consagración de la primavera, de Stravinsky) interpretada por una orquesta real frente a la recreación de la misma pieza realizada con la Vienna Symphonic Library. De una muestra total de 602 participantes, solo un 68,6 por ciento de aquellos oyentes con menor experiencia en una escucha crítica (que representa a la mayoría de consumidores de música) fue capaz de diferenciar ambas versiones, un porcentaje inferior al umbral del 70 por ciento establecido por Alan Turing para el reconocimiento de la presencia de inteligencia artificial. Este resultado refuerza lo que ya constituye una realidad en gran parte de la industria musical, especialmente en la producción de música para cine, audiovisuales y videojuegos: la progresiva sustitución de orquestas reales por instrumentos virtuales, por razones principalmente económicas y de producción, pero también por la mayor versatilidad y control que estos últimos ofrecen.

El desarrollo de instrumentos virtuales no se ha limitado a la recreación de sonidos orquestales, sino que cubre la paleta instrumental de cualquier estilo, desde el pop o el rock hasta la música de diferentes culturas. Esta nueva tecnología ha permitido incluso el surgimiento de proyectos educativos y de conservación de la herencia musical de diferentes culturas, como es el caso de iGamelan (Brunt y Johnson, 2013), desarrollado por la Wells Music Academy, o la Virtual Orchestra (Bianchi y Campbell, 2000; Campbell y Bianchi, 1998), creada por Frederic W. Bianchi en el Worcester Polytechnic Institute. Este proyecto, en línea con el planteamiento de VSL, permite trabajar una partitura en un secuenciador y, después exportar la pieza en formato MIDI a Sinfonia, un software que unifica la reproducción MIDI y la simulación de instrumentos orquestales, seguir las indicaciones de tempo y dinámica dadas por el director de orquesta (a través de un sistema de detección del gesto). El sistema ya se ha utilizado en cientos de espectáculos escénicos, especialmente en la fase de ensayos de producciones de ópera, permitiendo así reducir los costes de la producción.

Nuevas formas de modelar el sonido

Una vez que los grabadores de cinta han sido reemplazados (hace ya años) por discos duros de ordenador como soporte de la grabación de audio, la virtualización en el tratamiento del sonido ha venido de la mano de los plug-ins. Se trata de pequeños programas informáticos que funcionan dentro de la DAW, se ‘enchufan’ o insertan de un modo análogo a como se conectaban ecualizadores o compresores en una mesa de mezclas analógica. Mediante complejos algoritmos, estos plug-ins son capaces de reproducir, sobre la combinación de 1 y 0 que constituye el audio digital, el modo de procesar el sonido de sus homólogos en formato hardware y con circuitería analógica. Se sustituyen así los procesadores externos utilizados en la fase de mezclas: ecualizadores, compresores, unidades de efectos de reverberación, etc. De hecho, la interfaz gráfica de muchos de estos plug-ins es una copia del aspecto físico, los controles y potenciómetros de las unidades a las que imitan.

Al igual que en el caso de los instrumentos virtuales, los plug-ins de audio han ampliado las posibilidades de procesado y modelado del sonido: la reverberación por convolución, por ejemplo, permite muestrear el comportamiento acústico de cualquier sala de concierto, teatro o auditorio y aplicar luego esas propiedades sobre la mezcla de una grabación realizada en cualquier estudio.

Herramientas como timewarp o timestretch permiten adaptar el ritmo y la duración del material de audio (partes grabada por el músico, loops de diferentes bibliotecas, etc.) a los cambios de tempo, accelerandi o ritardandi que el compositor desea introducir en la obra. Asimismo, diferentes plug-ins de procesado tonal permiten retocar la afinación de la voz o, incluso, la creación de armonías a partir de una melodía monofónica.

La mesa de mezcla, el corazón de todo estudio de sonido, también ha sido virtualizada y sustituida por el mezclador integrado en la propia DAW: surge la expresión mix in the box (mezclar dentro de la caja, aludiendo al chasis del propio ordenador). El progresivo y exponencial incremento de potencia de proceso de los equipos informáticos ha permitido que, actualmente, se puedan mezclar en una única estación de trabajo de audio digital más de cien pistas de forma simultánea, cargar decenas de los denominados plug-ins y automatizar todos los parámetros de procesado de señal que actúan en tiempo real sobre la mezcla, todo ello con un rango dinámico que duplica al de la grabación magnética sobre cinta.

Consecuencias sobre el músico

Todas estas herramientas han provocado una profunda transformación en el modo de componer, orquestar, grabar y mezclar la música.

Antes de que esta vorágine tecnológica hiciera su aparición, el músico componía un tema usando un instrumento real (guitarra o piano en la mayoría de los casos) y escribía sobre el pentagrama una serie de arreglos para uno u otro tipo de formación musical (big band, grupo de rock, orquesta sinfónica) o se reunía con su grupo o banda para montar el tema, buscar las armonías, los arreglos, crear las partes, los solos instrumentales, etc., hasta obtener el tema completo. Luego, si conseguía firmar con un sello discográfico, acudía al estudio de sonido, donde se iba grabando cada uno de los instrumentos en pistas independientes. En muchos casos se contrataba a músicos de estudio para las secciones de cuerda o metal, algunas percusiones, etc. Una vez finalizado el recording, el técnico de grabación y mezclas se encargaba de ecualizar, comprimir, nivelar, añadir efectos y mezclar cada tema. Por último, se realizaba el mastering, que consistía básicamente en darle el acabado sonoro final al álbum completo, igualando la dinámica y la ecualización de todos los temas para dar cohesión al disco.

Hoy día el músico puede realizar desde su propio domicilio y con su equipo la mayor parte de estas tareas. La composición y los arreglos se realizan directamente sobre el secuenciador. La partitura ha quedado, en muchos casos, como herramienta necesaria únicamente para el registro de la composición en la propiedad intelectual. Mediante el uso de instrumentos virtuales, el músico va añadiendo todas las partes del tema: base rítmica, armonía, líneas melódicas, etc.

Ya en esta primera fase de la composición, se puede trabajar directamente sobre el matiz sonoro de cada instrumento, insertando plug-ins en el mezclador del software. Como concluye Théberge (1997, p. 216), «las canciones no son simplemente compuestas, interpretadas y grabadas. Cada vez más, el estudio se convierte en una herramienta de composición en sí mismo».

A estas posibilidades creativas se suma un mayor control sobre el resultado final de la producción, a la vez que una mayor autonomía del músico. Un reciente estudio realizado sobre 220 músicos de diferentes países (Cuadrado, 2015) constató que un 90,45 por ciento de los usuarios de algún tipo de DAW utilizaba instrumentos virtuales, siendo el 43,63 el porcentaje de los que los utilizaban de forma definitiva y no como sustitutos temporales de instrumentos reales. Asimismo, el uso de plug-ins de audio se extendía al 80 por ciento de los músicos. Este dato, junto con el hecho de que tan solo un 66,36 por ciento de los encuestados declararon utilizar los servicios de un estudio de grabación o un ingeniero de sonido externo, pone relieve otra consecuencia relacionada con esta mayor autonomía en el proceso creativo: la necesidad de adquirir un conocimiento técnico y tecnológico además del propiamente musical; un conocimiento que no supone la pérdida en el tiempo dedicado a la música en sí sino que, como afirmaban cerca del 80 por ciento de los músicos, «les permite asumir más roles en la producción y tener un mayor control sobre el resultado final de la música» (Cuadrado, 2015, p. 65). Como se desprende de otro estudio realizado sobre estudiantes de música, «el impacto de la DAW, si limita o libera la creatividad, depende por completo de la naturaleza específica de la alfabetización tecnológica que el estudiante posea» (Marrington, 2011, p. 4).

El nacimiento de la autoproducción. Las consecuencias finales de todo este cambio tecnológico no alcanzan solo al aspecto creativo del músico. El continuo abaratamiento de los productos informáticos y la competitividad entre fabricantes de hardware y software de audio por ganar cuotas de mercado han hecho posible que estas nuevas herramientas sean más accesibles. Por menos de 300 euros puede adquirirse actualmente un sistema básico de hardware y software de producción musical (incluyendo micrófono, interfaz de audio y DAW con capacidad para 48 pistas y decenas de plug-ins de audio).

Cada vez son más los músicos que montan sus propios home studios o estudios de proyectos. Al igual que ha ocurrido en muchos otros ámbitos de la creación artística, las nuevas tecnologías han democratizado el acceso de muchos autores a las herramientas productivas para poner en marcha sus obras.

Este es un segundo paso en la transformación del sistema de producción musical. Ya no es necesario tener un contrato con un sello discográfico para grabar nuestro propio disco. El músico se convierte a la vez en productor musical. Nace la autoproducción. Del mismo modo, surgen comunidades de usuarios que, en torno a la tecnología, comparten conocimiento, experiencias y recursos. Vienna Symphonic Library cuenta con 73.949 usuarios registrados y East West, otra de las compañías dedicadas a la producción de instrumentos virtuales[4], tiene una comunidad de 145.900 músicos que utilizan sus productos. Hispasonic, la comunidad en habla hispana más numerosa de usuarios de tecnología musical, cuenta actualmente con más de 350.000 miembros.

Consecuencias sobre la propia música

Además de la democratización, la libertad creativa y la independencia, esta evolución también conlleva una serie de consecuencias sobre la calidad de la propia música.

En primer lugar, dentro del aspecto creativo, el uso de instrumentos virtuales (y de otros recursos como los sistemas de arreglos automáticos o los loops) supone dejar fuera del proceso creativo a muchos músicos, arreglistas, intérpretes, etc. No se trata únicamente de una cuestión laboral o económica. La aportación autorial y creativa de cada músico, con todo su bagaje y experiencia profesional, con su conocimiento del instrumento que toca, o del estilo musical sobre el que realiza los arreglos, desaparece. Por mucha perfección y control sobre cada aspecto de la ejecución musical que permitan los instrumentos virtuales, siempre estamos basándonos en el criterio de una sola persona, frente a la aportación que pueden realizar los 60 músicos de una orquesta sinfónica, que son 60 maestros (conviene no olvidar el origen etimológico de este término, magister), y especialmente de la figura del director de orquesta.

Algo parecido ocurre con el resto de los profesionales que intervienen en el proceso que culmina con el disco: desaparece la figura del productor musical, que es en definitiva el encargado de trazar la línea estética global del álbum, de encauzar y dirigir el espíritu creativo del músico hacia un producto que tenga la calidad, el acabado y la personalidad necesarios para que este pueda tener éxito comercial. Los fabricantes de los sistemas de grabación y mezclas basados en software son en parte responsables de esta tendencia: la mayoría de los procesadores de audio en formato plug-in incluyen una serie de presets o ajustes de fábrica para utilizarlos con determinados instrumentos o estilos y así simplificar el trabajo del músico convertido en técnico.

En el estudio mencionado anteriormente sobre 220 músicos, el 61,4 por ciento de los encuestados afirmaba utilizar estos presets como ajustes de partida en el proceso de sonido. Esta pérdida de los valores que cada profesional aporta a la creación está teniendo distintos efectos sobre la propia música: por un lado, cada vez asistimos a una mayor estandarización del producto. La adopción de sistemas como Pro Tools (una de las DAW más populares), actualmente establecido de forma genérica por la industria como herramienta para la grabación y las mezclas, también ha marcado en cierto sentido una estereotipación en el sonido de muchas producciones: se busca una producción que haya tenido éxito comercial y se copia el modelo.

En la era de la fast food también encontramos el fast hit. Los discos de algunos cantantes surgidos de la primera edición de Operación Triunfo se prepararon, grabaron, mezclaron y masterizaron en tan solo cinco días. La producción de Sergeant Pepper’s abarcó varios meses de trabajo en los estudios de Abbey Road. La empresa antes citada, East West, comercializó en 2010 Fab Four[4], un instrumento virtual que contiene, previamente muestreados, todos los instrumentos y fuentes sonoras utilizados por The Beatles en las sesiones de grabación de Sergeant Pepper’s en los estudios Abbey Road: guitarras, baterías, teclados y órganos, instrumentos étnicos, amplificadores, etc. El sonido de The Beatles empaquetado y preparado para que tu música suene como la del mítico grupo.

En el ámbito de los plug-ins de modelado de sonido, la introducción de herramientas de proceso vocal como el conocido Autotune, que permite corregir errores de afinación de voces e instrumentos en el proceso de grabación y mezclas, ha elevado aún más el carácter de simulación de la obra musical. Gracias a esto, el lema del chef Gousteau, en cuyo restaurante tiene lugar la historia narrada en el largometraje de Pixar Ratatouille, ‘cualquiera puede cocinar’, se instaura en el panorama musical del siglo XXI: ‘cualquiera puede cantar’.

Impacto en el público

¿Se puede medir el alcance y el impacto de esta estandarización sobre el gusto del público? Sin ser totalmente concluyentes, dos encuestas realizadas por las publicaciones Q Magazine y New Musical Express para establecer un ranking de los 50 mejores discos de la historia del pop-rock, reveló un dato importante: los primeros 15 puestos en un caso y los primeros 20 en otro fueron ocupados por álbumes producidos antes de la década de 1990 (fecha en la que comienzan a utilizarse los primeros sistemas de grabación digital multipista).

La encuesta realizada por Q Magazine estaba encabezada por Oasis (puestos 1 y 2, con los discos Definitely Maybe y (What’s the Story) Morning Glory?), Radiohead (tercer puesto, con OK Computer), The Beatles (cuarto y sexto puesto, con Revolver y Sergeant Pepper’s) y Stone Roses (quinto puesto, con el álbum Stone Roses). En el caso de New Musical Express, el resultado fue prácticamente idéntico: The Beatles se situaron en los puestos segundo y tercero y Nirvana tomó el sexto puesto con su disco Nevermind, dejando a Stone Roses en el séptimo lugar.

Si bien puede pensarse que la vinculación emocional con ciertas canciones más conocidas y escuchadas podía orientar esta clasificación, en el terreno del análisis por parte de profesionales de la industria se repite esta valoración. En el Congreso de la AES (Audio Engineering Society) celebrado en París en 2006 se presentaron, durante una conferencia referente a la ‘masterización’ musical[5], los resultados de otra encuesta realizada entre ingenieros de sonido sobre los álbumes mejor ‘masterizados’ de la historia del pop-rock: ninguno de los veinte primeros era posterior a la década de 1980.

Vuelta a lo clásico

Una de las tendencias más recientes es, sin embargo, la de una vuelta a esa tradición perdida. Son muchos los grupos que reivindican la grabación en el estudio de la forma que se hacía antes de la aparición de los sistemas digitales: tocando todos el tema como si se tratara de un concierto, en un intento por captar la esencia de la música que nace de la interpretación en vivo, la complicidad entre los músicos en el desarrollo del tema, la improvisación y la propia emoción del directo.

El estudio de grabación Emil Berliner Studios[6] en Berlín ha sustituido (y renovado) el concepto de grabación direct to disk, acuñado con la llegada del audio digital para indicar que la grabación se realiza directamente sobre el disco duro del sistema informático, por el de direct to disc. La grabación no se hace sobre ningún sistema informático o un grabador multipista tradicional, sino que se realiza directamente sobre el disco de vinilo, es decir, sobre el soporte máster final. No hay retakes (segundas tomas), no hay grabación por pistas, no hay proceso de edición o posprocesado de sonido. El grupo toca cada tema de principio a fin, con todos los músicos a la vez, y la señal capturada por los micrófonos pasa en tiempo real por la mesa de mezclas y los procesadores de sonido para terminar en el registro del disco de vinilo. Todo a la vez, en una sola toma. Un nuevo concepto de producción discográfica que pone en valor la espontaneidad del momento de la ejecución, la complicidad entre los músicos en ese instante único e irrepetible. Es el caso también del álbum de Jorge Drexler, Cara B, grabado en varias actuaciones en directo. En los créditos del álbum encontramos, tras una lista de los conciertos en los que se realizaron grabaciones para el disco, la siguiente aclaración: «Salvo las voces de Arnaldo Antunes y Pablo Drexler que aparecen en Disneylandia, todos los sonidos que se oyen fueron grabados en esos días y provienen del escenario y de su entorno: el patio de butacas y la ciudad. / No hubo sobregrabaciones posteriores. / La voz no fue afinada digitalmente».

El disco que nunca existió

La llegada del audio virtual, de la mano del desarrollo de la ciencia informática y la ingeniería, ha provocado transformaciones incluso más profundas en los ámbitos de la comercialización y el consumo. Si bien esto sería objeto de otro estudio, apuntamos aquí un caso que bien pudiera representar la virtualización del producto de consumo. Si Sergeant Pepper’s Lonely Hearts Club Band es el primer álbum conceptual de la historia de la música pop, con trece temas en un solo disco y con un nexo de unión entre todos ellos, Concert in the garden, de la compositora de jazz María Schneider, podría definirse como ‘el disco que nunca existió’.

Para la producción de este su segundo álbum, Schneider utilizó Artist Share para cubrir todos los gastos de grabación del álbum. Esta plataforma de crowfounding para proyectos musicales introduce una nueva figura en este mercado: el composer participant, que podríamos traducir como ‘patrocinador del compositor’. El consumidor final realiza una donación al artista, destinada a la producción del álbum, garantizándose una copia del mismo una vez que este esté finalizado. Según declaraciones de la propia Schneider, el presupuesto del disco, 87.000 dólares, se había cubierto mediante las donaciones voluntarias de sus fans antes incluso de comenzar la grabación. Una vez finalizado, el disco se comercializó únicamente mediante descarga directa entre todos sus benefactores. En 2005, el álbum ganó el Grammy al Mejor Gran Ensemble de Jazz, sin que existiese una sola copia física (en disco compacto) del mismo.

Notas para el futuro

Además de los efectos que el concepto de audio virtual está teniendo actualmente sobre la forma de crear música, podemos apuntar una serie de tendencias de un futuro muy próximo (casi presente ya), que se orientan en dos líneas principales. Por un lado, una mayor expresividad del músico, especialmente orientada hacia un modo de crear y modelar la música que ponga en práctica otro tipo de interacción hombre-máquina. Proliferan cada vez más aplicaciones para smartphones y especialmente para tablets que permiten crear música a través de diferentes tipos de gestos sobre la pantalla del dispositivo, como Gestrument[7], que genera secuencias MIDI de distintos timbres, duraciones y alturas tonales en función del desplazamiento del dedo sobre la pantalla; o SoundBrush, que crea notas y melodías a partir de trazos, líneas y formas pictóricas. Leap Motion, un dispositivo sensor que permite controlar aplicaciones informáticas mediante gestos en el aire, usando tanto los dedos como las manos, ha desarrollado la aplicación GECO[8], que convierte los gestos de las manos en mensajes MIDI, permitiendo modificar parámetros como la intensidad, el vibrato, la velocidad o el tono de forma tan natural y expresiva como es el movimiento de la mano.

Internet, y más concretamente el uso de servicios on line, es la segunda línea de desarrollo que el audio virtual está propiciando. Aunque hace ya años que las redes ISDN y ADSL se usan para poder realizar y monitorizar grabaciones a distancia, la posibilidad de componer ‘en la nube’ y de crear temas de forma colaborativa está comenzando a ofrecerse actualmente al usuario final. East West, la compañía antes citada perteneciente al sector de los instrumentos virtuales, lanzó en abril de 2015 el servicio Composer Cloud[9], gracias al cual los músicos pueden disfrutar mediante una suscripción mensual de 30 dólares de toda la colección de instrumentos virtuales de la compañía (más de 10.000). Steinberg[10], creador de los estándares de plug-ins VST y de instrumentos virtuales VSTi y fabricante del secuenciador Cubase, lanzó en 2012 VST Connect Pro, una solución que permite la grabación multipista a través de Internet, acompañada por herramientas de protección de datos, gestión de mensajes MIDI y vídeo chat. De forma similar Avid, la firma de Pro Tools, el software estándar en la industria de la producción musical, lanzó en enero de 2016 Avid Cloud Collaboration[11], una plataforma on line para establecer una red de artistas, músicos, productores e ingenieros con el objetivo de crear música de forma colaborativa, compartiendo pistas de audio y MIDI, ajustes de plug-ins y de mezcla.

Nuevas herramientas para nuevos músicos, que requerirán el desarrollo de nuevas competencias y abrirán las puertas a nuevas formas de creación, a nuevos estilos y nuevas formas de consumo, en un contexto cada vez más globalizado, donde un nuevo espacio acapara cada vez más nuestra atención: el espacio (sonoro) de lo virtual.

Bibliografía

Brunt, S. D. y Johnson, H. (2013). ‘Click, Play and Save’: The iGamelan as a Tool for Music-culture Sustainability. Musicology Australia, 35(2), 221-236.

Bianchi, F. W. y Campbell, R. H. (2000). The Virtual Orchestra. Technical and Creative Issues. Journal of Sound and Vibration, 232(1), 275-279).

Campbell, R. H. y Bianchi, F. W. (1998). The virtual orchestra: acoustical and audio engineering issues. The Journal of the Acoustical Society of America, 103(5), 2824.

Cuadrado, F. (2015). The use of sequencer tolos during the composition process: A field study. Journal of Music, Technology & Education, 8(1), 55-70.

Kaloterakis, S. (2013), ‘Creativity and home studios : An in-depth study of recording’, Journal on the Art of Record Production, 8, pp. 1-7, http://arpjournal.com/creativity-and-home-studios-an-in-depth-study-of-recording-artists-in-greece/. Consultado 20 Septiembre 2016.

Kopiez R., Wolf A., Platz F. y Mons, J. (2016) Replacing the Orchestra?-The Discernibility of Sample Library and Live Orchestra Sounds. PLoS ONE 11(7): e0158324. doi:10.1371/journal.pone.0158324. pmid:27382932

Marrington, M. (2011). Experiencing musical composition in the DAW: The software interface as mediator of the musical idea. Journal on the Art of Record Production, 5, 1-6. Disponible en: http://arpjournal.com/845/experiencing-musical-composition-in-the-daw-the-software-interface-as-mediator-of-the-musical-idea-2/ [Consulta: 2016, 1 de octubre].

Roca, F. (2004). Creativity and musical communication in new technologies. Comunicar, 23, 31-36.

Talens, J. (2000). El sujeto vacío. Madrid: Cátedra.

Tavev, G. & Bozinovski, A. (2013). Virtual Studio Technology and Its Application in Digital Music Production, (Ciit), 182-186.

Théberge, P. (2012). The end of the world as we know it: The changing role of the studio in the age of the Internet. En S. Frith y S. Zagorski-Thomas (Eds), The Art of Record Production: An Introductory Reader for a New Academic Field, pp. 77-90. London: Ashgate.

– (1997). Any Sound You Can Imagine: Making Music/Consuming Technology. Middletown, CT: Wesleyan University Press.

Tomaz de Carvalho, J. (2012). The discourse of home recording: Authority of ‘Pros’ and the sovereignty of The Big Studios. Journal on the Art of Record Production [en línea], 7. Disponible en: http://arpjournal.com/2149/the-discourse-of-home-recording-authority-of-«pros»-and-the-sovereignty-of-the-big-studios/ [Consulta: 2016, 15 de septiembre].

Walzer, D. (2016). Software-Based Scoring and Sound Design: An Introductory Guide for Music Technology Instruction. Music Educators Journal, 103(1), 19-26.

Notas

[1] Véase: http://www.vsl.co.at

[2] Véase: http://www.soundsonline.com

[3] Véase: http://www.hispasonic.com

[4] Véase: http://www.soundsonline.com/Fab-Four

[5] Conferencia titulada Mastering – Challenging the ‘hot CD’. What’s the problem and what’s the solution?, dentro del apartado Application Seminars del Congreso anual de la AES.

[6] Véase: http://www.emil-berliner-studios.com

[7] Véase: http://www.gestrument.com

[8] Véase: http://uwyn.com/geco

[9] Véase: http://www.soundsonline.com/composercloud

[10] Véase: http://www.steinberg.net

[11] Véase: https://www.avid.com/avid-cloud-collaboration-for-pro-tools

Artículo extraído del nº 106 de la revista en papel Telos

Ir al número Ir al número


Avatar

Francisco José Cuadrado Méndez

Comentarios

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *