Música, ordenadores y el gesto continuo

J.J. Burred

Artículo publicado en Input Magazine #2, Madrid, Septiembre 2014

En mayo de 1957, Max Mathews y su equipo de investigadores de los Bell Labs en Nueva Jersey cargaron el maletero de un coche con varias cajas que contenían miles de tarjetas perforadas, el formato de almacenaje informático predominante en la época. Su objetivo era llevar a procesar los datos al potente ordenador IBM 704, que ocupaba una gran sala en la sede del ya por aquel entonces gigante de la computación en la avenida Madison de Nueva York, y cuyo uso se alquilaba a 600 dólares la hora. Ni siquiera los formidables recursos económicos que Bell destinó a sus laboratorios alcanzaban para albergar en sus instalaciones un ordenador de la potencia requerida para la tarea que Mathews tenía en mente. Tras varias horas de espera y de tiempo de cálculo, el 704 almacenó el resultado en una cinta magnética que fue conducida de vuelta al laboratorio. Una vez allí, la cinta fue sometida a la última etapa del complejo tratamiento: la conversión de los datos digitales que contenía en sonidos. El resultado final de todo este arduo proceso: una sencilla melodía de 17 segundos de duración [1].



Ordenador IBM 704 en la sede de la avenida Madison de Nueva York, 1954 (fuente)

Aquel día nació la generación digital de sonidos por ordenador, es decir, la síntesis sonora por medio de software. Ya existían en ese momento importantes estudios de música electroacústica repletos de aparatos analógicos (como osciladores, filtros, moduladores), con los que aventureros como Karlheinz Stockhausen, John Cage o Gottfried Michael Koenig llevaban años experimentando. Tampoco eran novedad los instrumentos musicales electrónicos y electromecánicos, como el theremin (1919), las ondas Martenot (1928) o el órgano Hammond (1938). Pero en todos esos casos, la paleta sonora era limitada. La síntesis por software iniciada por Mathews permitía la definición exacta, desde cero, de un sonido arbitrario; en teoría, de cualquier sonido posible. Por primera vez era factible crear ondas sonoras que no fueran el resultado de la vibración de un sistema físico. Las posibilidades eran infinitas, pero el método originario de organizar una expedición a la avenida Madison no era extremadamente eficiente, y el tiempo total entre programación inicial y resultado sonoro dependía de factores externos como la lista de espera para usar el 704 o el tráfico en la interestatal.

Las limitaciones derivadas de la baja capacidad de cálculo se fueron paliando gradualmente, pero hasta entrados los años 90, el proceso de generación sonora con ordenadores siguió consistiendo en las etapas de programación, cálculo, y escucha, minutos u horas después, del resultado. La síntesis por software emancipó al sonido de su fuente material, pero quedaba una asignatura pendiente: los ordenadores, como herramientas de cálculo sonoro en diferido, no eran aptos para la interpretación en vivo. Los sonidos de ordenador, precalculados y pregrabados, sólo se podían reproducir inalterados como parte de una obra. Además, debido a la dificultad de uso de los primeros lenguajes de síntesis por ordenador y al alto coste de los equipos, su uso quedó limitado a un grupo reducido de especialistas. Mientras los sintetizadores hardware, la mayoría con teclado de piano incorporado, empezaron su carrera fulgurante a partir de finales de los 60, la síntesis con ordenadores basada en lenguajes de programación, mucho más flexible en cuanto a control y posibilidades sonoras, permaneció prácticamente desconocida fuera de los laboratorios.

En la actualidad, los ordenadores están acercándose a los requisitos interpretativos de los instrumentos musicales tradicionales: tangibilidad, interactividad, inmediatez. Queda camino por recorrer, pero hoy ya es posible ver instalaciones sonoras interactivas, interfaces que generan intrincadas texturas sonoras en respuesta a gestos del intérprete, bailarines que crean música con sus movimientos, programas que improvisan en directo imitando al solista humano al que acaban de “escuchar”. Existe un microcosmos de conjuntos musicales y compositores especializados en el uso de tales tecnologías del tiempo real, habitualmente asociados a centros de investigación en tecnología musical como el CCRMA (Center for Computer Research in Music and Acoustics, pronunciado karma) de la Universidad de Stanford en California, el IRCAM (Institut de Recherche et Coordination Acoustique/Musique) del Centro Pompidou de París, o el MTG (Music Technology Group) de la Universidad Pompeu Fabra de Barcelona, por citar algunos de los principales. Aun poco conocidos por el gran público, este tipo de dispositivos han empezado recientemente a abandonar el ámbito estrictamente académico e institucional y se están abriendo paso en la música y culturas populares.

En el caso concreto de los instrumentos de teclado, existen ya desde hace más de una década una gran multitud de programas, los llamados softsynths, que se acercan en calidad sonora y tiempo de respuesta a los sintetizadores físicos. Lo mismo puede decirse de todo generador de sonido que responda a una entrada consistente en una lista de eventos puntuales o gestos discretos: teclas apretadas, pedales pisados, tambores golpeados, etc. Hay emuladores de pianos acústicos y eléctricos, sintetizadores analógicos y digitales, baterías, que a muchos efectos ofrecen una calidad suficiente y, en algunos casos, prácticamente indistinguible.

El reto actual, sin embargo, consiste en crear sistemas que respondan de forma natural a gestos continuos, como el movimiento de arco de un violinista o el giro de un bailarín. “Gesto” se entiende aquí en un sentido amplio: cualquier magnitud física continua en el tiempo que constituya la entrada a un sistema de síntesis. Pueden ser movimientos, como los mencionados, pero también fluctuaciones de aire (por ejemplo para simular instrumentos de viento), de temperatura, de presión, o incluso el sonido ambiente captado mediante micrófonos. La dificultad de los sistemas de síntesis controlados por gestos continuos radica en diseñar un método que analice el gesto, extraiga características relevantes, y use estas últimas para controlar determinados parámetros del sonido a generar. Y además, que haga todo esto en tiempo real (en el rango de los milisegundos).

Algunos avances importantes en este campo proceden del MTG de Barcelona. Allí se desarrolló la que quizás sea la interfaz musical en tiempo real mejor conocida por el gran público: la Reactable [2]. Esta se concibe como una interfaz de DJ aumentada, en la que botones y deslizadores han sido sustituidos por giros y traslaciones de unos cubos de plástico sobre una superficie bajo la cual se esconde un sistema de reconocimiento de imagen. El cual, a su vez, traduce los movimientos a parámetros de síntesis o de efectos sonoros. El uso de la reactable por parte de Björk en su gira de 2007 impulsó la popularidad del dispositivo, la cual ha permitido su comercialización por parte de una spin-off del grupo universitario. En la actualidad, el grupo trabaja en dotar a la Reactable de sensores de fuerza que permitan aumentar la fidelidad del gesto analizado.

Otros sistemas escapan de las dos dimensiones e interpretan gestos en el espacio. Es el caso del trabajo del investigador Esteban Maestre, también del MTG [3]. Su objetivo es aumentar el realismo de la síntesis de instrumentos de cuerda frotada mediante la captación mediante sensores de los movimientos del arco y del instrumento. Los sonidos así generados adquieren una cualidad orgánica y realista de la que carecen los producidos mediante sintetizadores o samplers tradicionales. Otro ejemplo es el sistema Modular Objects (MO) [4] del IRCAM, basado en el uso de pequeños objetos con sensores que transmiten de forma inalámbrica al ordenador. En este caso no se busca simular un instrumento real, sino analizar gestos arbitrarios que un diseñador sonoro puede asociar libremente a sus resultados acústicos.

La forma ideal de apreciar las capacidades (y limitaciones) de los últimos avances en este campo es en situación de concierto. Los citados centros de investigación organizan ciclos y festivales que sirven de vehículo de presentación de sus tecnologías. Por seguir con los dos centros citados, el IRCAM colabora estrechamente con el Ensemble Intercontemporain y organiza cada junio el festival ManiFeste, y el MTG está asociado a la Fundación Phonos y sus ciclos de conciertos. Muchas de las obras recientes allí interpretadas aprovechan las tecnologías del tiempo real y ofrecen al espectador una muestra de lo que se está gestando en los laboratorios.

La reciente obra Voir-Toucher de Lorenzo Pagliei, estrenada en París en junio de 2013, constituye una buena ilustración de ello. Durante la pieza, los tres intérpretes golpean, frotan, acarician unas superficies de madera cuyas formas curvas evocan los perfiles de varios instrumentos musicales [5]. Cada superficie cuenta con un sensor conectado a un ordenador que analiza y clasifica cada gesto, y sintetiza los sonidos. La relación entre gesto y resultado sonoro es directa e inmediata: las fluctuaciones y matices que ocurren durante el transcurso de cada gesto se reflejan instantáneamente en el sonido. Las sencillas piezas de madera dan lugar de esta forma a una amplia gama de sonidos electrónicos, muchos de timbre metálico o con resonancias similares a las de campanas, pero que resultan todos ellos de una paradójica naturalidad.


Estreno de la obra Voir-Toucher de Lorenzo Pagliei, París, 2013 (fuente)

Las tecnologías del tiempo real han permitido, asimismo, convertir a la danza en generadora de música. Un ejemplo entre las obras recientes basadas en este nuevo paradigma es Glossopoeia de Alberto Posadas, estrenada en 2009. Los movimientos de un bailarín son captados mediante sensores y actúan instantáneamente sobre el sonido. Sensores de este tipo empiezan a aparecer también en el pop; cabe citar los ejemplos de la cantante inglesa Imogen Heap y de la francesa Émilie Simon.

A pesar de todas las nuevas posibilidades brindadas por las nuevas interfaces musicales, el avance reciente más significativo tal vez sea la creciente facilidad de acceso y utilización. La combinación de Arduino (la popularísima plataforma de hardware libre) con lenguajes de síntesis sonora en tiempo real como Max (así llamado en honor a Max Mathews) o su primo hermano de código abierto Pure Data, están permitiendo a un gran número de artistas, compositores y aficionados experimentar con el gesto continuo como generador sonoro. Prueba de ello es el gran número de instalaciones sonoras interactivas que, cada vez más, pueblan las galerías y museos, y los numerosos talleres y comunidades de hardware libre centrados en la creación musical.

¿Cuáles son las limitaciones actuales? Es necesario aumentar el grado de precisión, la sensibilidad a los matices, la intimidad del control. En el caso de las interfaces tangibles, está aun por alcanzar el nivel de corporeización (embodiment) de la relación entre intérprete y dispositivo con el que cuentan muchos instrumentos tradicionales. Otro aspecto importante a mejorar es la predictibilidad: a gestos parecidos, el sistema tiene que responder con sonidos parecidos (la dificultad aquí radica en equilibrar lo que entienden intérprete y máquina como “parecido”). La mejora de todos estos factores contribuirá a que los futuros intérpretes logren una destreza técnica y expresiva que saquen el máximo partido de los sistemas en tiempo real.

Durante una entrevista justo un año antes de morir en abril de 2011 a los 85 años, Max Mathews demostraba su Radio Baton, una interfaz musical relativamente sencilla basada en antenas y ondas de radio [6]. El Radio Baton fue inventado en los años 80, y aunque revolucionario en su época, hoy no puede decirse que esté a la vanguardia tecnológica. Sin embargo, un ilusionado Mathews jugueteaba y se recreaba con los acelerones y frenazos que sus movimientos provocaban en una grabación de la quinta de Beethoven. Al final de su vida, el hombre que transformó las máquinas de calcular en instrumentos musicales había alcanzado un sueño: convertir el movimiento en música, y a los ordenadores, en invisibles.



Referencias

[1] La pieza en cuestión fue compuesta por Newman Guttman y lleva por título The Silver Scale. Este y otros ejemplos tempranos de la síntesis digital pueden escucharse en el álbum “The historical CD of Digital Sound Synthesis” editado por el sello Wergo (número de catálogo 20332).

[2] http://mtg.upf.edu/project/reactable

[3] https://ccrma.stanford.edu/~esteban/

[4] http://interlude.ircam.fr/

[5] https://www.youtube.com/watch?v=6Si2Y9Sm4AE

[6] https://www.youtube.com/watch?v=6Si2Y9Sm4AE