PH: Many Warman, Archivos de la Universidad de Columbia
Mario Davidovsky fue reconocido mundialmente por sus contribuciones fundamentales en el ámbito de la música electroacústica. Ha recibido encargos de múltiples organizaciones, como la Philadelphia Orchestra, la San Francisco Symphony Orpheus Chamber Orchestra, los cuartetos de cuerdas Emerson y Juilliard, Speculum Musicae entre otras.
Nació en Médanos, provincia de Buenos Aires, un 4 de marzo de 1934. Residió en los Estados Unidos desde comienzos de los años 60 hasta el 23 de agosto de 2019, fecha en la que murió, a sus 85 años.
Hoy, en el aniversario de nacimiento, deseamos recordar la charla que brindó hace unos años en el Centro de Experimentación del Teatro Colón (CETC) y que transcribimos para nuestra revista Nº1.
El domingo 17 de agosto de 2014 se realizó en CETC (Centro de Experimentación del Teatro Colón) una charla abierta entre el compositor Mario Davidovsky y el Director del CETC, Miguel Galperín. Con este evento se dio fin a Davidovsky 80, serie de dos conciertos con la participación especial del ensamble Nunc (Nueva York) interpretando sus obras. La siguiente es una desgrabación que realizamos con autorización del compositor.
Miguel Galperín: Recuerdo algo que me dijiste hace unos años en el encuentro de compositores que organizas en Wellesley, Estados Unidos. ¿Por qué la electrónica siempre va detrás del instrumento?¿Por qué no puede anticipar? Si querés podemos empezar con esto como introducción.
Mario Davidovsky: Un pianista y un violinista se pueden guiñar un ojo y entender dónde están, pero la grabadora no puede guiñar el ojo, la grabadora está congelada, así que uno tiene que crear una situación en la que el sonido electrónico y el intérprete se comuniquen. En cierto sentido hay que empotrar en la parte electrónica, ciertas pautas logísticas, para que el músico entienda dónde está. Y hay que hacerlo elegantemente para que no parezca una pauta sino parte de la música.
Este problema, de integrar al intérprete con la cinta, se remite a los años sesenta donde las únicas piezas que existían era una de Varese, donde hay interpolaciones, pero no los dos elementos juntos, también alguna pieza de Stockhausen y otra de un compositor americano para orquesta y cinta magnética, pero el problema para mi seguía estando, no había integración sino yuxtaposición. La orquesta tocaba en temperamento igual y la cinta en otro tipo de temperamento, por lo que había muchos problemas básicos por resolver. Yo me interesé en hacer una integración que fuera como música de cámara. La pieza que acaban de escuchar (Sincronismo nro. 6) comienza con un sol y un crescendo, la idea es meter la música electrónica dentro del piano y el piano dentro de la música electrónica a tal punto que se conviertan en un híbrido de sonido. Ese comienzo no es natural en el piano porque es un crescendo sobre una misma nota, muchas de las ideas eran de como destruir la acústica natural de un instrumento y ver cómo rearmar otro tipo de acústica donde los sonidos se pueden encontrar de una forma artísticamente aceptable.
Son doce los Sincronismos, hasta ahora, y lógicamente la tecnología cambió desde el primero que escribiste en los años sesenta hasta el último que hoy escucharemos al final de la charla. ¿Cómo te relacionaste con los cambios tecnológicos?
Se podría decir que no me relacione… En un principio cuando comencé a trabajar con la música electrónica y llegué al laboratorio de Columbia y Princeton, prácticamente no había nada. Había un compositor de Turquía que en cierto sentido fue mi maestro. Él estaba asistiendo a Varese porque estaba reconstruyendo algunas obras que se estaban por grabar. Así que yo llegué y había una situación muy especial. El equipamiento era muy básico, un conjunto de unidades elementales. Yo aprendí viendo como las usaba mi maestro.
Todavía no había programas así que yo tomaba nota de todo lo que iba sucediendo. Por esos años ‘61, ‘62 hubo un gran concierto en Nueva York, preparado con veinte parlantes situados en los costados y en el techo. El local era un lugar para dar conferencias de la facultad de derecho. Allí se dio una situación medio difícil porque la gente estaba mirando un escenario donde no pasaba nada. Había cuatro o cinco cajones muy feos y la gente estaba como en “camisa de fuerza”.
El sonido era muy bueno pero la situación no estaba bien recreada. Entonces, a partir de ahí se me ocurrió introducir una persona en el escenario, pensé que si una persona estaba tocando un instrumento en contra de la cinta habría una cierta continuidad psicológica entre la audiencia y lo que pasaba en escena. Así que de alguna manera todo comenzó por una cuestión política, para ayudar a la música electrónica a ser más aceptada.
Por otro lado, cuando ya había aprendido como el sonido se procesa y que es lo que el sonido puede hacer sin intérpretes y con máquinas electrónicas, descubrí que había un montón de cosas hermosas que no existían en la literatura porque no se podían tocar. Entonces traté de traducir esos nuevos sonidos para ser incorporados en la música de cámara.
Es importante señalar que los compositores fueron los que empujaron a los técnicos para que avance la tecnología. En esos años venía Robert Moog al laboratorio de Columbia y nos preguntaba que tipo de máquina nos hacía falta. Años después se descubrió que con la música electrónica se podría tener resultados muy favorables en términos económicos, y fue en ese momento que la tecnología se disparó. A partir de allí una sola persona podía por ejemplo, realizar la música de una película sin necesidad de músicos ni copistas.
En otra de las charlas que tuvimos en aquella ocasión, hablaste de intentar lo imposible, lo que uno sabe que no se puede pero mejorarlo. Lo cual es contradictorio e interesante.
La búsqueda de la perfección es así, sabemos que no podemos llegar pero seguimos tratando. Y sabemos muy bien que cada vez que nos movemos dos centímetros haciendo algo bueno, la perfección se encuentra a un metro. Es decir, lo imposible es lo único posible que nos interesa.
Antes de los sincronismos había escrito una pieza para orquesta de cámara y en ese momento pude darme cuenta que cuando uno trabaja con un instrumento, éste está definido acústicamente por el lugar y después tenés dos parlantes que de alguna manera también están definidos por el lugar pero al mismo tiempo ofrecen la posibilidad de muchos espacios internos. A partir de ahí y hasta la actualidad la idea de trabajar con espacios internos es algo que me inspira mucho.
¿Pensás en términos de polifonía en relación a los espacios?
Sí, lo primero que hice en relación a eso, fue tomar el tema de la 9° Sinfonía de Beethoven (El coral) y como todavía no había un aparato que pudiera tocar una melodía, tuve que grabar cada nota y después pegarla, casi como una “carpintería medieval”. Así fue que armé la melodía de Beethoven, pero poniendo cada nota en un espacio diferente. La primera nota estaba, por ejemplo, en el Teatro Colón, la segunda en el ropero y la tercera en el living.
El resultado final fue una melodía que se movía hacia arriba y abajo y hacia los costados, así fue que el espacio se convirtió en una especie de polifonía misteriosa. Este experimento fue muy didáctico, aunque no muy refinado porque no había técnica todavía. Pero este concepto de los espacios abrió el panorama a tal punto que no pude dormir por mucho tiempo, todavía me sigue sacando el sueño.
PREGUNTAS DE LA AUDIENCIA
¿Cómo se decidió a escribir para guitarra?
La obra fue encargada por David Starovin, guitarrista de Nueva York. Este sincronismo fue el más difícil. Principalmente por la gran delicadeza y al mismo tiempo la enorme riqueza tímbrica del instrumento. Cuando era chico había tocado el violín, así que por lo menos sabía lo que era una cuerda. Pero igualmente antes de comenzar a escribir, me pasé dos meses estudiando la guitarra, tratando de entender qué era lo idiomático del instrumento. Buscando que la música que luego escribiría fuera realmente para guitarra. Pero lo que ocurrió fue que recién al terminar la obra, sentí que ahí podía escribir para guitarra, porque estaba más seguro de sus posibilidades. Para asegurar esta sensación fue que escribí Festino, para guitarra, viola, violonchelo y contrabajo.
¿En qué parámetros te basas para seleccionar los sonidos electrónicos?
Con el paso del tiempo, comencé a recordar los sonidos con los que trabajaba, así como podemos recordar los sonidos de los instrumentos convencionales. Estos sonidos electrónicos se convirtieron en un elemento más de mi paleta tímbrica. El timbre y el espacio se convirtieron en elementos de trabajo como la altura, el ritmo o la dinámica. Si bien incorporamos ciertos elementos, la manera de componer no es diferente a la de obras más convencionales.
¿Cuáles fueron los aportes más significativos de la tecnología al lenguaje musical?
El aporte es enorme. Por ejemplo LONTANO de Ligety no hubiera existido si él no hubiese trabajado con música electrónica. (M.E) Además, si un intérprete de flauta o violín tuviera que hacer un cambio dinámico de sforzato a piano súbito, esto le llevaría un tiempo extra. En la M. E no hay problema, se puede hacer ese cambio en un milisegundo. Entonces cuando yo necesitaba hacer un cambio dinámico similar, pensé si un violín no puede, seguro que dos violines si pueden realizarlo. Esta orquestación de la dinámica no hubiera existido sin la influencia de las posibilidades de la M.E.
Se podría decir que la música se volvió como tallada con filo de diamantes.
Con su Sincronismo 6, para piano y electroacústica, Davidovsky ganó el Premio Pulitzer en 1971.