top of page
  • Foto del escritor: Daniel Montañez
    Daniel Montañez
  • 3 may 2020
  • 2 Min. de lectura

A lo largo de Sonus in motu el gesto y sus características e implicaciones son parte del eje transversal a toda la obra pues se constituyen como materia prima para el desarrollo de las piezas, sus contextos, sus replanteamientos del movimiento y su identidad unificadora.


De principio a fin, la gestualidad se ve replanteada y puesta en diferentes perspectivas acorde con los niveles de literalidad de movimiento que se describen en cada pieza. En la primera pieza se plantea una gestualidad literal, con correspondencia sonora inmediata puesto que el cuerpo controla la interfaz de comunicación (kinect) y el computador devuelve una respuesta sonora a través del análisis y enrutamiento de los datos del movimiento en tiempo real. Este es un nivel inicial de gestualidad, el gesto como origen del sonido y en menor medida, el sonido como factor de recontextualización del movimiento, pues a medida que la intérprete escucha lo que su movimiento origina, transforma su gestualidad para relacionarse con el sonido.


Sucede algo similar en la segunda pieza, en la que el gesto se ve representado de manera menos literal pues las muestras sonoras son de naturaleza evocativa e inducen a la intérprete a plantear una narrativa con sus decisiones en escena. Hablamos entonces de un segundo nivel de gestualidad en el que el gesto valida al sonido por cuanto le proporciona un vínculo visual y semiológico, le atribuye una posible relación con una fuente sonora equilibrada en términos acusmáticos.


Para la tercera pieza, el gesto se ha convertido en el objeto de composición. Es entonces como el material sonoro se concibe desde el propósito de lograr la conjunción semiológica y la correspondencia en un nivel de literalidad más abstracto y expresivo. Es en este tercer nivel de gestualidad en donde el gesto se compone a través del sonido.


En la cuarta pieza, abandonando la literalidad casi por completo, el gesto y el sonido responden a nociones cuyo nivel de abstracción es considerablemente más etéreo. La tangibilidad del material sonoro y sus características obedecen a un marco de referencia extramusical que pone la técnica al servicio del estatismo, la contemplación y la expresividad. En este cuarto nivel de gestualidad la correspondencia entre sonido y gesto se torna lejana y demanda un mayor nivel de profundidad.


Para finalizar, en la quinta pieza se replantean una vez más las condiciones de causalidad y jerarquización de la gestualidad frente al sonido, propiciando la creación contínua a través de un gesto artificial, un movimiento sintético mediado por el movimiento digital y una sonoridad que resignifica al gesto y se vale de él para resignificarse. Este quinto nivel de gestualidad puede ser el más simbiótico y homogéneo de los cinco.




Video explicativo que expone el desarrollo de manera narrativa.



  • Foto del escritor: Daniel Montañez
    Daniel Montañez
  • 3 may 2020
  • 2 Min. de lectura

Esta pieza explora la gestualidad desde los ámbitos de control, desplazamiento, improvisación y disociación conceptual. A través de la cámara web, se parametrizó el espacio en escena de manera que solo al pasar por ciertas zonas del escenario se desencadenara el comienzo de un evento sonoro, a saber, se diera inicio a la reproducción de una muestra de audio previamente determinada.

Para el material sonoro, se usaron veinte muestras de audio seleccionadas de la colección de sonidos que el INA/GRM puso a disposición del público a través de internet. Se emplearon sonidos extraídos de piezas de Francois Bayle y Pierre Schaeffer para construir una atmósfera de características lontanas, a veces de carácter fuerte en términos dinámicos y otras tantas con un bajo nivel de intensidad. Este material sonoro fue procesado en tiempo real a través del software de código abierto Pure Data, usando resonadores, reverberación y reproduciendo simultáneamente la muestra a diferentes velocidades, logrando una transformación tímbrica del material original.

La intérprete controla a través de su desplazamiento en el espacio, cada cuánto tiempo comienza a reproducirse la muestra que se halla alojada en la memoria temporal del computador en determinado momento. A pesar de que conoce todas las muestras y se ha familiarizado con ellas, no sabe en qué orden se almacenarán en la RAM, pues a través del patch diseñado en Pure Data la muestra vigente cambia cada 15 segundos. Lo anterior implica que la intérprete tendrá que reconocer el material y adaptarse en tiempo real. Estas implicaciones son contempladas como recurso compositivo en la medida en que cada vez que se interpreta la pieza, el resultado, el material general y la duración, varían de acuerdo al intérprete y las decisiones que tome en el momento.


Ahora bien, dado que el intérprete es libre de reproducir la muestra vigente tantas veces como pueda en 15 segundos, alterará el transcurso de la pieza cada vez que lo haga, pues sin importar en qué parte de la muestra se encuentre volverá al inicio y pasada su ventana de tiempo la muestra cambiará y continuará reproduciéndose desde donde debería seguir la muestra anterior.

Las características anteriormente mencionadas convierten a la pieza en una que se reorganiza y se transforma in situ, y a pesar de que no se constituye como una pieza indeterminada en el sentido estricto de la palabra, su forma, aunque limitada y contemplada, es abierta y versátil.


Sonus in motu: II. "De corpus sonus" completa


Fig 1. Patch en PD para enrutar y determinar el orden de las muestras.

Fig 2. Patch en PD para activar la reproducción de muestras a través de la webcam.


bottom of page