Afficher le menu

Entretien avec Valerio Sannicandro

Entretien Par Serge Lemouton, le 15/04/2007

Sannicandro
ius lucis : ce titre en latin est bien énigmatique…
On pourrait traduire par « la raison de la lumière », « la loi de la lumière ». L’idée de départ était d’établir une comparaison entre des phénomènes optiques et acoustiques. La transformation des sons par ordinateur, à l’aide du principe de la synthèse croisée, s’apparente à une polarisation, c’est-à-dire un phénomène optique qui se produit lorsque les photons sont en phase. Le principe est le suivant : deux sons instrumentaux sont « croisés » de telle sorte qu’un son présent dans une salle (l’espace de projection de l’Ircam, qu’on appelle « l’Espro ») prend la phase d’un autre, situé dans une autre salle (la Grande Salle du Centre Pompidou), de façon à obtenir un son hybride. Treize musiciens seront présents dans la Grande Salle, disposés selon une configuration  frontale, et six dans l’Espro, placés aux quatre coins et au milieu des côtés.
Le thème de ius lucis est l’espace, dans tous les sens du terme. Je dis bien « espace », et pas seulement « spatialisation », je vais m’en expliquer. Jusqu’à maintenant, la synthèse en temps réel a été utilisée entre un son instrumental – ou vocal – et des sons enregistrés, c’est-à-dire une machine. Ici, nous avons tenté une synthèse entre des sons de même nature. Il ne s’agit pas seulement d’un défi technique, il y a là aussi quelque chose de philosophique. Imaginons que les événements qui ont lieu ici et maintenant, dans un temps et un lieu donnés, puissent transformer ce qui se passe en ce moment dans un autre lieu, grâce à la communication des informations… N’est-ce pas un désir de l’homme, que d’avoir une vision la plus complète possible de la réalité ? Dans ce concert, l’auditeur se trouve dans la position privilégiée de pouvoir « aller en arrière dans le temps », de savoir ce qui s’est passé dans un autre lieu, et dans quelle mesure ce qui est -arrivé ici rend compte de ce qui vient de se produire ailleurs.
Quelle différence faites-vous entre « espace » et « spatialisation » ?
On peut dire que l’espace jouait déjà un rôle très important chez Stockhausen. Mais dans quelle mesure ? A-t-on vraiment exploré l’espace en tant que réalité physique ? Le dodécaphonisme a été capable de paramétrer quelque chose d’assez libre comme la mélodie, et la musique spectrale a pu paramétrer ce dont Schönberg avait eu l’intuition, à savoir le timbre (la « mélodie de timbres », Klangfarbenmelodie). S’il y a bien une recherche à entreprendre aujourd’hui, ce doit être de paramétrer cette chose difficile à appréhender qu’est l’espace. Pour moi, la « spatialisation » est une catégorie : la mise en place de certains sons dans un espace donné. Emmanuel Nunes est le maître absolu de cet art-là… L’espace, en tant que réalité physique, peut dès lors être analysé pour extrapoler des données musicales. En fait, j’analyse l’espace comme j’analyserais un spectre. L’espace possède des modes de résonance qui lui sont propres, associés à des fréquences déterminées. En utilisant certains processus, j’analyse l’« état » de ces modes de résonance par rapport à certainestrajectoires. Après avoir parcouru ces trajectoires imaginaires que j’utiliserai pour spatialiser le son, je dispose de données musicales, c’est-à-dire de fréquences (des hauteurs avec un développement dynamique), voire d’intensités, et même de rythmes, et je construis un texte musical qui est une expression directe de l’espace physique. Il y a bien sûr un degré d’approximation : nous n’avons pas tenu compte, dans un premier temps, de toutes les caractéristiques architectoniques et de toutes les irrégularités des salles.

Du point de vue l’auditeur, il y aura deux perceptions différentes du même objet ?
On ne sait pas très bien encore, il y a plusieurs réponses, ce qui n’est pas négatif, au contraire ! Tous les objets artistiques ont un « message esthétique pluriel ». Je préfère que chaque auditeur ait une idée à lui de ce qu’il vient d’écouter. Il s’agit avant tout d’une expérience de composition. Ce qui est le plus présent dans cette partition, c’est en fait le contrepoint. Dans ius lucis, il y a presque un « contrepoint au troisième degré » : il y a un contrepoint « traditionnel » entre instruments, à l’intérieur de chacun des deux ensembles, puis un autre entre les deux ensembles (à certains moments, les sons naturels des instruments viennent se projeter dans l’autre salle). Le troisième contrepoint concerne l’électronique. Par exemple, si je veux moduler un trombone dans l’Espro par une percussion dans la Grande Salle, je ne dois pas seulement tenir compte du rôle de la percussion dans l’ensemble auquel elle appartient, mais écrire la partie de percussion pour pouvoir transformer le trombone de la façon la plus pertinente possible. C’est la raison pour laquelle chaque instrument doit être analysé dans plusieurs situations. Il s’agit vraiment d’une écriture avec l’espace, dont le résultat final va s’inscrire dans un troisième lieu :la mémoire de l’auditeur.
Propos recueillis par Véronique Brindeau

De la technologie dans ius lucis
Temps réel
Toute la partie électroacoustique de ius lucis est générée en temps réel. Cela veut dire qu’aucun des sons diffusés dans les haut-parleurs n’est fixé à l’avance. À l’instar du son des instruments de musique, ils sont produits dans le temps même du concert, ne peuvent exister que lorsque les instruments jouent. Aucun des sons de ius lucis n’est donc fixé à l’avance. Ils ne sont pas pour autant improvisés dans l’immédiat, mais, comme les sons instrumentaux, sont composés à l’avance grâce à une écriture extrêmement précise et détaillée.
Présence de l’ailleurs
Cette œuvre joue sur le son « proche-présent » et le son « lointain-absent ». Le son lointain étant joué dans un autre lieu, au même moment, un « là-bas et maintenant ». En contraste avec cette présence de la musique du passé – dans laquelle l’enregistrement sonore nous baigne – il s’agit ici de quelque chose de l’ordre du « direct », du « live ». On fait appel pour cela à une technologie moderne (www.ethersound.com) qui permet de transporter du son sur des réseaux informatiques, tels que ceux qu’on utilise absolument partout pour relier nos ordinateurs à Internet. Pour relier l’Ircam à la Grande Salle, on utilise une liaison permanente en fibre optique qui existe dans l’infrastructure du bâtiment du Centre Georges-Pompidou.
Synthèse croisée
La partie électronique de ius lucis consiste en une « synthèse croisée » entre le son des instruments présents dans une des deux -salles et celui des instruments joués dans l’autre salle. La synthèse croisée permet de réaliser une authentique hybridation entre deux sons. Il s’agit de créer des sonorités chimériques en prenant certains aspects (la dynamique, le timbre) d’un son et d’autres aspects (les notes, par exemple) d’un autre. On fait également appel à une technique appelée « convolution » qui consiste, en quelque sorte, à faire passer artificiellement le son qu’on entend dans la salle « à travers » l’acoustique propre de l’autre salle. La synthèse croisée est une technique bien connue dans la musique par ordinateur, mais ici c’est la première fois qu’on l’utilise en tant que lien entre un son présent et un son absent.
Acoustique des salles
Il y a donc un jeu entre les deux ensembles mais aussi une prise en compte des lieux mêmes dans lesquels ces ensembles jouent. Les structures musicales des deux ensembles utilisent les fréquences de résonances propres aux deux salles auxquelles sont destinées ces musiques. Certaines parties de synthèse sonore sont également accordées sur les fréquences de résonances (qu’on appelle aussi « modes propres ») de ces salles.
Quand le son électronique se déplace selon des trajectoires écrites dans l’espace tridimensionnel de la salle, il parcourt simultanément les nœuds et les ventres de résonances, révélant de cette façon, et rendant audibles, ces figures spatiales invisibles qui caractérisent l’acoustique d’une salle en fonction de sa géométrie.
Mouvement du son
L’espace est composé, agit comme un révélateur. Dans certains passages, ces trajectoires du son dans l’espace de la salle sont provoquées et contrôlées par les mouvements de certains instrumentistes (les deux clarinettistes). Le geste de ces musiciens est capté par des microphones puis amplifié par la spatialisation du son. Ce n’est donc pas là le son qui est amplifié mais bien son mouvement.
Enfin
L’utilisation de la technologie dans ius lucis n’est pas un ornement ajouté mais bien une composante nécessaire. Cette œuvre ne pourrait simplement pas exister sans une technologie qui soit précisément composée dans tous ses détails, de la même façon, selon les mêmes critères et avec la même exigence que la partie instrumentale. Une utilisation des techniques actuelles qui permet donc l’expérimentation, pour le spectateur ,d’une forme de concert absolument inédite en ce qui concerne le rapport au temps et à l’espace, c’est-à-dire à la mémoire.

Serge Lemouton
Extrait d’Accents n° 32
– avril-juillet 2007
Photo : Valerio Sannicandro © DR