Vous avez la particularité d’être à la fois compositeur et chercheur en informatique musicale. Quel est votre domaine de recherche ?
Quels en sont les enjeux ?

Mon domaine concerne plusieurs aspects de l’informatique musicale appliquée à la composition. Je m’intéresse en particulier à l’écriture de l’électronique ainsi qu’au concept de « partition électronique centralisée ». Dans le contexte des musiques électroacoustique et mixte, cette approche permet, au sein d’un environnement unique, de définir, composer et contrôler l’ensemble des processus électroniques mis en œuvre, leurs interactions et leurs synchronisations. Pour moi, une partition électronique écrite en code informatique est assez similaire à une partition instrumentale. Aujourd’hui, grâce à des systèmes et langages de programmation expressifs, on peut aller plus loin en détail, finesse et précision que l’écriture instrumentale. Réalisée au moyen d’un langage de programmation du temps (langage synchrone) tel qu’Antescofo, développé par Jean-Louis Giavitto au sein de l’équipe Représentations musicales de l’Ircam, cette écriture permet non seulement d’écrire des événements musicaux discrets comme des notes dans le monde instrumental, mais aussi d’écrire des interactions et des processus plus ou moins complexes qui se déroulent pendant le temps d’exécution de la pièce. Par exemple, dans certains passages de Sources rayonnantes, j’utilise plusieurs couches de synthèse spatiale qui se superposent pour créer un effet sonore de masse. Pour générer et gérer ces événements polyphoniques et multi-temporels, il faut un système capable de les écrire ainsi qu’un moteur de synthèse dynamique et souple.
En m’appuyant sur des nouveaux langages plus expressifs pour l’écriture de l’électronique comme Antescofo et des systèmes performants de synthèse et de traitement du signal comme SuperCollider, mes recherches se focalisent sur le développement de la librairie AntesCollider, avec laquelle la partie électronique de Sources rayonnantes a été conçue. AntesCollider permet d’expérimenter de nouvelles approches d’écriture de l’électronique à travers l’organisation et la composition de structures sonores multi-temporelles et multi-échelles. En tirant parti des notions informatiques « d’agents », de « processus » et de « réactions », ces structures sonores peuvent se combiner dynamiquement et polyphoniquement en relation directe avec la partie instrumentale. Dans le cas de cette pièce, la captation gestuelle du chef ouvre à de nouveaux paradigmes compositionnels et renouvelle la liberté et la plasticité de la création musicale.
Concernant la composition, mes recherches se concentrent sur la composition du son dans un contexte où les notions de matériau et de forme s’effacent au profit de leur fusion. On passe ainsi de « composer avec le son » à « composer le son ». C’est le son lui-même qui, en se déployant dans le temps et l’espace, fera émerger la forme.

Comment l’articulation avec la création (la vôtre, et celle des autres compositeurs) nourrit-elle votre recherche, justement ?

Mes recherches sur l’écriture de l’électronique m’ont amené à trouver des interactions, des sonorités et des musiques que je n’aurais sans doute pas pu imaginer sans le travail de recherche et d’expérimentation offert par la lutherie informatique. Ce sont ces va-et-vient constants entre recherche, résultat, exploration, erreur, composition qui me font avancer aussi bien dans les domaines de la recherche et du développement informatique que dans la composition et la création sonore.
Un autre aspect important et qui m’a beaucoup marqué est sans doute mon travail en tant que réalisateur en informatique musicale (RIM). Le fait de devoir me confronter à des esthétiques et pensées très différentes et de trouver des solutions pour d’autres compositeurs a été à la fois très riche, stimulant et générateur d’idées. Je peux par exemple citer le travail que j’ai fait avec Emmanuel Nunes sur l’écriture de la spatialisation ou mes travaux avec Lara Morciano ou Georgia Spiropoulos sur l’articulation et l’interaction entre les instruments et l’électronique. Par exemple, le travail d’écriture de la spatialisation que je présente aujourd’hui, en particulier celui de la synthèse granulaire spatiale, trouve son origine dans les travaux d’Emmanuel Nunes et d’Éric Daubresse sur les enveloppes pour une spatialisation « pointilliste ». Je continue ainsi à utiliser les noms qu’ils avaient donnés aux différentes enveloppes et à en créer des nouvelles.

Comment votre propre processus compositionnel fait-il avancer vos recherches ? Dans quelle mesure de nouveaux enjeux s’ouvrent-ils et des problèmes se résolvent-ils ?

Dans mon cas, je réponds à ces questions avec de nouveaux outils pour l’électronique en relation directe avec la composition. À mon avis, la création de l’outil et la pensée musicale ne sont finalement qu’un même processus créatif global et les deux se nourrissent mutuellement pour donner naissance à un espace musical enrichi de nouvelles idées et techniques. Aujourd’hui, je ne saurais dire si c’est la technique qui nourrit l’imaginaire musicale ou si c’est la musique qui m’induit à développer un outil spécifique. L’un ne va pas sans l’autre.
Par exemple, comment mettre au point des systèmes performants, plus flexibles pour pouvoir exprimer des idées musicales novatrices en relation directe avec la pensée musicale ? Bien que nous soyons encore bien loin de l’utopie d’une composition directe par la pensée, peut-on se rapprocher de systèmes qui donnent plus de liberté et de possibilités en termes de manipulation sonore et musicale et qui permettent d’incarner plus directement l’intention musicale dans la tête du compositeur ? Comment créer des outils et instruments susceptibles de stimuler l’espace de pensée et la créativité musicale à travers l’exploration des possibilités offertes par les nouvelles technologies disponibles ? Pourquoi ne pas chercher aussi d’autres façons de faire avec d’autres outils et paradigmes ?

Vous en parliez : dans Sources rayonnantes, un des principaux enjeux compositionnels concerne l’écriture de l’espace.

En effet, le son est par nature un phénomène spatial puisqu’il voyage et se propage sous forme d’ondes longitudinales grâce à la déformation élastique de l’air (un fluide) à une vitesse de 340 mètres par seconde. Les musiques dites spatialisées ne font plus que redonner au son, et par conséquent à la musique,
son paramètre intrinsèque de voyage spatial, au même titre que la hauteur et les autres paramètres musicaux. On peut dire aujourd’hui que la musique n’est pas seulement l’art du temps mais aussi de l’espace.
La spatialisation n’est pas une préoccupation récente : elle est déjà présente dans plusieurs musiques traditionnelles où la disposition des musiciens dans l’espace physique est fondamentale. Ces dispositions ont souvent une fonctionnalité en relation directe avec des rituels ou avec l’environnement dans lesquels ils se pratiquent, par exemple en plein air ou dans des temples. Avant le XXe siècle, dans la musique de tradition occidentale, la composition de l’espace physique n’a pas eu une importance fondamentale, à quelques exceptions près (par exemple à la cathédrale de San Marco à Venise au XVIe siècle ou la Grande Messe des Morts [1837] de Berlioz).
Aujourd’hui, grâce à des lieux comme l’Espace de projection ou des salles qui permettent une disposition non frontale des instruments, l’espace peut devenir un paramètre composable et créateur des morphologies sonores. Je pratique cette approche depuis des années, en particulier s’agissant de musiques électroacoustiques où les moyens technologiques actuels rendent cette composition accessible et malléable. Son intégration dans le domaine des musiques mixtes s’avère pertinente et riche : on peut orchestrer des métissages entre les mondes instrumental et électronique, non seulement en s’appuyant sur le timbre mais en intégrant également les positions spatiales.
Côté électronique, les possibilités sont vastes et évoluent, elles aussi, avec la technologie. Aujourd’hui, nous avons à notre disposition des systèmes de reproduction du champ sonore très sophistiqué comme l’ambisonie d’ordre élevé (HOA) ou la Wave Field Synthesis (WFS). Et même si la sensibilité à la localisation spatiale d’une source est moins perceptible que la hauteur d’un son par exemple, les techniques s’améliorent et on arrive à une résolution spatiale qui permet de composer et de jouer de plus en plus avec l’espace. Cette composition a aussi plusieurs possibilités, on peut parler de synthèse spatiale par exemple. Ce concept vient de l’utilisation de la notion de perception spatiale (localisation absolue, relative, mouvement et trajectoires dans l’espace d’un son) pour créer ou transformer des morphologies sonores ou des structures musicales en fonction de leur position ou de leur déplacement dans un environnement imaginaire (espace virtuel en 3D) ou réel (salle de concert). Ça amplifie l’espace compositionnel et donne la possibilité de penser et créer la musique avec d’autres paradigmes. La synthèse spatiale va aussi permettre de donner un relief particulier et devenir porteuse de dramaturgie. Par exemple, un son qui se déplace, s’éloigne et se fragmente dans l’espace est beaucoup plus expressif que le même son, statique, émis d’une source unique et ponctuelle.
À moins que cette immobilité soit justement recherchée par le compositeur…

©Ircam-Centre Pompidou

Vous constatez une erreur ?

IRCAM

1, place Igor-Stravinsky
75004 Paris
+33 1 44 78 48 43

heures d'ouverture

Du lundi au vendredi de 9h30 à 19h
Fermé le samedi et le dimanche

accès en transports

Hôtel de Ville, Rambuteau, Châtelet, Les Halles

Institut de Recherche et de Coordination Acoustique/Musique

Copyright © 2022 Ircam. All rights reserved.