Texte cité dans

Comprendre et élargir la palette compositionnelle. Entretien avec Kaija Saariaho

par Jérémie Szpirglas

July 3, 2019


 

Nous sommes ici au musée de l’Orangerie, dans la salle des Nymphéas, et le Quatuor Béla interprète votre quatuor avec électronique intitulé, justement, Nymphea. Au cours de vos études, vous vous êtes longuement intéressée aux arts visuels (et votre catalogue est semé d’œuvres qui empruntent leurs titres ou tirent leurs inspirations d’œuvres d’art) : quelle place occupent-ils dans votre imaginaire musical ? Pourquoi avez-vous préféré finalement la musique aux arts visuels ?

Les arts visuels ont toujours fait partie de ma vie, et pendant mon enfance, dessin, graphisme et peinture y jouaient un rôle central. Mais ils n’étaient pas séparés de la musique dans mon esprit. Le premier titre que je me rappelle avoir donné à une pièce pour guitare vers 12-13 ans était Jaune et nerveux.
Mais les arts visuels n’ont jamais été mon premier choix, plutôt un refuge, quand je me sentais trop « faible » pour la musique. J’ai toujours préféré la musique, mais j’ai dû gagner beaucoup de force pour pouvoir me dédier à ce métier... et finalement ce n’était pas même une décision mais plutôt un sentiment d’obligation, vis-à-vis de moi-même.
Les autres arts m’inspirent souvent, mais la connexion n’a pas toujours à être étroite et claire, je ne recherche pas de correspondances. Je pense que ce qui arrive souvent est qu’une idée musicale est en train de germer et de tourner dans mon esprit, alors que je lis, vois un tableau ou un film. Ce sont donc des processus d’inspiration sous-jacents, plus que des tentatives de transposition formelle d’un art à l’autre, ce qui ne m’intéresse pas.

Comment êtes-vous venue à la musique électronique ? Quel est le rôle de l’électronique dans votre processus compositionnel et dans vos diverses pièces avec électronique ?

Les microphones étaient pour moi au début comme des microscopes pour le son. Ils me servaient à entendre des phénomènes sonores très doux qu’on ne peut pas percevoir normalement, comme des modes de jeux particuliers à chaque famille d’instruments (souffles pour les vents, jeux d’archet pour les cordes, etc.). C’est pour cela que j’ai commencé à les utiliser, tout en modifiant les acoustiques des lieux de mes premiers concerts grâce à des réverbérations artificielles, cela dès mes études à l’Académie Sibelius et au Studio expérimental de la Radio finlandaise dans les années 1970, à l’époque avec des technologies principalement analogiques. Il s’agissait surtout pour moi alors d’enrichir les possibilités d’orchestration avec l’amplification et les traitements.
Un peu plus tard, en 1982, lors de mon premier stage à l’Ircam, j’ai été intéressée par une meilleure compréhension des composantes du son et de leur perception, et par les manières de construire un son avec l’ordinateur. J’ai ainsi découvert le programme de synthèse des sons « Chant », qui m’a spécialement captivée car il m’a appris concrètement comment décrire et contrôler précisément l’évolution du son à travers ses divers paramètres, y compris perceptifs. J’ai ensuite travaillé avec les modèles physiques du programme « Modalys », qui permet d’imaginer des sons de synthèse en continuité avec l’univers instrumental par la formalisation et la simulation des processus de production acoustique. J’ai aussi réalisé un certain nombre de pièces avec les modèles de résonance – une technique d’analyse, de synthèse et de traitement développée par Jean-Baptiste Barrière, qui permet de relier sons concrets et abstraits, et favorise l’interaction, importante pour moi, entre timbre et harmonie.
J’ai travaillé beaucoup et régulièrement avec l’électronique, donc naturellement j’ai réalisé des projets très variés au cours des années, et les outils ont bien sûr énormément évolué au cours du temps. Ce sur quoi je me concentre le plus aujourd’hui, ce sont les possibilités d’utiliser aussi l’informatique pour les transformations sonores en temps réel, avec une qualité sonore enfin comparable à celle du son instrumental, ce qui n’était pas possible aux débuts de l’informatique musicale, car le rendu sonore en temps réel était alors médiocre.
Pendant longtemps, j’ai donc travaillé énormément en studio pour préparer les matériaux sonores avec des programmes en temps différé (« Chant », « Modalys », « SVP », « Audiosculpt », etc.), calculant des sons trop complexes pour l’informatique en temps réel. Ces sons pré-calculés étaient alors diffusés en concert, mixés avec la spatialisation et les transformations réalisables en temps réel avec une qualité satisfaisante (d’abord avec des processeurs numériques spécialisés, puis avec des tables de mixage numériques incorporant des traitements, et enfin avec l’environnement de programmation Max). Aujourd’hui, il est enfin possible de réaliser avec une qualité satisfaisante (y compris chez soi) la plupart de ces processus de synthèse et de transformation en temps réel, ce qui permet plus de souplesse pour l’interprétation des musiciens. Dans mes dernières pièces avec électronique, il y a par conséquent peu ou pas de matériaux préenregistrés. Mais tout dépend du projet, les parties électroniques diffèrent selon les nécessités musicales de la pièce, et il existe des sons par nature trop complexes pour être réalisés en temps réel, quelle que soit la puissance des machines.
Il y a eu une période dans les années 1980, importante pour mon travail ultérieur, pendant laquelle j’ai voulu mieux comprendre le processus de mon travail compositionnel. Pour ce faire, je l’ai formalisé dans des programmes informatiques, afin de générer du matériau précompositionnel, des esquisses (avec les programmes « Formes » et « Esquisse », puis « Patchwork » qui ont bifurqué depuis en « OpenMusic » et « PWGL », eux-mêmes prolongés aujourd’hui par la librairie « bach » dans Max).
Cet exercice était utile pour moi, pour m’aider à analyser ma propre pratique intuitive, mais le travail compositionnel reste toujours la chose la plus importante pour moi, et les technologies informatiques ne sont finalement que de simples outils dans une large palette. Les résultats des calculs étaient corrects en soi, mais à mon sens, sans beaucoup d’intérêt musical, et comme j’aime beaucoup cette partie du travail dans le processus de la composition, j’ai assez vite recommencé à créer le matériau plutôt à la main.
Je continue de faire de temps en temps des analyses de sons complexes, mais j’utilise toujours très librement les résultats, et je développe les structures harmoniques sans l’aide d’outils informatiques.

Quelle a été votre démarche dans le cas précis de Nymphea ?


Nymphea est une des rares pièces pour lesquelles j’ai produit du matériau précompositionnel avec les programmes que j’ai développés à l’Ircam avec les chercheurs de l’époque (Xavier Rodet, Pierre-François Baisnée et Jacques Duthen). J’avais calculé des interpolations mélodiques par exemple, qu’on peut très bien percevoir à l’écoute, même si je les ai modifiées à la main pendant l’écriture de la partition. Par exemple : comment un trille d’un seul instrument se métamorphose pour devenir un arpège pour tout le quatuor. J’avais aussi analysé des sons de violoncelle pour créer les structures harmoniques. Au moment de la composition de Nymphea est aussi apparue la première table de mixage de sons numérique (la Yamaha DMP7), ce qui m’a permis de programmer les nombreuses transformations du quatuor se succédant au cours de la partition. En 1987, il s’agissait d’un progrès considérable pour l’électronique en concert, car un tel mixeur portable simplifiait beaucoup le contrôle de l’équilibre de l’amplification et des divers traitements des instruments qui, autrement, aurait été impossible avec ce niveau de détails. La pièce, commandée par le Lincoln Center à New York pour le quatuor Kronos, faisant l’objet d’une grande tournée aux États-Unis, cette simplification – tout en améliorant les possibilités de contrôle – comme la portabilité, étaient donc appréciables ; elle m’a surtout permis de développer le modèle de ce qui fut pour un certain nombre de mes pièces avec électronique, et jusqu’à ce que l’informatique en temps réel atteigne la qualité que je souhaitais, la solution privilégiée pour réaliser des transformations des instruments en concert. Aujourd’hui, ces mêmes transformations – et bien d’autres – sont réalisées avec des patchs Max sur ordinateur, et quasiment toutes les électroniques de mes pièces ont été portées dans cet environnement, ce qui les rend facilement disponibles (elles sont téléchargeables sur Internet) et jouables.


  1. Il nous semble important de faire une distinction entre le Réalisateur en Informatique Musicale (RIM) qui contribue à la confection de la partie électronique d’une œuvre et le Musicien en charge de l’Électronique Live (MEL) qui n’a pas nécessairement participé à l’élaboration de cette partie électronique mais qui doit s’assurer de sa mise à jour et de son bon fonctionnement lors d’une performance (lire à ce sujet Plessas et Boutard, 2015). 

  2. Par convention, l’harmonique 1 (fréquence f0) correspond à la fondamentale du spectre. Pour un spectre harmonique, la fréquence de chaque composante spectrale vérifie la relation suivante: fn = n x f0. 

  3. Grisey a commis une erreur au niveau du premier intervalle: l’écart entre la fondamentale (mi0) et le second harmonique (mi1) est une octave, soit 24 quarts de ton et non 22 comme il est indiqué. 

  4. Whittall, Arnold, Jonathan Harvey, Londres, Faber and Faber, 1999. Traduction française sous le même titre par Eric de Visscher, L’Harmattan, Ircam-Centre Georges Pompidou, 2000, p. 44. 

  5. Harvey, Jonathan, « Le Miroir de l’ambiguïté », Le Timbre, métaphore pour la composition, recueil de textes réunis par Jean-Baptiste Barrière, Paris, Ircam, Christian Bourgois, 1991, p. 454-466. 

Note de programme du concert du 20 juin 2019 dans la salle des Nymphéas du musée de l'Orangerie.
© Ircam-Centre Pompidou 2019