Texte cité dans

Entretien avec Philippe Manoury : le temps en question

par Jérémie Szpirglas

Philippe Manoury, votre B-Partita, en création ce soir, est sous-titrée in memoriam Pierre Boulez. Quelle dette, qu’elle relève de l’esthétique musicale ou de la démarche compositionnelle, pensez-vous avoir envers celui qui fut votre mentor ?

Philippe Manoury : Mes premières œuvres portent indubitablement son influence esthétique. Aujourd’hui néanmoins, cette influence dans mon travail est, je crois, moins forte du point de vue de l’esthétique, que de celui de la méthodologie, de la réflexion, de la pensée musicale, et de l’attention à la construction. J’ai ainsi repris à mon compte cette grande rigueur qu’il portait à la potentialité des matériaux, lesquels ne doivent être choisis qu’en étant très attentif à leurs conséquences.

Un autre de ses champs d’investigation compositionnels, dont on parle à mon avis trop peu, attire depuis quelque temps mon attention : ce sont ce que j’appelle les « formes temporelles », autour desquelles j’essaie de développer une réflexion théorique, voire esthétique – c’est notamment le point de départ de ma pièce Le temps, mode d’emploi (2014) pour deux pianos et électronique. On sait reconnaître une musique à ses motifs, à ses accords et à ses figures, mais on peut aussi la reconnaître à ses structures temporelles, à la cohérence de la distribution des éléments musicaux dans le temps, d’une pièce à l’autre. György Ligeti nous offre un exemple très simple de ce concept avec cette forme continue, exempte de toute rupture qu’on entend dans ses premières œuvres. Pierre Boulez, quant à lui, a trouvé, sans le revendiquer expressément, des formes de temporalité passionnantes, notamment ce rapport dialectique fluctuant entre rigueur et liberté : on observe souvent chez lui une coexistence de formes temporelles très rigoureuses (caractérisées par des rythmes, une métrique et une organisation rigoureuse de la musique dans le temps) et d’éléments beaucoup plus libres et intuitifs, pensés comme des gestes, qui peuvent être écrits dans une notation proportionnelle, ou se fier à un placement aléatoire au sein d’une durée donnée. L’exemple le plus évident est certainement Répons.
Les solistes étant placés loin du chef, ils ne peuvent pas suivre aussi précisément sa battue que le reste de l’ensemble. Leur partie est donc écrite de manière plus fluide : soit ils sont totalement indépendants du chef, soit ils réagissent selon des catégories marquées « très vite », « très lent », « espacés », sans plus de précision. Cette dialectique crée une dynamique temporelle qui véhicule pour moi une puissante charge émotive.
Ce jeu entre rigueur et liberté est facilité par le recours à l’informatique musicale, grâce notamment au logiciel Antescofo, qui permet de suivre le musicien – vous en entendrez d’ailleurs dans l’électronique de B-Partita : ce sont des processus algorithmiques électroniques (souvent une superposition de boucles assez complexes, conçues pour ne pas tomber dans une quelconque cyclicité, et dialoguant et échangeant les unes avec les autres) dont on définit les conditions de départ et d’évolution, et qui tournent tout seuls ou presque, dans un mode quasi autogénératif. Ces processus ne sont pas entendus comme des boucles, mais comme des formes qui ne cessent de se transformer, donnant un sentiment de souplesse en même temps que d’incertitude. C’est donc un hasard, mais un hasard contrôlé.

Cette dialectique temporelle est-elle possible avec le jeu instrumental ?

Oui, mais c’est plus délicat : on ne peut aller aussi loin qu’avec l’électronique. Soit les processus sont écrits et donc déterministes, soit on fait le choix de l’indéterminé, mais les processus restent assez simples : le musicien peut par exemple choisir entre plusieurs séquences, commencer et s’arrêter de manière aléatoire. Mais on ne peut pas demander aux interprètes de composer eux-mêmes, au risque de tomber dans l’improvisation – un concept qui ne m’attire pas personnellement car il engendre, la plupart du temps, des formes que je trouve trop simples et trop prédictibles.
Dans B-Partita, par exemple, les instrumentistes de l’ensemble joueront parfois en dehors de tout contrôle du chef. Dans certaines séquences, les cordes choisissent ce qu’elles jouent, de manière assez libre. Il y a également ce que j’appelle des « fonds musicaux » : des boucles polyrythmiques distribuées entre plusieurs instruments – avec la masse de l’ensemble, et surtout celle de l’orchestre, on obtient de riches textures à partir d’un matériau assez simple.

Avec B-Partita, vous remettez sur le métier un ouvrage déjà abouti, Partita 2 pour violon et électronique, et l’étendez au violon, ensemble et électronique – une démarche qui pourrait également faire penser à celle si souvent suivie par Pierre Boulez.

En réalité, ma démarche ne suit pas exactement celle de Pierre Boulez. Chez Boulez, dans Notations, Sur Incises ou Anthèmes, l’idée était davantage d’une prolifération à partir d’un matériau de départ. Ici, je suis plutôt les Chemins ouverts par Luciano Berio, qui étendaient à une forme concertante le discours de ses Sequenze. En revanche, je reprends, en guise d’hommage à Pierre Boulez, ce qu’il avait fait dans ...explosante-fixe... à la mémoire d’Igor Stravinsky. En l’occurrence, je remplace la litanie en mi bémol : d’...explosante-fixe... (le mi bémol étant symbolisé par « Es » en notation allemande) par une image similaire en si bémol (« B »). Surgissant au sein des commentaires de l’ensemble instrumental, ce sont comme des fenêtres qui ouvrent sur un élément totalement étranger au discours principal.

Dans la première version de votre Partita 1 pour alto et électronique, l’index droit de l’interprète était équipé d’un capteur, mais vous avez abandonné ce dispositif depuis, pour la Partita 2 mais aussi pour la Partita 1 : pourquoi, alors que l’interaction entre jeu instrumental et électronique est l’un de vos chevaux de bataille ?

Le problème de ce genre d’outil est leur pérennité : prenez la flûte 4X, pour laquelle j’ai écrit Jupiter et Boulez a composé ...explosante-fixe..., ou encore le piano MIDI (un piano acoustique équipé de capteurs MIDI), auquel était destiné Pluton. Aucun de ces instruments n’a eu de succès commercial (j’aurais cru pourtant, dans le cas des capteurs MIDI pour le piano, que la pop s’en emparerait, mais non), et l’industrie ne s’intéresse donc plus à leur production. Les liens entre l’art et l’industrie sont une grande source de préoccupation pour moi. Comment jouer le répertoire qui leur est consacré ? Aujourd’hui, on travaille ainsi à une version « acoustique » de Pluton. Concernant la Partita 1, les outils d’analyse du son de l’instrument donnent des résultats d’une finesse égale à ceux que donnait le capteur, alors pourquoi s’embarrasser avec un outil dont on ignore s’il existera encore dans 10 ans ? Je pars du principe que, dans 50 ou 100 ans, on trouvera encore des ordinateurs, des micros et des caméras. Bien sûr, ces outils s’affineront, gagneront en puissance et en précision, et ne ressembleront plus à ce qu’ils sont aujourd’hui, mais leur substance restera la même. Le signal sonore sera toujours une mesure des variations de pression dans l’air. Tout bien considéré, le dialogue entre l'instrumentiste et l’électronique relève alors de la musique de chambre, ce qui est aussi très intéressant.

N’en va-t-il pas de même avec la partie logicielle de l’informatique musicale ?

C’est juste. C’est pourquoi je vois dans l’avènement du logiciel libre une véritable chance pour lutter contre l’obsolescence programmée des outils. Avec le logiciel libre, comme Pure Data développé par Miller Puckette, on pourra conserver la version du logiciel conçue pour une pièce particulière qui ne sera pas rendue obsolète par les versions suivantes. Une nouvelle version du logiciel ne rendra pas caduque un programme plus ancien ou une pièce déjà aboutie.

À cet égard, quel regard portez-vous sur le concept d’instruments augmentés ?

D’abord, il s’agit de bien définir ce qu’est un instrument augmenté : un instrument est augmenté à partir du moment où le son électronique (qu’il provienne de traitements du son de l’instrument ou non) sort du corps de l’instrument. Le premier avantage est bien évidemment de s’affranchir des haut-parleurs – que Pierre Boulez appelait sarcastiquement des « broyeurs de son ». S’ils ont fait beaucoup de progrès ces dernières années, les haut-parleurs ne sont pas d’aussi fins diffuseurs de sons que les instruments. Ensuite, à l’exception des nouveaux systèmes comme la WFS, dont très peu de salles sont équipées, ils sont ponctuels, par opposition aux instruments acoustiques qui diffusent tous azimuts et remplissent l’espace – et cette différence d’images sonores complique considérablement le mariage des deux. Par ailleurs, les instruments augmentés permettent à cet instrument d’accéder à des textures électroniques (des sons qui sortent du spectre acoustique naturel de l’instrument). Cela dit, de ce que je peux constater aujourd’hui, ils sont sujets à diverses limitations, comme la puissance sonore, ou le rôle de filtre que joue la caisse de résonance de l’instrument, lequel ne permet pas de diffuser tous les sons indifféremment. Enfin, les instruments augmentés n’ont pas la même souplesse en termes de spatialisation... Bref, s’il est tout à fait adapté pour tout ce qui relève de la transformation instrumentale ou de la synthèse sonore, dans une vision chambriste de l’électroacoustique, l’instrument augmenté ne satisfera pas tous les besoins de la musique électronique.

Propos recueillis par Jérémie Szpirglas.

Note de programme du concert du 16 juin 2016 au Centre Pompidou.

 

Note de programme du concert du 16 juin 2016 au Centre Pompidou.
© Ircam-Centre Pompidou 2016