The setup and the execution of the electroacoustic part of this work requires a Computer Music Designer (Max expert).

Version Information

Documentation date
September 1, 2024
Version
2024-Max8
Status
valid
Validation date
October 3, 2024
Documentalist
lemouton (lemouton@ircam.fr)
Length
37 min
Comment
not tested in concert (the reference is now the pure data version)

Other Versions

Forked 2024-Max8September 8, 2024

PureData-2022April 3, 2022

PureData-2021November 16, 2021

PureDataDecember 18, 2017

Max5 rev 2017December 13, 2017

2011-dijon-Max4October 25, 2011

Max5-fevrier-2011February 7, 2011

SeoulApril 14, 2010

Mac OS XMarch 9, 2005

Mac OS 9December 1, 2002

Detailed Staff

flute

Detailed staff comes from Brahms, send mail to ressources-contenus@ircam.fr for correction.

Channel Details

Number of input channels
1
Number of output channels
6

Electronic Equipment List

Computer Music Equipment

1 MIDI Mixer
MIDI Mixer (generic) - Connected to the computer for the internal mixing of the electronic layers (cf. sub-patch MIDI-Mix) (9 channels)
1 MacBook Pro
Apple Laptops (Apple)
1 Fireface 802
Sound Board (RME)
1 Max 8
Max (Cycling74)

Audio Equipment

6 Loudspeaker
Loudspeakers (generic) - Stereophony + quadriphony
1 Dynamic microphone
Dynamic Microphones (generic) - Attached to the flute (ex.: SD System)

Downloads

Jupiter Max8 patch

Serge Lemouton

comment

max project

260.66 Mo


Instructions

Audio Setup

ADC

  1. Flute input (the mic as close as possible to the flute).

DAC

  1. Stereo Left;
  2. Stereo Right;
  3. Quadriphony Front Left;
  4. Quadriphony Front Right;
  5. Quadriphony Rear Right;
  6. Quadriphony Rear Left;
  7. Flute simulation (1/2): for testing purpose, not for the concert;
  8. Flute simulation (2/2): idem.

Midi setup

A MIDI mixer with at least 9 faders (cf. MIDI-Mix sub-patch on the main patch) can be used optionally to control the internal mixing of the electronic layers.

Software installation

All the electronic part is produced by the jupiter-max-2023-light max patch.

  • Open jupiter-max-AE-2022.maxproj project with Max 8.

  • Configure the DSP Status Options :

    • Fe = 48000 Hz;
    • IO Vector Size = 512;
    • Signal Vector Size = 64;
    • Scheduler in Overdrive ON;
    • Scheduler in Audio Interrupt ON;

Patch presentation

Main patch

Main sub-patch (“grand-central”)

The audio signals routing is done In the "Grand-Central" subpatch

In this subpatch you find the “pitch_fol” sub-patch for the pitch detection (and the sfplay~ for simulation) to automatically trigger the events (cf. also the “QLIST” sub-patch in the main patch).

Message syntax

The electroacoustic part of Jupiter consists in the following modules

  • reverb (r)
  • 4 harmonizers (h)
  • frequency shifter (f)
  • synthese : pafs (o:oscilator)
  • noise (n)
  • sampler (t:trevor)

The messages used to connect the modules use the following syntax :
htor = hamonizer level to reverberation, fto2 = frequency shifter level to stereo output, etc.

Warning : stor controls synthesis to reverberation (ntor and otor), while stor~ controls the level of the flute samples to the reverb. (can be quite confusing …)

Shortcuts

  • ESC = DSP on/off;
  • TAB or enter = next event;
  • 0 = follower off;
  • , = follower on.

Rythmic interpolations

In the original version the electronic rythmic sequence played in sections V and IX were recorded repectively in sections II and VII. They are now hard coded in the patch
Consequently, to hear this sequences correctly during the rehearsals it is no more necessary play these sections in the right order.

live vs prerecorded sequence

In this version some effects are performed on prerecorded soundfiles and not on the live flute sound as in the originary version. You can switch back to the “full real time” version with the toggle located above pd samples.

System calibration and tests

  1. Play section 8 event 2 (this is a sequence of tam-tam sounds) (click on the button “NEXT” to manually trigger the events).

  2. Adjust the patch input level to have a nice flanging effect at XI.18.`

  3. Test the score follower with the flute simulation :

  • Start section 1.
  • Open the sub-patch “Simulation”.
  • Click on the message box to begin the simulation.
  • You can listen to the whole piece (outputs 7 and 8 play the flute simulation).

Score following

Events are mainly triggered by the score follower (using the scofo pd object), except in sections V, VIII, IX, X and XIII where events should be triggered manually for safety reasons.
The “manual” events are :

  • .
  • ..

Initialization routine

To initialize the patch:

  1. Turn audio ON;
  2. Click the init button “Start here: 0”: the “follower on” toggle is ON;
  3. Click on the button “Section 1” and on the button “NEXT” to trigger the first event.
  4. The events can be triggered
    • by the computer music performer (preferably)
    • or automatically triggered with the score follower (using the max detonate object).

Performance notes

Please refer to the composer’s “notes pour l’execution” in the printed score.

Flute amplification

The flute sound should be slightly amplified to balance well with the electronic part.

Program Notes

Le compositeur face à la machine

Jupiter est la première pièce d'un cycle à venir, dont le but est d'explorer l'interaction entre divers instruments et un système de traitement et de synthèse numérique en temps réel. Comment cela se produit-il ? Tout d'abord par le fait que la machine ressemble de plus en plus à l'homme (au musicien dans ce cas). C'est-à-dire, qu'elle écoute, attend un événement, et réagit lorsque l'événement attendu se produit. Il s'agit bien sûr de simulations, mais selon moi, la simulation, comme l'imagination est un des propres de l'art. Elle réalise une partie de ce que ferait un chef d'orchestre jouant avec un soliste. En un mot, la machine est plus intelligente, puisqu'elle reconnaît, et suit, le discours qu'on lui propose (à condition de le lui avoir appris au préalable bien sûr) et s'y adapte en fonction de critères établis entre le compositeur et elle. J'ai tenu à ce que cette pièce se déroule complètement par rapport au jeu instrumental sans interventions extérieures. Ainsi, tout ce qui proviendra de la partie synthétique ou traitée, sera déclenché, ou issu, du jeu du flûtiste. Les opérations extérieures auront pour fonction de pallier une erreur possible, ou de contrôler la diffusion du son sur les quatre haut-parleurs (pointer vers schéma de diffusion).

L'œuvre et son environnement

Jupiter explore cet environnement en essayant d'en tirer le maximum de conséquences. Au fur et à mesure de son avancée dans le temps, les relations entre l'instrument et la machine se font plus serrées. En voici les détails.

A partir du son de la flûte : le son de la flûte est reconnu et envoyé instantanément dans différents modules permettant soit de le maintenir dans le temps (reverbération prolongée aussi longtemps qu'on le désire) (pointer vers traitements électroniques), soit de le transporter dans l'espace (harmoniques modifiant la hauteur sans altérer la durée) pour en former des configurations harmonico-polyphoniques, soit, enfin, de transformer son timbre (frequency-shifters) (pointer vers frequency-shifters). Avec ces trois possibilités, combinables à volonté, on peut agir sur la durée, la hauteur et le timbre. L'idée étant que, partant d'un triple son de flûte, je l'extrapole jusqu'à devenir méconnaissable, tissant ainsi des liens entre sons connus et inconnus dans une dialectique compositionnelle.

A partir de la partition instrumentale : j'ai conçu des programmes qui permettent de détecter des séquences rythmiques jouées par l'instrumentiste, qui sont mémorisées puis placées aux extrémités d'une séquence dont le rôle sera de transformer la première séquence rythmique en petites quantités jusqu'à ce qu'elle devienne identique à la seconde (interpolations). Cette partition de rythmes servira ensuite de support à une partion de synthèse expérimentant le même principe au niveau des échelles (compression et dilatation d'échelles par interpolations successives). Trois séquences d'interpolations serviront de centres autour desquels gravitera la forme de Jupiter.

L'accompagnement synthétique : sur le suivi du jeu instrumental, se déroulera une partition de synthèse auditive tissant des accords, des contrepoints, des arpèges autour de la mélodie de la flûte. Ici, l'instrument contrôlera le début et l'extinction des événements synthétiques, mais pas leur déroulement interne. Ces sections seront des commentaires des exposés dans lesquels la flûte nourrit les programmes d'interpolations (pointer vers les programmes d'interpolation) décrits précédemment.

La variation formantique : si dans l'accompagnement synthétique, la flûte n'interagissait pas au niveau de l'évolution de la partie synthétique, par ce procédé elle peut contrôler le début et la fin des événements, comme leur évolutions internes. Une enveloppe spectrale (permettant de modifier l'amplitude des partiels d'un spectre) attachée au jeu de la flûte éclairera les tons synthétiques du grave à l'aigu suivant la position des notes de l'instrument dans l'ambitus. Ainsi se trouve réalisé un contrôle, temporel, spectral et de modulation complet d'une partition synthétique par un interprète. Je remercie Miller Puckette, Marc Battier, Olivier Koechlin, Cort Lippe et Thierry Lancino pour l'aide et le soutien qu'ils m'ont apportés. Jupiter est dédié à la mémoire de Lawrence M. Beauregard, trop tôt disparu, qui était à l'origine de ce projet.


Updated at

Do you notice a mistake?

IRCAM

1, place Igor-Stravinsky
75004 Paris
+33 1 44 78 48 43

opening times

Monday through Friday 9:30am-7pm
Closed Saturday and Sunday

subway access

Hôtel de Ville, Rambuteau, Châtelet, Les Halles

Institut de Recherche et de Coordination Acoustique/Musique

Copyright © 2022 Ircam. All rights reserved.