temps réel

Liste des mots-clefs > dispositif électroacoustique > temps réel

Dans le courant de l'histoire de la musique mixte, les pièces mariant instruments acoustiques et sons sur support fixe ont vite montré des limites musicales, notamment en termes d'interaction. La possibilité de traitements numériques du son en direct est née dans les années 1980, et s'est illustrée par des pièces emblématiques de Pierre Boulez (Répons) ou Philippe Manoury (Jupiter). Le son des musiciens est ainsi capté par un microphone, numérisé et envoyé à un ordinateur qui est programmé par le compositeur de manière à construire une partie musicale que l'on appelle "partie électronique". Une partie électronique peut comprendre différents traitements sonores (temporels, timbraux, spectraux...), l'envoi de fichiers son préalablement enregistrés, et enfin la spatialisation de ces éléments dans la salle de concert via les haut-parleurs.
Le rapport du musicien aux sons des haut-parleurs s'inverse : désormais la machine se plie au temps du musicien. Ainsi, pour le musicien, la gestion temporelle redevient libre et une souplesse est réintégrée, qui est celle de l'interprétation. Pour le compositeur, une véritable écriture électronique peut ainsi se mettre en place, plus ou moins voisine d'une écriture orchestrale.

Analyses