informations

Type
Soutenance de thèse/HDR
Lieu de représentation
Ircam, Salle Igor-Stravinsky (Paris)
durée
01 h 44 min
date
30 mai 2013

Soutenance d'HDR de Arshia Cont

Arshia CONT, de l'équipe Représentations musicales et du projet MuTant, soutiendra en anglais son habilitation à diriger des recherches (HDR) devant un jury composé de : - Gérard Berry - Professeur au Collège de France - Rapporteur - Roger Dannenberg - Professeur à Carnegie Mellon University - Rapporteur - François Pachet - Sony CSL, Paris - Rapporteur - Carlos Agon - Professeur à l'UPMC - Examinateur - Miller S. Puckette - Professeur à l'Université de Californie - San Diego (UCSD) - Examinateur (video conf) - Marco Stroppa - Compositeur (video conf) dont voici le résumé : Mes activités de recherche et d'encadrement, depuis ma soutenance de thèse en octobre 2008, gravitent à la confluence de deux problématiques souvent considérées comme distinctes dont le couplage est plus qu’évident en informatique musicale : l'écoute artificielle et la programmation synchrone des signaux musicaux en temps réel. Le but est d’enrichir chaque domaine respectivement et de fournir des outils nécessaires aux artistes pour étendre leurs capacités de création musicale sur ordinateur (à celui de leurs homologues humains). Le premier aspect de tout système de musique interactive est l’acte de l’écoute ou formellement parlant, l’extraction d’informations musicaux en temps réel. J’ai concentré mes efforts sur les approches axées sur les applications telles que la détection de pitch polyphonique et les techniques d’alignement en temps réel d’une part. Puis, d'autre part, j'ai abordé des problèmes fondamentaux liés à la représentation des signaux. Pour le premier volet, nous avons proposé deux approches reconnues comme l’état de l’art et renommées par leur utilisation par la communauté artistique et leur reconnaissance au sein de la communauté MIR. Le deuxième volet théorique porte sur le problème fondamental de la quantification et la qualification du contenu de l’information arrivant progressivement dans un système en utilisant des méthodes de la géométrie de l’information. Le deuxième et plus récent aspect de mon travail se concentre sur la programmation synchrone réactive de la musique, couplée à des systèmes d’écoute (ou la formalisation de réactions dans les systèmes interactifs aux perceptions artificielles en temps réel). Notre approche est motivée par les pratiques actuelles en art numérique et les exigences d’évaluation en temps réel qu'elles demandent. L’incarnation majeure de cette approche est le système Antescofo doté d’une machine d’écoute et d'un langage dynamique et qui s’est imposé dans le monde entier dans le répertoire de la musique mixte, reconnu du public depuis 2009. L'écriture du temps, l’interaction et la tentative d’assurer leur exécution correcte en temps réel posent des problèmes difficiles pour l’informatique et les concepteurs de systèmes. Ce couplage fort fera l’objet de mon travail dans les années à venir sous la bannière des systèmes de musique Cyber-physique. Le couplage entre la machine d’écoute et des langages temps réel nécessite d’augmenter les approches actuelles avec des modèles formels de temps, dépassant les approches fonctionnelles qui dominent pour développer une formalisation des exigences de réaction et d’exécution. Il faudra en conséquence repenser nos méthodes usuelles de traitement audio multiforme et leurs modèles de calculs sous-jacents en ce qui concerne le temps. Ce travail a donné lieu à 5 publications de revues, 3 articles de vulgarisation, 3 chapitres de livres, plus de 20 publications de conférences, et la création de l’équipe-projet MuTant en 2012 conjointe entre l’Ircam, le CNRS et l’Inria. http://repmus.ircam.fr/mutant http://repmus.ircam.fr/arshia-cont/

intervenants


partager


Vous constatez une erreur ?

IRCAM

1, place Igor-Stravinsky
75004 Paris
+33 1 44 78 48 43

heures d'ouverture

Du lundi au vendredi de 9h30 à 19h
Fermé le samedi et le dimanche

accès en transports

Hôtel de Ville, Rambuteau, Châtelet, Les Halles

Institut de Recherche et de Coordination Acoustique/Musique

Copyright © 2022 Ircam. All rights reserved.