Séance 4

Représentations pour l’analyse musicale

Vendredi 27/03/2015 13h30 – 17h30 salle D223
Coordination de la séance : Jean-Marc Chouvel et Pierre Couprie

Depuis l’exemple du sonagramme, qui a radicalement changé notre rapport à l’écoute du son, de nombreuses autres représentations ont été proposées qui peuvent aussi modifier notre perception de certains aspects de la musique et poser la question de la pertinence d’une conception « en temps réel » de l’analyse. Cette séance proposera une exploration de quelques-unes de ces représentations.


Hugues Seress
De l’Hypersphère au Spinnen Tonnetz : propositions d’adaptation pour les modèles triadiques

La représentation mathématique des ensembles musicaux et de leurs relations ne constitue pas un domaine d’étude véritablement récent. Véritable corollaire de la théorie musicale austro-allemande depuis le grand XIXe siècle (Euler, Marx, Öttingen, Riemann…), elle est relayée depuis la Set Theory (années 1960) et la théorie transformationnelle de David Lewin (1987), par la musicologie systématique anglosaxonne (Clough, Klumpenhouwer, Hyer, Cohn, Douthett, Steinbach, Tymoczko…), ainsi que par « l’école formelle française » (Mazzola, Andreatta, Jedrzejewski, Chouvel, Hascher…).

Avec Richard Cohn (1996), ces représentations se dotent du critère de parcimonie et d’une description de la conduite des voix. Cette réflexion constitue le point de départ d’un nouveau cadre pour l’étude des progressions harmoniques. Cette nouvelle représentation, nommée Abstract Tonnetz, présente les trois transformations P, L et R à partir d’une triade Q 0,x,x+y, donnant respectivement les ensembles suivants : P(Q)=0,y,x+y ; L(Q)=0,x,-y ; R(Q)=2x+y,x,x+y. Cohn démontre, en remontant à une formulation générique du modèle PLR, que les collections triadiques consonantes mineures et majeures sont celles qui permettent la meilleure parcimonie, et que leurs potentialités résultent davantage des propriétés théoriques de leur groupe dans le cadre d’un chromatisme modulo 12, que de leurs propriétés acoustiques. La triade majeure ou mineure devient une entité surdéterminée, et la tonalité chromatique, le lieu privilégié des nouvelles explorations néo-riemanniennes.

Dans le sillage des nombreux écrits américains des années 1990, sont définis les systèmes hexatoniques, nommés Maximally Smooth Cycles (Cohn) ou Dancing Cubes (Douthett), qui constituent une reformulation des régions de Weitzmann (1853), mais aussi d’autres cycles et générateurs parcimonieux d’accords à 3 et 4 sons (Octacycles PR, Enneacycles, Octatowers). Cohn note que la répartition des 12 hauteurs nominales en 4 ensembles de 3 classes de hauteurs équidistantes (triades augmentées) permet de connecter deux à deux des Hexacycles PL. C’est ce que réalise le Cube Dance (1997). Cette recherche de points d’intersection entre les cycles générés par des chaînes binaires et ternaires de transformations, constitue probablement un nouveau point de départ dans l’histoire des Tonnetze. C’est ainsi qu’apparaissent, notamment, les représentations hexagonales, parmi lesquelles le Chicken Wire, qui en connectant Hexacycles et Octacycles, dessinent un nouveau cycle de six régions tonales reliées par une note commune : PLR family (Cohn). C’est ce modèle que spatialise G. Baroin (Hypersphere of Chords).

Depuis les années 2000, consécutivement au regain d’intérêt pour l’analyse schenkérienne et l’analyse des répertoires de la pré-tonalité, ainsi qu’à la découverte ou la redécouverte de théories du système tonal (Vecteurs Harmoniques de N. Meeùs, Polarité Transformationnelle de S. Karg-Elert…), les modèles de description et de représentation du système chromatique tentent de dépasser la successivité des événements harmoniques, en réintégrant les concepts de direction et de hiérarchie tonales, qui seuls permettent l’appréhension du système comme processus transformationnel, et non comme simple objet formel (Tonnetz Polarisé de H. Seress). La mythique récursivité des niveaux de la structure fait progressivement place à la définition d’une hiérarchie sur la base d’une observation contextuelle des différents caractères déclinés par les progressions tonales et harmoniques (Spinnen Tonnetz de G. Baroin et H. Seress).

Ce sont ces différentes phases de la construction des modèles de représentation que se propose de retracer cet exposé, en s’attardant plus particulièrement sur les plus récentes d’entre elles. Au moyen d’exemples musicaux variés, il tentera de montrer la nécessaire adaptation des Tonnetze au type de fonctionnement tonal ou de niveau de structure décrit.


Stephen Malinowsky (sous réserve)


Sandrine Baranski
La complexité des transcriptions multimédia des œuvres électroacoustiques

De nombreuses transcriptions visuelles, de la partition graphique à la création de vidéos musicales, ont été réalisées, en particulier depuis l’apparition de nouveaux outils multimédia tels que SpecDraw et AudioSculpt de l’IRCAM ou l’Acousmographe de l’Ina-GRM. Dans le domaine de la musique électroacoustique, la transcription visuelle est une démarche qui rompt avec l’esthétique de la musique acousmatique. Elle représente cependant, à mon sens, un intérêt majeur dans le domaine de l’analyse de ce genre musical où la partition n’existe pas. La question est alors : comment utiliser ces outils multimédia pour réaliser une transcription qui soit pertinente pour l’analyse ? Mon intervention consistera à montrer, à travers mes propres réalisations, que ma démarche ne vise pas la simple transcription de l’écoute à l’aide de ces outils multimédia, mais essaie de prendre en compte d’autres aspects importants de l’œuvre musicale tels que les schémas et les écrits du compositeur, le texte, les analyses antérieures de l’œuvre, etc. Tous ces éléments vont alors interagir au moment de la réalisation de la transcription pour donner une transcription graphique complexe de la musique électroacoustique qui devient partie intégrante de l’analyse musicale.


Clarisse Bardiot (sous réserve)


Annick Bureau (sous réserve)


 

Séance 3

Intersémiotique du visuel et du sonore

Vendredi 13/03/2015 13H30 – 17h30 salle D040
Coordination de la séance : Jean-Marc Chouvel et Marina Maluli

La sémiotique est l’exemple d’une méthode analytique qui a saisi très tôt l’intérêt d’une transversalité entre les arts. Comment s’organise l’interopérabilité des signes entre le visuel et le sonore ? Que pouvons-nous apprendre des situations où l’intersémiotique est indispensable, comme l’esquisse préalable, la notation graphique de la musique, etc. ?


Marina Maluli
Aspects cursifs et recursifs dans la notation graphique

L’objectif de notre présentation sera de comprendre quelques aspects de la pensée des compositeurs qui ont choisi une notation non-conventionelle pour écrire sa musique. A partir de l’analyse des manuscrits et de différentes éditions des oeuvres choisies, on essayera de démontrer comment la cursivité et la récursivité dans l’expression sonore et visuelle se trouvent sensibilisés dans ces différents langages selon le point de vue de la sémiotique tensive. Ces deux concepts, liés à la notion même d’oeuvre d’art peuvent non seulement nous aider à comprendre quelques relations établies entre les arts, mais aussi à démontrer le fort lien entre la pensée et l’écriture du son.

Télécharger le diaporama en PDF


Pierluigi Basso Fossali
Le geste sonore dans le multi-verse acoustique. Énonciation musicale et environnement médiatique

De la fosse qui donne une position invisible à l’orchestre dans les salles de théâtre à The unanswered question de Charles Ives, qui prévoit les instruments à corde dans les coulisses, la musique moderne à explorer l’idée de cacher de plus en plus l’instanciation sonore, ce qui a favorisé, de manière paradoxale, une imaginaire gestuel. Comme Xenakis a toujours souligné, la musique électronique, même si acousmatique, semble signifier des interventions productives. A cette énonciation gestuelle « résistante », on peut ajouter les caminantes de Luigi Nono, à savoir, sur le plan de l’énoncé musical, la circulation spatiale des sons détachés et autonomisés par rapport aux pratiques instrumentales en acte, à cause des phénomènes d’asynchronie et de transformation (live electronics). La « tragédie de l’écoute » semble conquérir un espace dramaturgique abstrait et la présence des spectateurs trouve une justification qui dépasse la virtuosité « visible » des exécuteurs. Ces derniers sont engagés le plus souvent dans une relation physique, presque intime, avec l’instrument, et seulement une transposition dans une image sonore « spatialisée » peut devenir de nouveau un interprétant possible de l’œuvre. L’invisible devient une condition d’accès à un véritable voyage dans le son, de sorte que, même sur le plan de la composition, on peut commencer à structurer des rencontres avec la matière sonore et à négocier des approches innovatrices à l’écoute. La marginalité sociale de la musique contemporaine a lui permis une certaine émancipation par rapport au monde médiatique, ce qui a favorisé paradoxalement une réflexion – peut-être la plus originale – sur la notion de remédiation. En ce sens, le filtre technologique n’a que la fonction d’explorer des conceptualisations inédites du temps acoustique, voire une inclinaison à transformer la musique dans un art de l’espace (installation).


Jean-François Bordron
Le son comme fait sémiotique

On essaiera de montrer comment un paysage sonore, dont on pourrait attribuer la teneur essentielle à une source naturelle, peut également être compris comme un domaine sémiotiquement constitué. Pour ce faire, nous réfléchirons sur le caractère sémiotique de la perception en général et sur celle des sons en particulier.


Veronica Estay-Stange
Voire et entendre : convergences haptiques

Une question particulièrement prégnante pour la sémiotique contemporaine est celle des conditions de transposition du concept d’énonciation, à partir de son domaine de référence, la linguistique, à des langages autres que le verbal, et en particulier à l’énonciation visuelle et musicale. En revenant sur cette problématique, nous développerons l’hypothèse d’un substrat haptique (c’est-à-dire gestuel et tactile) de l’énonciation commandant les diverses formes d’avènement du sens, qu’il s’agisse de sa manifestation dans la parole en situation, ou de son surgissement dans la perception. Cette hypothèse nous permettra, d’une part, d’aborder les rapports entre énonciation et perception, et, d’autre part, d’explorer les échanges entre le verbal, le musical et le visuel. Comme nous essayerons de le montrer, ces différents domaines trouveraient dans l’haptique leur point de convergence et même la source de leurs paramètres énonciatifs.


 

Séance 2

Perception sonore – perception visuelle : quelle cohérence cognitive ?

Vendredi 13/02/2015 13H30 – 17h30 salle D040
Coordination de la séance : Jean-Marc Chouvel et Philippe Lalitte

Une des questions fondatrices de la revue musimediane était d’interroger l’apport du multimédia pour la pratique de l’analyse musicale. La synchronisation du signal acoustique et du message analytique, la possibilité de visualisation « simultanée » de divers types de représentations permettait a priori de rapprocher le message analytique de la perception sonore. Mais un message multimodal n’a pas la même implication cognitive qu’une écoute musicale aveugle, même si cette dernière peut aussi générer parfois une activité intérieure « imagée ». Certes, un concert est un « spectacle vivant », et l’auditeur veut « voir le pianiste jouer ». Mais que pouvons-nous savoir des bénéfices, ou des interférences, que la combinaison du visuel et du sonore impliquent pour la cognition ?


Kevin Dahan
Sur la question des représentations numériques pour l’analyse musicale

Il est possible de grouper les différentes stratégies de représentation de la musique développées pour l’analyse en deux familles : celles qui se basent sur une quantification et/ou une formalisation de divers aspects du message, et celles cherchant à mettre en avant des éléments plus qualitatifs, s’appuyant souvent sur le phénomène perceptif du sonore. Cette tendance, ancienne, est devenue plus complexe par l’apport de la technologie, et la facilité de traitement de l’information qu’elle procure. Les outils numériques appliqués à la musique, jusqu’aux avancées les plus récentes en apprentissage automatique et en recherche d’information, contribuent à enrichir les possibilités de représentations (textuelles, graphiques, sensorielles) à disposition de l’analyste. Face à la multiplicité des possibles, celui-ci se retrouve dans la position d’employer des représentations de plus en plus attrayantes, mais qui encapsulent des informations de plus en plus complexes – allant jusqu’à l’interprétation.

On questionnera alors les liens cognitifs qui façonnent dans un environnement numérique, la relation entre le message musical, ses manifestations, ses représentations et son analyse, particulièrement dans le cas des musiques sans support écrit préalable ; nous verrons ce qu’il est possible d’en tirer afin d’améliorer tant les stratégies de représentations que la compréhension des interactions entre un fait musical et son (ses) analyse(s) dans un contexte technologique.


Michel Imberty
De la figure au geste, de l’espace au temps

La notion de geste est souvent utilisée de manière métaphorique dans les discours sur la musique. Cet usage recouvre bien des ambiguïtés, tant sur le plan musical que sur le plan cognitif. Le geste part évidemment du corps, il est mouvement du corps ou d’une partie du corps qui se meut dans l’espace, mais aussi dans le temps. Il y a bien une forme spatiale du geste que je peux décrire, voire tracer sur le papier, mais cette forme ne peut se manifester que déployée dans le temps, elle n’a de réalité que dans le temps, celui de l’acte moteur qui l’engendre. Le geste est donc d’abord caractérisé par le profil temporel du mouvement qui en est le support. Mais le geste ne se réduit pas à ce mouvement, et d’ailleurs tout mouvement n’est pas geste. Le geste doit être défini comme un mouvement intentionnel plus ou moins complexe, orienté vers un but déterminé qui lui donne un sens individuel, social ou historique.

Les psychologues ont tenté de comprendre cette ambivalence du geste à travers les phénomènes d’imitation ou d’apprentissage. Les compositeurs ont eux aussi apporté leur contribution, et on essaiera d’articuler les deux points de vue en partant du livre de Salvatore Sciarrino dont le titre pose les termes mêmes de l’ambivalence espace-temps dans l’histoire de la musique. On se rendra compte que le terme de « figure » proposé par le compositeur est en réalité complètement imprégné de « formes temporelles » dont on pourra essayer de préciser les contours.


Jean-Michel Boucheix
Compréhension, mémoire et intégration cognitive multimodale : approche expérimentale et eye tracking

Analyser, comprendre  c’est former une représentation unique ou cohérente du contenu présenté à partir d’un ensemble d’informations sensorielles multiples : texte, image, sons, et parfois  information haptique. J’essaierai de montrer à partir des travaux récents en psychologie cognitive/expérimentale, et de mes propres recherche qui utilisent l’analyse du mouvement des yeux,  les conditions d’une intégration sensorielle « efficace » à partir des modèles de la la mémoire de travail et de la cognition incarnée.  Je centrerai l’exposé surtout sur l’intégration image-écrit.


Olivier Koechlin
Experiences et perspectives du multimedia interactif pour l’analyse musicale

Cette présentation propose une approche interactive de l’analyse musicale, à travers l’expérience de différentes réalisations multimedia menées depuis ces vingt dernières années.

On présentera d’abord Les Musicographies, une série de dix transcriptions graphiques réalisées en 1996 pour l’INA-GRM sur des musiques traditionnelles, improvisées ou contemporaines, explorant différents types de représentations (schématiques ou sonographiques, linéaires ou circulaires, etc.).

On présentera ensuite le Gamelan Mécanique, réalisé avec Kati Basset en 2004 pour la Cité de la Musique de Paris, qui permet de comprendre et de mettre en œuvre les mécanismes du répertoire de cet instrument-orchestre indonésien, grâce à un veritable simulateur interactif particulièrement réaliste.

On présentera enfin metaScore, un outil auteur pour la réalisation et la publication de documents d’analyse interactifs, développé depuis 2004 pour la Cité de la Musique de Paris, qui l’a utilisé pour le production de nombreux Guides d’écoute. Cet outil permet la synchronisation d’hypertexte et de graphismes animés avec l’écoute interactive d’une œuvre. Développé initialement en format shockwave, il est actuellement en cours de ré-écriture au format HTML5.

Ces trois exemples, illustrant des genres musicaux très divers, conduiront à une reflexion sur les questions de représentation du phénomène musical, d’anticipation dans les processus de lecture, de segmentation temporelle (pagination), et à proposer une méthodologie d’écriture et une ergonomie de consultation des documents d’analyse musicale interactive.

Séance 1

Pertinence, usage et interprétation des descripteurs pour l’analyse

Vendredi 23/01/2015 13H30 – 17h30 salle D040
Coordination de la séance : Alain Bonardi et Pierre Couprie

Sous la dénomination de « descripteurs audio », un nombre considérable d’outils ont été développés ces dernières années qui proposent de mettre en évidence des aspects spécifiques du signal audio. Bien que la plupart aient été développés dans un contexte, celui de la recherche d’information musicale (M.I.R), assez éloigné des préoccupations de l’analyse, on peut toutefois interroger la pertinence de ces « descripteurs » pour la compréhension du phénomène musical. Quelles sont les catégories mises en évidence ? Quel est le potentiel de leur combinaison ? Quels aspects du message musical mettent-ils en avant ? et quels aspects leur restent inaccessibles ? Leur démultiplication est-il un gage d’adéquation ou une impuissance à délivrer une synthèse ?


Diemo Schwarz
Gestion de larges corpus audio annotés et segmentés pour synthèse et analyse interactives

Cette intervention présentera le système CataRT pour la synthèse concaténative par corpus.  Cette synthèse est fondée sur une segmentation des sons d’entrée et leur analyse automatique en descripteurs audio tel que pitch, volume, brillance, rugosité, etc., à laquelle peuvent s’ajouter des annotations manuelles.  Ensuite, le système permet une visualisation et exploration interactive et intuitive du corpus audio. Pour la création musicale, la métaphore de composition ou de jeu avec cet instrument numérique devient la navigation dans l’espace multi-dimensionnel des descripteurs. Toutefois, déjà pour un but d’exploration et analyse d’un corpus audio, l’interactivité et les modes de visualisation avancées offerts par CataRT peuvent donner un accès rapide et intuitif a des grands corpus.

Nous présenterons la version actuelle en application Mac, le patch modulaire pour Max, et les variantes futurs de CataRT actuellement en développement.


Pierre Couprie
Quelques réflexions sur l’usage des descripteurs audios dans l’analyse de la musique électroacoustique

L’usage des descripteurs audios pour l’analyse des musiques électroacoustiques est très récent. Principalement développés pour l’analyse, la reconnaissance et la classification des sons harmoniques, leur adaptation à l’analyse d’œuvres dont le matériau est principalement inharmonique pose de nombreux problèmes. Une des difficultés principales reste la réalisation de représentations adaptées à l’analyse musicale et leur interaction avec les représentations et transcriptions habituellement utilisées en électroacoustique. Depuis 2011, le logiciel EAnalysis a progressivement intégré différents modes de représentation à partir des descripteurs audios, permettant ainsi de guider l’analyse musicale en facilitant la mise en évidence des singularités du flux sonore, des structures de timbre ou des transformations du son.

Télécharger le diaporama en PDF


Philippe Lalitte
Analyser l’interprétation avec les descripteurs audio : avantages, contraintes et limitations

Les descripteurs audio résultent de l’extraction de propriétés acoustiques et psychoacoustiques par réduction du signal. Conçus à l’origine pour l’analyse de la parole et du timbre, les descripteurs audio sont particulièrement exploités dans le champ des MIR (Music Information Retrieval). Depuis quelques années déjà, l’analyse musicale assistée par ordinateur (AMAO) a intégré ces outils qui permettent de visualiser, de mesurer et d’analyser des phénomènes sonores à partir d’enregistrements. Cette approche donne accès à de nombreuses informations provenant de la performance (tempo, timing, saillance et micro-variations de hauteurs, couleur sonore globale, variations de timbre, qualité de la texture, espace acoustique, etc.). Cette communication a pour objet d’examiner les avantages, les contraintes et les limitations du recours aux descripteurs audio pour l’analyse de l’interprétation. Elle s’appuiera notamment sur l’analyse d’interprétations enregistrées des Dix pièces pour quintette à vent de György Ligeti.


Mikhaïl Malt
Descripteurs de bas niveau et analyse musicale, réflexions…

Le dernier quart de siècle a vu une grande évolution des moyens informatiques disponibles pour le grand public. Si la réalisation de sonagrammes et d’autres analyses du signal était auparavant réservée à ceux disposant d’une grande capacité de calcul, ou ayant l’accès à des institutions possédant des ressources informatiques importantes, de nos jours des logiciels (Audiosculpt, © Ircam, Acousmographe — © Ina-GRM, SonicVisualiser – © Queen Mary, EAnalyse et iAnalyse © Pierre Couprie, etc.) payants ou libres et des plateformes informatiques matérielles sont désormais accessibles au plus grand nombre. D’autre part, le développement de la Music Information Retrieval a fait émerger une grande quantité de savoirs et de descriptions concernant le sonore. Ce contexte met à la disposition des musicologues de nouveaux outils, matériels et conceptuels, pour étudier le sonore et proposant de nouveaux flux de travail. Cependant, comment ces avancées techniques et scientifiques se reflètent et s’intègrent dans l’activité musicologique ? Dans quel cadre et quel contexte peuvent-ils être utiles ? Quel est le rapport entre description et analyse musicale ? Quelles sont les limites actuelles de ces techniques ? Est-ce que ces nouvelles possibilités ne seraient-elles pas un reflet des nouveaux moyens de production ? Celles-ci sont quelques-unes des questions que nous aimerions poser dans notre présentation.


Geoffroy Peters
Descripteurs audio : de la simple représentation au modèle de connaissances

Télécharger le diaporama en PDF