Qu’est-ce que la musique acousmatique ?

Exposé détaillé de présentation du genre.

La musique acousmatique

L’industrie culturelle nous fournit les sons musicaux auxquels nous sommes habitués : notre oreille peut se reposer dans ce qu’elle distingue sans peine du bruit. Ce dernier est alors oublié, jusqu’à l’occultation. En effet, nous n’avons aucune raison d’écouter ce qui ne fait pas partie de la musique familière, et nous ne remarquons les bruits de la vie quotidienne qu’en tant qu’ils sont les indices des événements qui nous entourent : si j’entends une porte claquer, c’est que quelqu’un vient d’entrer. On écoute la musique, on entend les bruits.

La grande musique s’est affranchie depuis longtemps du système harmonique traditionnel. Beethoven, Wagner, Debussy, Stravinsky, Messiaen et Boulez l’ont amenée à rechercher davantage des valeurs de timbre et de matière que de hauteur de note. Les possibilités des instruments ont été exploitées pour elles-mêmes. Mais au vingtième siècle a eu lieu une révolution sonore, qui s’est initiée dans la musique savante et a étendu son influence dans de nombreux genres mineurs : c’est la prise de conscience des limites du son musical et instrumental. D’abord, on s’est rendu compte de la limitation du son orchestral. Comme le remarque Adorno dans Musique et nouvelle musique, « le compositeur dispose, au moins tendanciellement, d’un continuum des hauteurs, des intensités, des durées, mais non, jusqu’à présent, d’un continuum des timbres. Ceux-ci restent au contraire – même au sein de l’orchestre, qui en offre l’éventail le plus large – relativement indépendants les uns des autres, avec des trous. C’est là une conséquence de leur origine anarchique ; aucune échelle de timbres n’est encore comparable à celle des intervalles ou des intensités ». Ensuite, les nouvelles technologies ont permis d’intégrer à la musique un bruit dont on découvre toute la richesse : alors que le son dit musical est dû à une succession périodique et régulière de vibrations, le bruit « se produit lorsque les vibrations secondaires sont en nombre plus grand ». Donc, « la différence vraie et fondamentale entre le son et le bruit se réduit uniquement à ceci : le bruit est bien plus riche de sons harmoniques que ne l’est généralement le son » (Luigi Russolo, « Principes physiques et possibilités pratiques », 1916). C’est cette prise de conscience, conjointement à l’explosion des technologies dans le domaine de l’enregistrement, de l’écoute et du travail du son, qui a permis l’apparition d’un genre nouveau : la musique acousmatique. C’est le bruit qui en est le matériau ; et l’écoute de cette musique nous ouvre à une nouvelle manière de percevoir le son, en éduquant notre oreille, qui devient alors capable de percevoir « vraiment » tout ce qui l’entoure.

Pour commencer, il convient de définir les termes : qu’est-ce qu’une œuvre acousmatique ? C’est la manière dont se produit l’œuvre qui nous permettra de répondre à cette question. Nous étudierons ensuite l’émergence du terme « acousmatique » dans un court historique, qui nous permettra d’établir les indispensables distinctions de genres.

Une œuvre acousmatique est une œuvre de support, c’est-à-dire qu’elle ne se manifeste que par la lecture du support sur lequel elle est enregistrée. Son matériau est un matériau sonore ; Christian Zanési se définit d’ailleurs comme un « sculpteur sur son ». Dans Un portrait sans visage, il expose le parallèle entre l’activité du sculpteur sur pierre qu’est Irène Zack, dont on entend la voix et les coups de marteau, et celle du compositeur acousmatique.

L’œuvre acousmatique se fait à partir de l’enregistrement de sons provenant de toute source : ils peuvent être acoustiques (c’est-à-dire issus de divers instruments choisis pour leur aptitude à « sonner », pour leur timbre), figuratifs (facilement reconnaissables et renvoyant à un réel), synthétiques ou numériques (issus de programmations logicielles ou de transformations). Avant de travailler, le compositeur accumule les prises de son, choisit les sons qui lui semblent convenir à l’œuvre qu’il a l’intention de composer, puis il les transforme dans un studio. Pour faire cela, on peut exploiter toutes les possibilités du magnétophone à bande, comme fait Michel Chion : le travail sur le son est alors manuel (par exemple, pour obtenir un effet de superposition, il tire sur une bande déjà enregistrée afin de l’éloigner de la tête du magnétophone pendant le second enregistrement). Mais l’immense majorité des compositeurs utilise l’ordinateur, qui a fini par se démocratiser grâce aux rapides progrès technologiques. Les logiciels de composition, facilement accessibles, mettent à la disposition du compositeur de très nombreuses applications dans le travail du son. Les plus importantes sont :

– L’inversion : le son original est joué à l’envers, ce qui modifie considérablement la perception qu’en a l’auditeur. Une note inversée semble beaucoup plus longue, puisqu’on commence par entendre sa résonance, et un son passé à l’envers acquiert une autre force dramatique : le composé attaque-résonance donne un crescendo de plus en plus important, ce qui met en place une tension chez l’auditeur, en attente d’une résolution forte et brutale, qui sera suivie immédiatement de silence.

– La mise en boucle : un son ou une partie de son peuvent être isolés puis répétés à une vitesse qui dépend de la longueur du fragment choisi. Si le son mis en boucle a une durée inférieure à 50 millisecondes, alors on entendra une sorte de note tenue : c’est le « freeze », ou gel du son. Si sa durée est supérieure à 50 millisecondes, on entendra un événement répété, ce qui peut entraîner des illusions de perception, comme on le verra à propos de l’étude de la boucle dans Arkheion.

– Le filtrage : un son est une somme de différentes fréquences, dont certaines peuvent être supprimées ou augmentées par l’utilisation d’un filtre (par exemple, un filtre passe-haut supprime les fréquences graves). Le grain du son est alors complètement modifié : une voix modifiée par un filtre passe-haut semblera mécanique ou nasillarde.

– La modification temporelle : on peut ralentir ou accélérer le son. Un son dont la durée est doublée sera transposé d’une octave dans le grave, et sera plus aigu si on l’accélère ; on peut aussi choisir, grâce au traitement informatique, de conserver la hauteur du son tout en en modifiant la durée.

– La transposition : les mêmes logiciels permettent d’agir sur la hauteur du son sans en modifier la durée.

– L’écho est avec la réverbération parmi les premiers effets sonores apparus ; l’écho est moins utilisé depuis que la complexité des logiciels a ouvert des possibilités plus vastes de travail du son (délai, mixage en boucle, effets de volume). La réverbération donne une illusion d’espace plus ou moins grand (le Requiem de Michel Chion résonne comme l’intérieur d’une église). La Conférence du professeur Coustik d’Alain Savouret illustre ces deux derniers effets, ainsi que la transposition, puis présente les différentes utilisations possibles des haut-parleurs (mono, stéréo, bi-piste) et de l’espace.

– Enfin, le montage : des sons peuvent se jouer simultanément ou se juxtaposer, et l’œuvre se structure ainsi.

Tous ces effets se retrouvent sous des dizaines de déclinaisons différentes dans chaque logiciel de composition. Le plug-in (programme que l’on greffe au logiciel que l’on utilise pour composer, par exemple Cubase en acousmatique ou FruityLoops dans le cas de la musique répétitive populaire) de référence, où l’on trouve le choix d’outils le plus complet, est GRM-Tools.

Par opposition à la musique traditionnelle, où le résultat de l’écriture d’une mélodie est prévisible, la complexité des transformations appliquées au son empêche de savoir exactement ce qui résultera d’un traitement particulier. Il faut écouter le résultat pour savoir s’il sera utilisable, et s’il ne convient pas, on recommence autrement. Le travail se fait au fur et à mesure que le compositeur l’entend : l’œuvre s’élabore progressivement en un constant aller-retour du faire à l’entendre : c’est la démarche concrète dont parlent Pierre Schaeffer et Michel Chion (Pierre Schaeffer, A la recherche d’une musique concrète, 1952, p.168 ; voir aussi Michel Chion, L’art des sons fixés, Metamkine/Nota Bene/Sono-Concept, 1991).

Enfin, lorsque l’œuvre est élaborée, le compositeur va, comme le cinéaste, la projeter devant le public. Le dispositif de projection du son est un orchestre de haut-parleurs de différentes couleurs (selon leurs composants et leur marque, les haut-parleurs privilégient ou pénalisent des fréquences différentes, ce qui donne une autre couleur au son) et de différentes puissances, disséminés dans l’espace du concert. La musique acquiert alors une nouvelle dimension : elle devient spatiale autant que temporelle. Le dispositif de l’acousmonium sera étudié plus en détail dans la deuxième partie.

L’œuvre acousmatique est donc une œuvre de support, réalisée en studio. Mais, dans la littérature musicale, on trouve plusieurs appellations, qui semblent parfois désigner la même musique : acousmatique, concrète, électronique, électro-acoustique. Le terme « acousmatique » est apparu pour lever la confusion entre les différents genres dont l’évolution a posé des problèmes de catégorisation.

En 1948, Pierre Schaeffer est créateur et producteur de radio ; ce nouveau moyen de communication trouve son mystère et son succès dans l’« écouter sans voir » qui le définit. Toutes les archives de la radio sont à la disposition de Schaeffer, qui se met à « jouer » avec afin d’en trouver de nouvelles utilisations. Il a ainsi l’idée d’écouter le « sillon fermé » d’un disque rayé plutôt que de le rejeter comme déchet ; il découvre aussi qu’un son amputé de son attaque acquiert un timbre totalement différent (l’oreille prend une note de piano ainsi traitée pour un son de hautbois) : il cherche « le contact direct avec la matière sonore, sans électrons interposés » (Pierre Schaeffer, La musique concrète, PUF, 1973).  Pierre Schaeffer est ensuite rejoint par Pierre Henry, avec lequel il composera plusieurs pièces, comme Bidule en ut ou Symphonie pour un homme seul. Après leur séparation, Pierre Henry a contribué à populariser le nouveau genre par des concerts qui ont réuni un public de plus en plus vaste : Messe de Liverpool, Messe pour le temps présent (laquelle est projetée avec une chorégraphie de Maurice Béjart ; le second mouvement, « Psyché Rock », a été souvent repris, notamment par la publicité). Pierre Henry crée ensuite le premier studio privé de musique concrète : Apsome.

Pierre Schaeffer fonde alors le Groupe de musique concrète de la RTF (qui devient le Groupe de Recherches Musicales en 1958). La musique concrète est originellement liée aux recherches menées dans les studios de radio. La démarche de Schaeffer est de réfuter tout a priori musical, défendre une appréhension « concrète », empirique du son, par opposition à la démarche jugée abstraite des compositeurs qui restent fidèles à l’intermédiaire de l’écriture, du solfège traditionnel. Pour les musiciens « concrets », l’objet sonore est posé comme préalable à toute structuration. Dans son Journal de la musique concrète, Schaeffer écrit : « Ce parti pris de composer avec du matériau sonore, dans mon esprit porte le nom de musique concrète, pour bien marquer la dépendance où nous nous trouvons, non plus à l’égard des abstractions sonores, mais bien des sons concrets pris comme des objets entiers ».

Le travail se fait donc essentiellement à partir de sons acoustiques de toutes provenances, captés par le microphone.

Peu après apparaît au studio de Cologne un nouveau genre, dénommé Elektronische Musik, et utilisant exclusivement des sons électroniques : à ce moment, la différence avec la musique concrète est claire. Seulement, en 1955, Schaeffer compose Haut-Voltage, et Karlheinz Stockhausen, chef de file du mouvement électronique, Le chant des adolescents : ces deux œuvres mêlent, à partir de partis pris opposés, des sons des deux origines, électronique et acoustique. C’est alors le terme de musique électro-acoustique qui désigne en France les œuvres composées en studio sur bande magnétique.

Le problème suivant est celui de la confusion qui s’installe entre musique sur bande et musiques instrumentales mixtes qui revendiquent l’appellation électro-acoustique. Jean-Michel Jarre a quitté le GRM après une année d’étude, mais a continué à appeler sa musique « électro-acoustique » parce qu’il utilise des synthétiseurs ; pourtant, il le fait dans une optique instrumentale tout à fait traditionnelle. On confond musique de sons fixés et musiques jouées en direct par des instrumentistes.

A la fin des années 70, François Bayle, à cette époque directeur du GRM, rappelle le terme acousmatique pour tenter de redonner de la visibilité au genre. Ce mot était utilisé par Pythagore pour désigner son enseignement, délivré dans le noir et derrière un rideau afin que ses étudiants ne soient pas distraits par une perception visuelle et puissent développer leur concentration ; il désigne maintenant la situation particulière d’écoute des musiques de sons fixés. La musique sur bande s’appelle désormais musique acousmatique.

Denis Dufour, dans un article intitulé « Qu’est-ce que la musique acousmatique ? » dégage la symbolique de cette évolution des termes sur trente ans : d’abord, « musique concrète » suggère la façon dont le compositeur conçoit et élabore son œuvre en studio, selon la fameuse démarche concrète avec écoute immédiate du résultat de ses manipulations, et un aller-retour constant du faire à l’entendre. Ensuite, « musique électro-acoustique » se réfère à la dimension technologique du travail : les machines, les outils de réalisation, ainsi que la nature (électronique ou acoustique) des matériaux employés. Enfin, avec « musique acousmatique », c’est la situation d’écoute qui est qualifiée, dans laquelle le son enregistré est affranchi de sa cause initiale, qu’elle soit encore reconnaissable ou non.

La distinction est maintenant claire. L’électroacoustique est l’ensemble des genres musicaux faisant usage de l’électricité dans la conception et la réalisation des œuvres. Sont électroacoustiques les œuvres de support (également appelées « art acousmatique » par Denis Dufour), les œuvres pour instruments amplifiés (à condition que cette amplification joue un rôle décisif dans l’esthétique de l’œuvre), les œuvres mixtes (où un instrument s’ajoute à une piste sonore sur support). L’acousmatique est une sous-catégorie qui comprend les œuvres sonores travaillées sur support audio diffusé sur haut-parleur (dont la conception visuelle n’installe pas de rapport direct de cause à effet avec le résultat sonore entendu). L’œuvre est réalisée en studio, fixée sur support et livrée à l’écoute seule.

La musique acousmatique a donc supprimé tout contact avec l’instrument, tout « réel » visible sur scène dans l’espace du concert : le son ne naît plus de quelque chose qui serait là pour lui donner autorité en s’inscrivant dans un temps antérieur à celui de l’écoute de la seule œuvre. De plus, l’œuvre sur support n’a plus d’original, elle devient pure reproduction, puisque tous les CD pressés à sa parution et utilisés lors de la diffusion sont exactement identiques. Les deux critères que Walter Benjamin utilise pour définir l’aura dans L’œuvre d’art à l’ère de sa reproductibilité technique se trouvent donc annulés. Mais on ne peut pas pour autant parler de perte de l’aura pour l’objet sonore, qui s’inscrit tout de même dans une création artistique et est par là le support d’une vérité propre à l’œuvre d’art. C’est le référent qui change : là où Benjamin examine l’objet qui constitue l’œuvre, il faut considérer le contenu, immatériel, qu’est le son. Celui-ci acquiert une dimension complètement nouvelle : ce qui compte n’est plus l’objet-source mais l’objet sonore.

L’art acousmatique suggère de « nier l’instrument et le conditionnement culturel, [de] mettre face à nous le sonore et son possible musical » (Pierre Schaeffer, Traité des objets musicaux). L’œuvre est livrée aux auditeurs sans que ceux-ci aient accès aux sources « réalistes », c’est-à-dire causales ou anecdotiques, des sons. Il n’y a pas de stimulation ou distraction visuelle parasite : seul le son parvient à la perception, donc l’imaginaire entre en jeu librement, ce qui permet faire abstraction de toute référence musicale préexistante. Surtout, le son compte seul : Michel Chion définit l’écoute réduite (Guide des objets sonores, INA/GRM, Buchet-Chastel, 1983), notion utilisée à l’origine dans le champ d’expérimentation de la musique concrète par Pierre Schaeffer, comme abstraction de la provenance et du sens du son, qui est écouté seulement pour lui-même. Cette attitude consiste à inverser la double curiosité pour les causes et le sens (qui pose le son comme intermédiaire, tendant vers d’autres objets visés à travers lui) pour la retourner sur le son lui-même. C’est une écoute foncièrement antinaturelle, puisque le son est toujours naturellement traité comme un véhicule. La perception du son en acousmatique est dépouillée de tout ce qui n’est pas lui.

Alors que le système de référence du son musical octaviant est la hauteur, celui du bruit est l’espace : c’est l’autre nouveauté introduite par l’art acousmatique. Cette dimension s’est peu à peu imposée comme une propriété à part entière du phénomène sonore, susceptible d’être gérée aussi rigoureusement que les autres. On est passé d’une écoute traditionnelle monodirectionnelle à une écoute multidirectionnelle, grâce aux dispositifs de projection sonore : l’œuvre n’a désormais plus pour lieu un point particulier de l’espace, mais une salle entière. Si le support CD a perdu sa « valeur cultuelle » avec son originalité, il est devenu le médium d’une sorte d’évocation : utiliser cet objet matériel fait advenir quelque chose d’immatériel. Le cultuel s’est détaché de l’espace ponctuel pour passer dans le virtuel.

*

Pure reproduction technique sans original, le support de l’œuvre acousmatique pose deux problèmes : celui de l’interprétation et celui de la notation.

L’outil de projection de l’œuvre sonore est l’acousmonium, qui a été élaboré à partir de l’évolution de l’utilisation spatiale du haut-parleur. Celui-ci est considéré comme un écran : au cinéma, on trouve différents cadres généraux de mise en scène, et il en va de même pour le son.

– Dans le mono, le haut-parleur unique est un écran qui donne la notion d’objet musical : c’est ce qui a un début et une fin, et le résultat d’écoute varie selon sa taille (grand, il est effrayant ; petit, il attire une attention soutenue).

– La stéréo introduit de l’espace et du relief. Le son est projeté à partir de deux points synchronisés ; comme les haut-parleurs sont directionnels, cela forme un cône devant eux où gauche et droite sont concentrés. Apparaît alors un objet virtuel : le point unique de la monophonie est remplacé par une surface, et, alors que dans le mono l’objet est entendu là où se trouve le haut-parleur, l’effet stéréophonique fait entendre l’objet entre les deux, c’est-à-dire là où il n’y a rien.

La stéréo ayant été inventée pour le disque, elle ne fonctionne que pour une seule personne, qui doit être placée dans le cône où droite et gauche sont entendues au même volume. Pour passer à la salle de concert, on dispose de nombreux écrans stéréophoniques dans la salle, qui élargissent l’espace audible. L’acousmonium est comme « un pont soutenu par des piliers », pour reprendre une expression de François Bayle (lors d’un masterclass de novembre 2003) : c’est un « dispositif de projection du son, ou orchestre de haut-parleurs, pour l’interprétation des musiques de sons fixés ». Tous les haut-parleurs sont reliés à un pupitre central où l’interprète équilibre l’intensité.

Il existe aussi d’autres formats : la multiphonie et le 5.1.

La musique acousmatiqueLa conception monophonique de la multiphonie (un haut-parleur par coin de la salle) fait retourner à une musique uniforme, sauf pour les vortex, inventés par Stockhausen dont les œuvres sont en 4 pistes (Contact, Sirius) : il s’agit d’un mouvement circulaire des sons, fait pour intéresser l’oreille dramatique. L’utilisation de quatre haut-parleurs avait cours dans les années 60. De nos jours, l’octophonie rend les vortex davantage perceptibles ; c’est plutôt une tradition allemande.

La musique acousmatiqueLa conception stéréophonique de la multiphonie, tradition française, consiste en une fabrication de plans étagés : comme la numérotation ne va pas dans le même sens, il est impossible d’y jouer un vortex sauf si celui-ci est organisé d’avance par la composition.

Le 5.1, qui consiste en deux paires de haut-parleurs à l’avant et à l’arrière, un central et un caisson de basses, a été inventé pour le cinéma : les événements sonores sont placés dans l’espace selon leur nature (le haut-parleur central est réservé aux dialogues). Mais, à en croire François Bayle, il n’apporte pas grand-chose à la composition acousmatique, car l’acousmonium est déjà complet. Les œuvres sont donc pour la plupart composées en stéréo, ce qui leur permet une commercialisation et une maniabilité aisées, puisque leur support est un standard universel.

On pourrait penser qu’une œuvre gravée sur CD, c’est-à-dire fixée une fois pour toutes, ne laisse aucune place pour une modification par l’interprétation. Un concert instrumental traditionnel comporte une prise de risque pour l’interprète, qui peut toujours se tromper de manière imprévisible ; il ajoute également de l’expressivité qui n’apparaît pas explicitement sur la partition, et il apporte son style particulier. Chaque concert est différent, mais l’achat du CD fait qu’on se retrouve avec un enregistrement immuable, qui n’est qu’une possibilité d’interprétation parmi d’autres, donc qui n’épuise pas l’œuvre. L’œuvre de support n’emploie pas d’instruments qui pourraient ajouter ce facteur d’imprévisible ; on peut jouer une partition de différentes manières, mais le CD passe d’une seule façon. Le travail de l’interprète n’est pas supprimé pour autant. Il passe à d’autres registres : l’espace et la couleur.

Dans le passage du studio à la salle, il faut « agrandir » la musique. Celle-ci est faite de moments différents que l’interprète doit appuyer en utilisant l’espace : par exemple, l’attaque d’une percussion peut donner une image centrale, et la résonance, c’est-à-dire le moment où le son s’élargit, nécessite d’ouvrir l’espace, c’est-à-dire de faire passer le son sur des paires de haut-parleurs plus éloignés.

MOTUSS’agissant des registres de haut-parleurs, il y a quatre couples d’opposition : grand/petit, neutre/coloré, proche/éloigné, entourant la salle (circulation)/concentrés (latéraux, devant ou au fond). L’acousmonium MOTUS, dont l’interprète titulaire est Jonathan Prager, privilégie cette dimension : les haut-parleurs, de différentes couleurs sonores, sont disposés de façon asymétrique, alors que Musiques&Recherche d’Annette Vande Gorne, symétrique, met l’accent sur la signification des différents points de l’espace utilisés (l’arrière est dramatique, les haut-parleurs situés au-dessus du public sont autoritaires comme une voix divine : le sens de l’espace sert à appuyer celui de la musique).

Il y a donc une interaction entre le jeu et la composition : le compositeur invente des figures. Composer n’est pas seulement mettre ensemble, c’est prévoir le déploiement des sons, préparer l’audition, préparer les contrastes de lisibilité des figures. Pour François Bayle, le problème de la composition est le même que celui de la projection. Dans les années 70, où l’on plaçait un haut-parleur par coin de la salle, la musique était faite de processus uniformes ; cela fonctionnait aux débuts, mais il est devenu nécessaire d’ajouter des différences, c’est-à-dire des figures comportant des dimensions, des oppositions, des développements, des raccourcissements, des explosions ou des repos : c’est l’idée d’acousmonium. La composition est un projet, en ce qu’il n’y a pas de composition sans projection envisagée d’avance : la composition est déjà une projection. L’interprétation pertinente est celle qui comprend les plans et les figures acoustiques nécessitées par la musique : par exemple, on peut considérer Tremblement de terre très doux de François Bayle comme emblématique de l’acousmonium et de la stéréophonie, car il se compose de différents espaces, de chambres, que l’on visite et dont chacune possède une ambiance particulière. L’interprète doit trouver un plan acoustique pour chaque pièce, et centrer les incidents par rapport aux autres sons (une attaque est ponctuelle, et met en place un objet réel ; celui-ci doit faire contraste avec l’ambiance, qui remplit l’espace). Le morceau de Christian Zanési sur lequel nous nous appuyons présente la succession de différents espaces, qui se fondent l’un dans l’autre au fur et à mesure de la projection du morceau : un espace centré, sur lequel se détachent des illustrations sonores, et un espace qui se déplace en stéréophonie, lorsque la partie musicale prend le pas sur la partie signifiante.

Le genre acousmatique implique également une interrogation quant à la notation des morceaux : une musique de support ne fournit rien de lisible. La partition traditionnelle a deux usages : l’interprétation et l’analyse musicale.

La projection d’une œuvre acousmatique nécessite de connaître les changements forts du morceau. Le compositeur acousmatique ne fait pas de partition de projection, ce qui peut entraîner des contresens de la part de l’interprète : on peut se tromper sur le début ou la fin d’une idée, si on ne reçoit pas avec la musique une ponctuation qui servirait en quelque sorte de didascalie. Dans les faits, l’interprète apprend le morceau par cœur et repère les accents importants en en notant l’endroit : quelques chiffres suffisent donc, une partition de projection n’est pas vraiment nécessaire.

Par contre, l’analyse musicale ne peut se passer de support visuel, car une image est immédiate et permet le travail critique, tandis que les œuvres acousmatiques sont souvent très longues (63’25’’ pour La tentation de Saint Antoine de Michel Chion). Pour répondre à ce besoin, le GRM a développé le logiciel Acousmographe : l’ordinateur affiche les fréquences entendues sur un diagramme. Un exemple de l’image obtenue se trouve en première page : on y discerne clairement deux attaques fortes suivies chacune d’une résonance riche en harmoniques, et auxquelles s’ajoutent de courtes percussions très graves, au bas du cadre. Cette visualisation permet de se repérer dans l’œuvre et de savoir à peu près quelle sorte de son on considère ; comme la décomposition du son en fréquences ne permet pas de rendre entièrement compte de ce qu’on entend (on ne voit pas les mots que prononce une voix), le logiciel permet de dessiner par-dessus des formes géométriques qui rappellent l’événement sonore, ou d’ajouter du texte. Il s’agit donc d’une partition utilitaire, et qui transforme le travail d’analyse. L’Acousmographe permet de travailler sur le son et l’image à la fois, dans un défilement synchronisé, alors qu’auparavant l’analyse ne se faisait que sur support papier bien que son objet fût sonore.

L’acousmatique remplace donc la partition et l’écriture : il s’agit d’un changement de fond dans l’histoire de la musique, qui associe la musique à la technologie.

Pour en savoir plus : écoutez un extrait d’Arkheion de Christian Zanési et lisez l’analyse de ce passage.

Publicités

Une réponse à “Qu’est-ce que la musique acousmatique ?

  1. Bonjour,
    « Haut-Voltage » est une œuvre de Pierre Henry, non de Pierre Schaeffer. Par ailleurs, en 1951 Pierre Henry avait composé « Musique sans titre » qui mêlait déjà sons d’origine acoustique et sons électroniques.

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s