KERNEL
L’histoire d’un ensemble d’ordinateurs, projet de pensée électronique
L’ordinateur utilisé comme « instrument » — comme un « vrai » instrument, c’est à dire avec les possibilités de phraser et d’interpréter une musique, de la « jouer », et non pas uniquement un appareil qui reproduit à la demande des fichiers sonores, comme l’ordinateur l’est encore très souvent perçu par les auditeurs, mais aussi par beaucoup trop de musicien·ne·s — l’ordinateur comme « véritable » instrument semble promettre une ouverture vers d’autres musiques ou plutôt vers d’autres façons de penser la musique. Aller vers d’autres voies, cela a été le pari de KERNEL, trio de « live electronic music » qui a réuni pendant quelques années, de 2007 à 2010, les musiciens et compositeurs Eryck Abecassis, Wilfried Wendling et Kasper T. Toeplitz. C’est sur cette expérience et sur les questions qu’elle a posées, notamment en ce qui concerne l’épineuse question de la composition, ou de l’écriture, pour un tel ensemble, et d’ailleurs pour l’instrument-ordinateur en général, que le présent texte voudrait revenir, non pas tant dans l’espoir de « faire le point » d’une façon définitive — tâche impossible — mais plutôt pour se reposer certaines de ces questions, toujours ouvertes.
Il y a peu, lors du montage technique d’un concert solo d’une nouvelle composition dans un théâtre, à Paris, j’allais dans la régie afin d’expliquer au régisseur-son mon setup technique et lui préciser que toute la musique était synthétisée en temps-réel au moment du concert sur mon laptop, ce qui rendait, lors du soundcheck, le fait de sauter d’un endroit à un autre, d’un son à un autre, voire même de vérifier le « moment le plus fort » (grande marotte des sonorisateurs), compliqué sinon impossible, puisqu’il s’agissait d’un processus à chaque fois recommencé, d’une évolution de gestes et d’une accumulation des sons, forcément un peu différentes d’une fois sur l’autre. Ce à quoi le sonorisateur me répondit d’un laconique « Ah oui, un système old-school… ».
Et autant sa réponse m’a paru être inattendue et surprenante, autant elle est justifiée aujourd’hui, puisque la majeure partie des concerts de musique électronique a tendance ces jours-ci à utiliser non pas mêmes des samples — ou échantillons, petits bouts sonores servant à bâtir la musique — mais plutôt carrément des fichiers sons complets, gros blocks de musique déjà préparés et mixés qui peuvent parfois durer plusieurs minutes, sur lesquels sont parfois ajoutés des effets manipulés dans le moment du concert, ainsi que, bien évidemment, quelques machines hardware… quand ce n’est pas l’omniprésent petit ensemble de modules Eurorack, l’accessoire quasi obligatoire de l’attitude « hip » en musique en ce 21e siècle. Pourtant même si le logiciel d’Ableton, Live, est pétri de qualités et s’il a ouvert la possibilité du concert (électronique) à de nombreux musiciens, cette ouverture n’a, à mon avis, rien de comparable à celle qu’à offerte l’arrivée du laptop dans le processus de jouer, mais plus encore dans celui de penser la musique.
Pourtant lors de la première vague des concerts d’électronique digitale « live » que j’ai vus et entendus (et auxquels j’ai participé), à la fin du 20e siècle, parler de laptop aurait souvent été abusif puisqu’on voyait parfois, à l’époque, des musiciens arriver avec tour, clavier, écran et souris — on était loin d’une solution élégante de portabilité! Mais déjà se dessinait clairement une autre façon de produire et penser la musique, et également de la présenter (mais la présentation fait à n’en point douter partie d’une globalité de pensée) puisqu’au lieu de la figure héroïque du musicien sur scène, figure transmise pratiquement à l’identique depuis le rock d’Elvis, jusqu’aux groupes punk avec ses icônes comme Paul Simonon du groupe The Clash (et la pochette de leur London Calling qui est évidemment un détournement de la pochette du premier album de Presley) ou encore Sid Vicious (célèbre pour son inaptitude à savoir se servir de son instrument), en passant bien entendu par tous les groupes du rock « de stade » (stadium rock) comme Queen ou U2 et allant au-delà, jusque dans la musique industrielle (les concerts de Test Dept 1[1. Groupe anglais formé en 1981, aussi connu sous le nom Test Department.] ou d’Etant Donnés, n’ayant rien à envier en termes de volonté de présentation — sinon les moyens financiers, bien entendu — aux spectacles de Madonna ou Lady Gaga) on a toujours la même valorisation du « performeur », sa même mise-sur-un-piédestal, tandis qu’avec cette nouvelle « laptop music » qui était en train de naître, ces codes-là disparaissaient : on s’est souvent demandé comment Pita (Peter Rehberg) pouvait bien jouer de la musique alors qu’il avait une bière dans une main et une cigarette dans l’autre, ou que faisait exactement Zbigniew Karkowski à se balader dans la salle, ou à aller au bar, tandis que son ordinateur, laissé seul, continuait de produire son mur de bruit (il est vrai qu’en d’autres circonstances, notamment au sein du Sensorband, avec Atau Tanaka et Edwin Van den Heide, le même Karkowski était bien plus actif, encerclé qu’il était par un réseau de capteurs). Certes, beaucoup d’autres étaient autrement plus concentrés, à l’excès même, puisque, les yeux rivés sur l’écran il était difficile de ne pas imaginer qu’ils étaient en train de lire leur courrier (l’email était alors naissant) ou la notice du logiciel qu’ils essayaient de faire fonctionner. Mais bien évidemment l’essentiel était dans la texture et l’ampleur des sons, leur précision également (cette même précision qui aujourd’hui peut être parfois pointée comme un défaut dans certains logiciels : souvent ai-je entendu dire que la présence « au raz des haut-parleurs » des sons produits par Max/MSP pouvait être gênante, voire désagréable), pourtant des sons assez incroyables — faut-il ajouter « pour l’époque »? — dans leur complexité, polyphonie et polytimbralité et le fait qu’ils pouvaient être produits, synthétisés, dans le temps du jeu, par un seul musicien et une seule machine (et non plus résultants d’une montagne de synthétiseurs mis en réseau par le MIDI) semblait bien ouvrir des voies nouvelles; intrigué, il ne m’en fallait pas plus pour songer à un ensemble constitué uniquement d’ordinateurs.
Avant
La naissance de l’ensemble KERNEL 2[2. Sur la page web consacrée à KERNEL on peut trouver non seulement les renseignements factuels sur l’ensemble, mais également les PDF des compositions que celui-ci a jouées.] n’a pourtant pas été immédiate. Sans même parler du nécessaire temps d’apprentissage du maniement, fut-il basique, de l’ordinateur et des quelques logiciels nécessaires à la production musicale telle que je l’imaginais (et même si le choix a très rapidement été d’utiliser essentiellement Max/MSP, qui s’est imposé au trio comme une évidence), un évènement a été crucial dans l’élaboration de l’idée de cet ensemble. Cela a été la commande qui m’a été faite en 2002 par le GMEM (Groupe de Musique Expérimentale de Marseille) 3[3. Centre national de création musicale situé à Marseille.] — d’une nouvelle pièce mélangeant électronique et instruments « traditionnels ». Cette pièce que j’ai nommée Kernel — soit un des rares termes directement liés à l’informatique — a été composée pour un ensemble de quatre instruments, soit thérémine (joué par Laurent Dailleau), percussions (Didier Casamitjana), basse électrique (dont je jouais moi-même) et un instrument-lumière (joué par Silvère Sayag) autrement dit un contrôle par ordinateur du dispositif lumineux (des commandes DMX) inscrit lui aussi sur la partition, un peu à la manière d’un instrument muet. À cette époque je commençais déjà à être passionné par les possibilités timbrales offertes par l’action de l’ordinateur sur le son d’un instrument. De plus, puisqu’il s’agissait d’une commande du GMEM, où travaillait à cette époque-là le chercheur, musicien et développeur Laurent Pottier et que donc je savais pouvoir compter sur son aide dans l’élaboration technique de la pièce 4[4. Plus tard Laurent Pottier a écrit une « Étude de “Kernel”, pièce mixte de Kasper T. Toeplitz ».], aussi ai-je demandé à ce que les deux autres instrumentistes (Dailleau et Casamitjana) s’équipent d’un laptop en plus de leurs instruments traditionnels et qu’ils en jouent effectivement, eux-mêmes, comme d’une extension de ceux-ci, à l’opposé de ce qui se faisait beaucoup alors (et ce qui se fait encore beaucoup aujourd’hui) à savoir que la partie électronique, les traitements, soient gérés par l’assistant musical (on ne disait pas encore RIM 5[5. Réalisateur·trice en Informatique Musicale, tout comme RAN signifie Réalisateur·trice en Art Numérique.]) et que l’ordinateur soit relégué en régie.
Deuxième fait marquant, à peu près au même moment le chercheur, programmeur et musicien Peter Castine faisait paraître sa libraire d’objets Max, Litter, un ensemble d’objets destiné tant à la création de bruit(s) de diverses « couleurs » et densités qu’à celle de diverses distributions aléatoires — l’idée de Castine étant que le bruit audio est une illustration sonore d’une distribution aléatoire de données, de data. Fasciné par la découverte et l’écoute des bruits noirs, rouges ou bleus je décidais d’adjoindre à la pièce Kernel une courte introduction électronique jouée, en synthèse pure, uniquement sur ordinateurs par les musiciens du projet, et utilisant largement la librairie Litter de Castine. Mais la prégnance de ces bruits et ma fascination pour eux était telle que lors du travail de ce qui devait encore être essentiellement une pièce instrumentale, cette introduction ne cessait quotidiennement de s’allonger : chaque jour je présentais aux musiciens une partition changée et rallongée, et le moment de passer aux instruments s’éloignait chaque jour d’autant plus, si bien qu’in fine ce qui devait être une courte introduction est devenu une partie de quelque 40 minutes, jusqu’à devenir le cœur de cette composition, Kernel!
Instrument
À ce moment-là, presque tous les éléments étaient en place pour pouvoir commencer l’aventure de KERNEL — l’ensemble. Pourtant il m’a encore fallu quelques années avant de lui donner vie, sans doute le temps nécessaire pour en définir plus précisément les conditions d’existence, les buts et les contraintes et bien évidemment trouver les musiciens adéquats.
L’idée première et principale de KERNEL était que le seul instrument utilisé par l’ensemble serait l’ordinateur et qu’il s’agirait de jouer, en temps réel, des partitions préexistantes, écrites (ou plutôt composées, l’amplification du terme étant importante) en dehors du sonore — et un tel énoncé est en fait bien plus contraignant et directif qu’il n’y paraît :
Dans le sous-entendu du choix de l’ordinateur comme unique instrument existe évidemment la question de l’interface utilisée pour jouer de cet instrument : et là d’office était posée comme condition le fait de ne pas utiliser de copies d’instruments existants ou des contrôleurs issus d’une façon traditionnelle de jouer (et donc penser) de la musique. Exit donc tout ce qui est clavier (clavier MIDI), pourtant l’une des interfaces les plus courantes, encore aujourd’hui, de même que tout ce qui pouvait s’apparenter à des guitares (en l’occurrence MIDI ce qui englobe également les contrôleurs issus de jeux comme « Guitar Hero »), mais également les pads de percussions, voire les contrôleurs basés sur les instruments à vent. Ce qui nous laissait les surfaces de contrôle du type sliders et potentiomètres (sans que personne ne relève leur similitude avec la table de mixage — sans doute celle-ci nous paraissait être suffisamment éloignée d’une façon traditionnelle de penser la musique, même si, bien entendu, la notion du « studio comme instrument » n’était étrangère à aucun de nous trois!), sans oublier le trackpad (nos laptops étaient des machines Apple, dont les trackpads sont excellents). Je considère encore aujourd’hui, pour le jeu sur ordinateur, le trackpad comme une des interfaces les plus adaptées et une des plus fines, des plus « musicales ». Un peu plus tard d’autres contrôleurs ont fait leur entrée, comme les manettes Wii (les Wiimotes) ou les iPads et iPhones (nous nous servions alors des accéléromètres construits dans ces appareils).
Si l’ordinateur était l’instrument principal, rien par contre ne s’opposait à l’emploi d’autres appareils électroniques, même si les synthétiseurs à clavier étaient exclus à cause de leur clavier, justement — et la mode n’était pas encore aux synthétiseurs modulaires Eurorack, qui n’offraient pas, à l’époque, la même variété et les mêmes possibilités qu’aujourd’hui. D’ailleurs quelques essais, sur des synthétiseurs analogiques « traditionnels », d’adaptation de partitions prévues par l’ensemble m’avaient laissé plutôt déçu. Le problème venait essentiellement du manque de polyphonie et de polytimbralité — et de souplesse d’utilisation — de ces instruments. Par contre, sur certaines compositions nous avons utilisé des machines hardware comme compléments de nos ordinateurs (notamment un filtre Sherman, et pour un moment dans une autre composition, une pédale de Fuzz « noise swash » construite sur mesure par 3ms 6[6. Constructeur de pédales d’effet puis de modules Eurorack, ayant aujourd’hui changé son nom en 4ms.], et jouée en auto-oscillation, donc sans signal en entrée [en anglais : no input]).
« Jouer » la musique en temps réel, la produire entièrement dans le moment du concert, supposait de ne pas utiliser de fichiers sons — et j’avais même poussé le dogme jusqu’à exclure les samples! — et que tout le sonore soit fabriqué (synthétisé) en temps réel. Bien évidemment on pourra discuter à foison pour définir si oui ou non un oscillateur simplissime comme l’objet [cycle~] dans Max/MSP, qui lit une table d’onde, que l’on peut par ailleurs changer, utilise ou non des samples et par conséquent s’il est à bannir ou pas… Sans doute d’un pur point de vue « scientifique » — ou plutôt technique — oui, il s’agit d’une lecture de sample, mais ce que j’avais alors en tête c’est une vision un peu plus politique, si l’on peut dire, selon laquelle on doit être responsable des sons que l’on utilise, et donc les avoir créés de toute pièces, ce qui est à l’opposé de l’idée d’objet (sonore) « trouvé » de la musique concrète — mais également d’une grande part de la production pop ou de musique de film, dans laquelle il n’est nul besoin d’avoir touché ou même approché un violon pour avoir un son de violon ou d’orchestre — et le fait de le rendre méconnaissable n’était pas la question et pas plus une option. 7[7. Notes de programme écrites en 2003, avec des retouches légères à l’occasion de leur inclusion dans le présent texte.]
D’autre part dans KERNEL le terme de « jouer » pouvait se traduire par « interpréter une partition » puisqu’il n’a jamais été question d’improvisation dans cet ensemble; certainement que la marge dite « de liberté » laissée entre un instrument aussi riche et une écriture ayant encore à trouver ses marques nous paraissait largement suffisante.
Le choix du logiciel utilisé — ce qui peut être vu en grande partie comme l’instrument utilisé — a toujours été laissé libre, et si presque instinctivement nous avons tous trois adopté Max/MSP, dans l’absolu il aurait été possible d’utiliser d’autres outils : SuperCollider, Pd, CSound, voire même des logiciels largement plus commerciaux comme Reaktor auraient pu entrer en ligne de compte. Mais voilà, Max paraissait plus « simple » ou plus ouvert ou plus approprié — ou tout simplement les acteurs du projet l’avaient-ils adopté de préférence par le monde musical dont ils étaient issus : Max et un ordinateur Apple étant les outils de facto d’une certaine façon de penser et faire de la musique électronique « institutionnelle » (ou académique), comme celle émanant de L’IRCAM, en France — pays où s’est construite l’aventure de KERNEL. S’il y avait eu des amateurs de hip-hop parmi nous, il est possible que nous ayons pu adopter, par exemple, Fruity Loops — tournant sur un ordinateur PC tout comme un amateur de « beats » aurait pu nous rapprocher des logiciels de Native Instruments!
Pour finir le tour des logiciels employés, nous n’hésitions pas dans KERNEL à utiliser maints plug-ins (comme les GRM Tools, également des créations de Native Instruments, dont Reaktor, mais surtout des nombreux freewares, programmes souvent écrits par des étudiants et jamais portés dans les versions successives des OS de nos machines — encore aujourd’hui le souvenir de la beauté de destruction sonore apporté par le Berrtill-0501-192940 parvient à nous tirer des larmes d’émotion!) puisque le logiciel Max a cette capacité à accueillir ces mini-programmes. Cela bien entendu rendait le « portage » des patches, ou leur éventuel partage avec d’autres musiciens, venus d’autres mondes, plus compliqué, mais ce n’était absolument pas une de nos préoccupations. De plus, le fait que tous les musiciens de KERNEL utilisent le même outil de base a par contre contribué à développer une sorte de pensée commune, de réflexes simultanés, presque un « esprit de corps », et les trouvailles ou résolutions des problèmes de l’un se retrouvaient souvent chez l’autre, en une magnifique émulation.
Justement, les musiciens : s’il peut paraître curieux d’inclure les musiciens (dont je faisais partie) dans le paragraphe consacré à l’instrument ce n’est nullement une dépréciation! Au contraire, cela est dû au profil particulier qui est demandé aux participants d’un tel projet. Alors que dans un ensemble instrumental « normal » où les instruments individuels définissent la fonction des musicien·ne·s qui les jouent — quand il ne s’agit pas du registre sonore habituel de l’instrument — dans le cas de l’ordinateur, seule la programmation (et la personnalité de l’interprète) crée les possibles et les contraintes musicales de l’instrument — rapprochant ainsi le musicien du facteur d’instrument qui crée son outil, ou alors des pianistes (du 20e siècle) qui « préparent » leur piano. Et dès les débuts de KERNEL il a été évident qu’une part de l’interprétation de la musique résidait dans l’écriture par chacun de ses propres patches Max, donc d’une certaine façon dans l’écriture de son instrument. Il fallait donc que chacun de nous soit un peu programmeur. À la vérité, je crois qu’aucun des musiciens de KERNEL ne se soit jamais considéré comme programmeur de haut vol, mais justement ces contraintes-là étaient également des paramètres musicaux, ou les devenaient. Dans le cadre de la musique électronique, donner à un interprète un « patch » fait par un autre est — à mon avis — largement contre-productif, voire a-musical, puisque les actions lors du jeu seront alors une exécution d’une série de gestes pensés par un autre et non pas une véritable interprétation personnelle de la musique, comme celle qui est rendue possible dans le monde des instruments traditionnels par une connaissance intime de son instrument, fruit d’années de travail. 8[8. Bien avant KERNEL, pour une autre composition, RARE, j’avais écrit un patch unique que j’avais donné, en même temps que la partition, aux quatre musiciens jouant cette composition. Il s’agissait toutefois d’un mouvement d’ensemble unique, basé sur une idée d’accumulation gigantesque et tous les quatre musiciens avaient strictement la même fonction musicale, tandis que tous les timbres utilisés devaient être identiques.] À cette fonction de programmeur — ou luthier — devait bien évidemment s’ajouter la capacité d’interprète, voire même celle de compositeur, notamment dans la façon de « lire » — et comprendre — les partitions proposées. À faire une analogie avec le monde des instruments classiques, s’il fallait me remplacer dans un projet il y a peu de chances que ma partition avec mes propres annotations de doigtés ou de coups d’archet soit d’une grande utilité pour la personne me remplaçant — sans doute ses propres notes, qui sont autant de choix personnels, remplaceraient les miennes. Dans tous les cas il est évidemment clair que personne ne me demanderait de jouer sur mon violoncelle, préférant plutôt d’utiliser son propre instrument, tout comme chaque interprète d’un instrument à vent va apporter ses propres anches.
Même si au départ je songeais à une structure un peu « ouverte », à un ensemble « modulable », très rapidement KERNEL est devenu le trio de Eryck Abecassis, Wilfried Wendling et moi-même. De plus, l’idée de collectif, de nébuleuse de musiciens, a rapidement fait long feu, même si dans les tout premiers temps nous avions voulu faire appel à un musicien comme Laurent Dailleau (qui était présent lors de la création de la composition Kernel) puis à Christine Webster et nous avions même fait un court essai avec Pierre-Alexandre Tremblay. Ce dernier est un fabuleux musicien et sans aucun doute le profil idéal pour ce type de projet, puisqu’il est autant musicien que compositeur ou chercheur, mais également enseignant à Huddersfield (Angleterre), mais c’est la contrainte d’éloignement qui a probablement fait que KERNEL soit resté un trio et se soit passé des services de M. Tremblay, dont toutefois est longtemps resté dans les patches de KERNEL un « objet » (un filtre FFT) qu’il a écrit pour nous, pour les besoins d’une composition, en toute amitié.
Plus encore que dans le cadre d’un groupe plus traditionnel je suis persuadé que l’identité des musiciens a non seulement façonné le son et l’attitude musicale de l’ensemble, mais que celui-ci est indissociable de leurs choix musicaux et que leur remplacement aurait été impossible (là où même à l’intérieur de l’étalon d’or de l’idée de groupe, les Beatles, Ringo Starr a pu être temporairement remplacé par Jimmie Nicol, le temps d’une tournée australienne) à tel point que lorsque nous parlions récemment d’une éventuelle reformation du projet, celle-ci me paraît inconcevable avec d’autres musiciens.
Composition
Le point essentiel dans un projet d’ensemble d’ordinateurs, bien plus que le choix de cet instrument particulier, ou alors comme corollaire inévitable de ce choix, est bien évidemment la question de la musique jouée, y compris comment la jouer. On l’a vu, le point de départ de KERNEL a été la composition du même nom, Kernel — ou plutôt la (très longue) introduction électronique à cette composition. Pour l’occasion je reprenais une fois encore la partition, la peaufinant, modifiant et l’allongeant, pour en faire une nouvelle mouture, que je renommais Kernel #2. Comme nous décidions de sortir un CD de la composition jouée par le nouvel ensemble avant même le premier concert de celui-ci, l’idée de commencer cette aventure musicale directement par le numéro 2, comme sans passer par la case départ, me plaisait bien, je dois avouer. Kernel #2, sous-titré « pour bruits », est écrit sous forme de notation graphique (utilisant un programme de dessin vectoriel), procédé qui me paraissait pertinent à plusieurs niveaux. D’une part, la pièce n’étant absolument pas mesurée, les proportions temporelles sont ainsi très clairement rendues perceptibles par la graphie même; d’autre part, les indications de hauteurs « précises » — rendues trop précises par leurs indications en hertz (du type 385,75 Hz) — gardaient leur part de mystère, que n’a pas la note solfégique (Fig. 3). 9[9. La partition complète de Kernel #2 est consultable sur le site web de l’auteur.] D’ailleurs, cette surprécision visait son contraire, puisque je notais qu’il devait s’agir plus d’une indication de « couleur » que d’une hauteur absolue, et demandais donc aux musiciens de garder en mémoire les couleurs spécifiques aux hauteurs (qui peuvent changer à quelques fréquences, ou hertz près) plus que de vérifier si les « bonnes notes » sont atteintes.
La partie — ou plutôt les parties, puisqu’une attention à plusieurs évolutions simultanées était demandée à chacun — que devait jouer chaque musicien était indiquée par l’initiale de son prénom (E, K ou W) tandis que pour l’avancement temporel de la composition j’optais pour un système de « cues » ou repères, ce qui allait bien avec l’idée qui m’est chère de « conséquence » ou « résultante » d’un son ou d’une action musicale. Cette idée est impossible à indiquer sur une partition solfégique, dans laquelle seule une étude du score d’ensemble (chose que les musicien·ne·s d’orchestre ne font jamais, laissant systématiquement cette tâche aux chef·fe·s d’orchestre) permet de dire que, par exemple, telle note de flûte est comme un contrecoup, ou une conséquence, d’un coup de grosse caisse joué quelques instants (ou mesures) plus tôt. En pratique, nous avons créé un réseau wifi fermé et nous nous envoyons des messages à chaque fois qu’une action avait été jouée : un moyen pratique de contrôler la succession précise d’actions musicales, sans pour autant empiéter, par un chronomètre et des timings, sur le déroulement temporel global de la pièce. Il est d’ailleurs intéressant de souligner comment Kernel #2, qui est resté au répertoire de l’ensemble tout au long de son existence, a évolué, tant en termes de qualité d’interprétation qu’en ceux de sa durée, au point qu’il nous a paru opportun d’enregistrer et de sortir une seconde version de la même composition, un peu plus d’un an (et pas mal de concerts) après sa première version! La comparaison, ou plus simplement l’écoute des deux versions, peut être éclairante sur les possibilités d’interprétation de la musique électronique de synthèse, et peut montrer par-là clairement que la notion d’instrument attribuée au laptop n’est pas usurpée. 10[10. Tous les enregistrements publiés de KERNEL peuvent être trouvés chez le distributeur Corticalart.]
Ce système d’écriture, mélange de notation graphique et de points de repère fixes (cues) devait être souvent utilisé dans les compositions pour KERNEL : ainsi la grande différence apportée par la partition de The Deep tient essentiellement à l’emploi de quelques couleurs et d’une « timeline » plus précise, tandis que la musique elle-même s’enrichit d’une spatialisation importante ainsi que de l’emploi de la lumière, éléments consignés sur la partition, joués également par les trois musiciens et contrôlés depuis leurs machines, lumière considérée comme continuation du geste musical (et on rejoint ainsi les idées déjà présentes et expérimentées dans la partition originelle de Kernel). Ce n’est que pour Dust Reconstruction (2007) que je me suis éloigné de cette représentation graphique pour essayer d’aller plus profondément dans l’idée d’une partition verbale. Mais Dust Reconstruction a été pensé comme une matrice de composition destinée à diverses orchestrations ou formations, puisque sa version initiale a été écrite pour le trio de Stevie Wishart (vielle à roue), Ulrich Krieger (saxophone) et moi-même (basse électrique) avant d’être reprise par l’ensemble Phoenix_Basel (et que le sous-titre de cette pièce en reconstruction permanente soit Architecture de Ruines n’en est que plus amusant). 11[11. En plus de la page sur la version originelle de Dust Reconstruction, on peut aussi consulter sa représentation graphique (dite « timeline ») et la partition.]
Mais bien évidemment je n’étais ni ne devais être le seul compositeur de KERNEL — et d’ailleurs l’idée du trio était également de susciter des compositions écrites par d’autres pour l’ensemble. Ainsi il a été tout naturel qu’Eryck Abecassis écrive une pièce pour KERNEL. La particularité technique de sa composition, Drowning Report 12[12. Consulter la partition sur le site web de l’auteur.], réside essentiellement en la mise en réseau non plus seulement des informations provenant des trois musiciens, mais également dans l’échange de données sonores (voir l’encadré) : ainsi un son généré par l’un devait être aussitôt traité et modifié par un autre, voire le troisième (Fig. 4). Cette mise en coresponsabilité de la création sonore rendue possible par l’instrument qu’est l’ordinateur n’est pratiquement jamais utilisée, et est pour ainsi dire impossible dans le monde des instruments traditionnels sauf en des rares cas. 13[13. Comme la technique d’abouchage de deux cuivres jouant pavillon contre pavillon, chacun devenant caisse de résonance de l’autre (technique ayant servie à Gluck et réutilisée récemment par Michaël Levinas).] Cette composition est un exemple d’un des nombreux possibles ouverts par une formation d’un ensemble d’ordinateurs — et sans doute qu’il y en a beaucoup d’autres et on ne peut que penser qu’envisager la composition musicale à partir de telles données ne peut que changer notre façon de penser la musique.
Seulement voilà : Eryck Abecassis et moi-même sommes les seuls à avoir écrit pour cette formation, ce projet, alors que pourtant, au risque de me répéter, le fait de proposer cet outil à d’autres compositeurs était dès le départ posé au cœur de celui-ci.
Un cas particulier est celui de Wilfried Wendling (Fig. 5), musicien du projet et par ailleurs compositeur à part entière. Wilfried a rapidement dit qu’il ne désirait pas composer pour l’ensemble afin de justement laisser une plus grande ouverture à d’autres compositeurs. Il arguait que si tous les membres du groupe écrivent pour celui-ci, cela crée une situation dans laquelle les rôles peuvent paraître se mélanger, du moins apparaître flous du dehors et décourager les potentielles envies d’autres compositeurs·trices, alors que si certains des membres du groupe ne restent « que » interprètes, la proposition de la composition à inventer paraîtra plus claire. Si sur le moment je me suis rangé à son avis — il n’était évidemment pas question de forcer à composer qui n’en avait pas envie — encore aujourd’hui je ne sais que penser de cette position. Il est possible qu’elle ait été pertinente (bien qu’elle n’ait pas été couronnée de succès), mais il est peut-être dommage qu’une autre esthétique n’ait pas été présentée par KERNEL, émanant d’un des membres du projet. Il est vrai que la demande est (encore aujourd’hui, plus de dix ans plus tard) plutôt inhabituelle, puisque nous insistions sur l’idée d’une écriture « à priori » (« à la table » dirions-nous en des termes plus classiques) : pas question de venir avec des samples, des échantillons de sons, voire une « maquette » sonore de la pièce. Nous insistions pour que la présentation de l’idée musicale destinée à être jouée par KERNEL soit faite dans un métalangage qui ne soit pas sonore. En quelque sorte, nous voulions nous charger nous-mêmes de la traduction de l’idée en son(s) et non pas travailler à une copie ou réappropriation d’un sonore existant. C’est sans doute chercher le sonore dans l’idée qui était la préoccupation essentielle du projet KERNEL, et ce parce que c’est dans le moment de cette « traduction » que se place le changement (et la pertinence?) de la pensée musicale, un peu à la manière du changement qui s’est opéré dans l’histoire de cet art lorsqu’une écriture standardisée s’est mise en place, celle qui permet d’écrire pour un orchestre ou même un seul instrument sans avoir celui-ci sous la main. L’énorme avantage d’utiliser un tel métalangage lors de la composition musicale me paraît être dans l’invention de choses (on dira « gestes musicaux ») impossibles à réaliser dans le moment mais appelants à inventer des techniques ou des instruments nouveaux. Que l’on y songe : avec les outils informatiques, des sonorités et des comportements jusqu’alors impensables deviennent possibles. Je pense par exemple aux sons dits « paradoxaux » 14[14. Tels que définis par Jean-Claude Risset, il s’agit de sons qui donnent l’impression de descendre ou de monter à l’infini, ainsi que d’accélérer ou de ralentir à l’infini.] et imaginons un·e compositeur·trice « classique » demandant à l’orchestre de faire un son qui descend tout en montant — et ce à l’infini. Cette personne serait immédiatement traitée de folle, et la proposition considérée impossible à réaliser, tandis qu’aujourd’hui on sait qu’une telle demande n’est pas déraisonnable.
Toujours est-il que nos demandes de compositions nouvelles n’ont pas porté leurs fruits, et parfois, les adressant à des artistes dont la réputation et l’implication dans la musique électronique étaient évidentes je me suis entendu répondre que l’on « ne pouvait pas » écrire pour l’ordinateur. Proposer des sons donc fonctionner « en imitation », voire un patch Max qui produirait un son donné, oui, mais personne ne s’est lancé à nous soumettre la « vision » d’une nouvelle composition qu’il nous appartiendrait de mettre en enveloppe sonore. Et la seule composition étrangère à l’ensemble que nous ayons finalement interprétée fut Oraison de Olivier Messiaen. Cette œuvre, écrite pour ondes Martenot donc pour un instrumentarium électronique, fut jouée lors du tout dernier concert de KERNEL, en juin 2010, dans l’église St Merri, à Paris — le lieu ayant influencé le choix de cette composition, bien évidemment.
En cette époque, le début du 21e siècle, où on parle tant de la libération du sonore, de libérer le musical du carcan du solfégique, de laisser le son parler par lui-même sans le poids de règles, cette frilosité ne cesse de m’interroger. En substance la demande adressée par KERNEL aux compositeurs·trices pourrait se résumer à leur demander de nous décrire ou raconter leur musique (celle qui devrait être entendue, produit de leur imagination), charge au trio de la rendre perceptible, de traduire l’idée en sons; et c’est sans doute là, dans cette invention de l’idée, que se place l’essentiel du travail de composition, et certainement pas dans le savoir-faire de la notation ni dans la maîtrise pointue de l’organologie. En un moment où de plus en plus nombreux sont les musicien·ne·s qui inventent leur propre instrumentarium et leurs propres règles, une telle démarche me semblait aller de soi. Paradoxalement, c’est lorsque je faisais une demande similaire, mais adressée depuis la basse électrique (même si débarrassée de son contexte, de sa fonction, et élargie par l’emploi de l’informatique musicale) que les réponses ont été plus nombreuses : dans le cas du trio d’ordinateurs c’est comme si l’absence d’un instrument étiqueté comme tel posait problème, qui devenait frein. Comme si le manque de repères évidents (par exemple, la notion de virtuosité, qui existe certainement aussi sur l’ordinateur — il suffit d’écouter à la suite quelques musicien·ne·s pour savoir qui est le plus à l’aise sur son instrument électronique — même si elle est difficilement quantifiable; il est certain que les critères habituels comme de jouer vite ou avec un placement rythmique complexe sont ici inopérants) rendait l’invention rapportée à l’instrument-ordinateur problématique. Peut–être cette difficulté dans la transmission est-elle à mettre du côté de cette nouvelle tendance qui voit des musicien·ne·s inventif·ve·s, même (ou surtout?) jeunes produire une musique intéressante, mais se refuser à jouer la musique d’autrui ni même participer à des expériences musicales en commun.
Pour autant je me refuse à accepter cette idée selon laquelle « on ne puisse pas écrire pour ordinateur(s) ». Ce qui est certain c’est qu’il nous manque le langage pour ce faire : il nous faudrait pouvoir décrire la musique imaginée autrement qu’en un langage descriptif des actions nécessaires à son émergence, ce qu’en substance le solfégique est, une sorte de tablature à peine plus sophistiquée…
Depuis
La vie de KERNEL a été relativement courte, même si bien remplie, puisque dans les quelque trois années de son existence nous avons produit quatre disques CD et avons effectué une bonne quinzaine de concerts. Il n’en est pas moins que reste présente la question de savoir si une telle proposition n’est pas venue un peu trop tôt : il y a dix ans l’idée de demander une composition à des artistes qui ne provenaient pas du monde « académique » ou de suggérer une « autre » façon d’écrire la musique, loin du solfégique, était bien moins développée. C’était avant que les ensembles comme Zeitkratzer, Phoenix_Basel et quelques autres ne fassent leur effet et produisent un (progressif) changement de pensée, celui qui met sur un pied d’égalité les créateurs·trices sonores qui viennent d’un enseignement académique de la musique ou bien qui avaient fait leurs classes en s’immergeant dans la pure écoute ou l’exploration d’un instrumentarium inventé par et pour eux seuls. Une telle révolution est sans doute essentielle au développement d’une façon « électronique » de penser la musique, par deçà les questions formelles qui souvent sont inopérantes. Ainsi j’en viens à penser aujourd’hui que les paramètres adressés par une écriture solfégique sont justement les moins pertinents s’agissant de musique électronique, que ce soit dans son faire ou dans sa pensée. Souvenir de ces premières séances de travail en trio où nous nous efforcions de déterminer à l’oreille la couleur de tel ou tel bruit émergeant de la texture musicale, voire même suivre, au cœur de la matière sonore, sa propre partie, tout aussi bruiteuse que les autres, tout comme on suit le chemin de son instrument dans une écoute d’enregistrement : ce n’étaient pas seulement nos codes de pensée qu’il nous fallait réexaminer, mais également nos critères de perception auditive qu’il fallait comme réapprendre. Et il faut certainement un peu de temps pour qu’une similaire bascule perceptive se fasse dans la perception des auditeurs.
La difficulté de la perception claire du placement esthétique de KERNEL (nous parlions autant, en termes d’influences musicales, de Xenakis, Ligeti ou Eloy que de Merzbow ou Menche) et un tel grand écart, s’il commence à être de plus en plus souvent revendiqué (et justement pas en termes de grand écart, mais en ceux de similitude, malgré des origines ou fonctionnements très différents) ne semblait pas évident pour la scène musicale (du moins en France) il y a une dizaine d’années. Sans doute si KERNEL avait pu bénéficier du soutien d’un centre de création ou d’une autre structure, son existence aurait elle pu être plus longue, mais tel n’était pas le cas et celle-ci a été subordonnée aux concerts proposés et à la volonté de participants au projet. Et il convient de saluer ici son éminence grise, Alexandrine Kirmser qui a été l’agent de KERNEL tout du long de ces trois années.
Même si aujourd’hui terminée, l’aventure de KERNEL reste pour moi encore essentielle — et je suis prêt à parier qu’il en est de même pour les deux autres participants du projet — et son influence reste présente dans nos démarches musicales présentes, que ce soit dans le travail compositionnel d’Eryck Abecassis (qui s’est tourné vers le système modulaire Eurorack), la responsabilité de permettre l’éclosion des nouvelles musiques prise par Wilfried Wendling puisqu’il a pris la direction du Centre National de Création Musicale, La Muse en Circuit, ou encore mes propres explorations entre esthétique noise et ensembles, entre basse électrique et synthèse digitale, ou encore mon poste de compositeur associé au centre de création Art Zoyd Studios. Les territoires sonores et conceptuels que nous avons réussi à défricher durant ces quelques années étant devenus sources et ferments de nos activités actuelles.
December 2021, mars 2022
Social top