Problèmes courants, interventions et résultats
Voir précédent :
3. Traditions et mentalités
4. La réalité audio contemporaine
Historiquement, ces stratégies pour le moins réductrices n’ont été utilisées systématiquement que pendant une période relativement courte et commenceront à être remises en question, en production commerciale, dès le début des années 1970, avec l’essor de la radio FM et des systèmes de maison hi-fi, qui les rend obsolètes. Dix ans plus tard, le succès fulgurant des consoles Solid State Logic, avec leur section de contrôle dynamique à chaque entrée, redonnera pourtant de la vigueur à cette façon de procéder. Ces consoles sont l’origine du son métallique et arrachant, particulièrement repérable dans le répertoire new wave, qui sévira dans les années 1980. Avec le recul, il est facile de constater que ces recettes n’ont aucune chance de fonctionner ailleurs que dans un style musical utilisant des sources elles-mêmes limitées spectralement : dans l’exemple du new wave, les boîtes à rythme et les chanteurs chevrotants, entre autres. On se contentait donc de ceinturer une minceur audio déjà existante. Appliquées ailleurs, le taux de succès très réduit de ces stratégies s’explique par le fait, qui peut sembler paradoxal, qu’elles font en réalité ample usage du phénomène du masque acoustique.
Or, une façon intéressante de représenter, telle qu’elle est comprise de nos jours, l’évolution générale de la qualité audio depuis les années 1950, pourrait être de tracer une ligne partant du masquage et allant jusqu’à la transparence. Transparence qui, jusqu’à récemment, était largement un fantasme, puisqu’elle repose sur un ensemble indissociable d’exigences de très haut niveau. Ces dernières années, on a pu assister à l’arrivée d’une série de progrès touchant les techniques de production, progrès décrits ailleurs dans ce document, et aujourd’hui complétés par l’enregistrement numérique en haute définition et par les supports de distribution équivalents, le DVD-Audio et le SACD. On confirme maintenant, dans la pratique, ce qu’on a toujours su : les avantages de la transparence sont écrasants, et une page brumeuse de l’histoire de la production audio est tournée à partir du moment où on peut enfin cesser de l’entendre en action, cette production, pour parvenir directement au message artistique.
Dans l’état actuel des choses, il faut le répéter, la production d’un son transparent repose tout de même sur un ensemble, complexe et subtil mais de plus en plus fiable, de facteurs que les institutions enseignant l’électroacoustique ne se sont pas — encore — donné pour mission de transmettre. Le manque de moyens est un frein indiscutable, mais il ne devrait pas empêcher l’apprentissage des nouveaux réflexes de recherche d’euphonie et d’ouverture perceptuelle qui sont la base de la façon de penser le son aujourd’hui. Voici ce qui pourrait être réalisé dès maintenant avec un peu d’entraînement, et un monitoring qui, même sans être de référence, devra tout de même être décent :
4.1 Le choix des matériaux
Il doit cesser d’être arbitraire et commencer à répondre à des critères précis :
- de robustesse : en électroacoustique, un son doit être en mesure de survivre qualitativement à des traitements parfois abusifs ;
- de richesse et de cohérence spectrale : chaque plage fréquentielle occupée doit l’être de manière minimalement continue ; l’éclatement en multiples zones très étroites est un symptôme de minceur, dernier stade avant l’agression ;
- de puissance : tant l’espace entre les haut-parleurs que la plage dynamique sont occupés de manière confortable, sans ambiguïté ni débordements ;
- de neutralité spectrale, sans laquelle toute tentative d’égalisation ultérieure risque d’être problématique : conflits avec une bande résonante voisine, faiblesse imprévue d’une région à mettre en valeur, bruits, irrégularités dans la réponse, etc.
Ces critères — en particulier la robustesse et la puissance — ne semblent subjectifs que parce qu’ils sont difficiles à traduire sur le plan verbal. Si la reconnaissance devient automatique avec l’expérience, il y faut quand même un préalable de quelques séances d’écoute guidée avec une personne déjà expérimentée. À défaut, voici une série d’exemples de matériaux synthétisés répondant, dans l’ensemble, à ces critères. Ils sont présentés ici à l’état brut, sans le moindre traitement extérieur au logiciel qui les a produits :
Pour comparer, écouter cette série de matériaux tirés d’un synthétiseur pop, et qui ne correspondent vraiment pas aux critères :
En premier lieu, leur état de pré coloration est évident. De plus, ils sont chenus, tremblotants, et leur façon d’occuper l’espace est boursouflée, toujours à la limite de l’éclatement.
4.2 L’agencement
Il s’agit pour les compositeurs d’intégrer le fait que, à l’encontre de ce qu’ils peuvent avoir appris, les palettes dynamiques et fréquentielles exploitables ne sont plus aujourd’hui des « zones restreintes ». La richesse et la complexité spectrales des matériaux n’est pas l’ennemi, mais un avantage qu’il faut exploiter avec finesse en concentrant son attention, le plus objectivement possible, sur l’euphonie.
Cela dit, les lois sur l’interaction et l’interpénétration des couches sonores ne sont ni systématiques, ni homogènes, et il n’est pas sûr qu’il soit un jour possible de les formuler dans leur ensemble. Mais dès lors qu’elles sont agissantes, il faut en tenir compte. Il est possible, pour chaque compositeur, en se basant sur ses perceptions, de se constituer un lexique personnel de situations d’interactions, qui se raffinera avec le temps. On sait par exemple que les matériaux résonants, colorés ou même un peu trop nettoyés ont tendance à interagir avec difficulté et à résister à l’accumulation, contrairement à ceux qui répondent aux critères évoqués ci haut. Reprenons l’exemple des sons inadéquats :
Réussir à conserver la moindre clarté au moment de l’agencement de ce type de sources est une entreprise vouée à l’échec, comme en témoigne ce mixage des sources que nous venons de réentendre :
Provenant d’une source du même genre, voici une autre preuve de cette difficulté. Matériaux séparés :
Matériaux mixés :
À partir de ces deux exemples, on peut comprendre le dilemme d’un compositeur ne disposant que de ce type de source : chaque couche supplémentaire est un recul dans la transparence et une avancée dans l’agression. On peut juger maintenant de la facilité avec laquelle les sources, répondant aux critères de qualité et entendues plus haut, se prêtent à l’accumulation, virtuellement sans perte de transparence globale. Matériaux séparés :
Matériaux mixés :
Malgré le fait que ce mixage soit encore une fois livré sans le moindre traitement, la différence est frappante. Le chemin pour le choix des sources semble donc ici tout tracé, mais il faut insister sur le fait que, s’il s’avérait que la coexistence de deux couches sonores, même « saines », ne pourrait être réalisée sans un processus lourd d’égalisation et de contrôle dynamique, on aurait de nos jours tendance à estimer que ces sons ne devraient tout simplement pas être utilisés ensemble… plutôt que de s’acharner en vain, et au détriment de la qualité !
4.3 Les traitements
À l’intérieur d’une station de travail, même modeste, on dispose en général de plusieurs traitements pour une même tâche. Essayer tous les traitements de fonction équivalente, et n’en retenir que les plus transparents, est une première étape d’un processus qui doit conduire à l’acquisition de nouveaux outils de plus en plus sérieux et à l’élaboration de stratégies de paramétrage de moins en moins intrusives de ces outils.
Certaines collections de traitement et certains logiciels semblent destinés, à cause de la profondeur des transformations offertes, au marché des compositeurs électroacousticiens. La prudence s’impose ici, car l’action de ces outils se révèle fréquemment catastrophique pour la qualité : coloration intense et systématique, minceur, bruit de fond, clics, distorsion et gamme dynamique d’une largeur délirante sont très souvent à la clé. L’expérience montre que ces défauts sont extrêmement difficiles à corriger au mastering, même livré en stems. La transformation radicale des sources est une des bases de la composition électroacoustique, mais ici elle est obtenue à un prix prohibitif : c’est le confort auditif du public qui est sacrifié, situation totalement inacceptable, non seulement pour l’avenir du genre, mais aussi, tout particulièrement en concert ou en écoute au casque, pour la sécurité des auditeurs. D’autres avenues doivent être explorées pour parvenir à des bouleversements de la matière sonore qui soient moins suicidaires. L’élaboration de ces avenues exigera sans aucun doute un travail plus méticuleux, puisqu’il faut tenir compte, non seulement de l’intérêt esthétique des résultats, mais aussi de l’état de dégradation de la qualité audio durant le parcours.
Enfin, il est possible d’apprendre à déterminer avec précision la frontière entre traitements compositionnels et traitements d’optimisation, de manière à… s’abstenir de procéder aux seconds, mais aussi à utiliser les premiers avec circonspection.
Tout au long des sections qui précèdent, nous avons cherché à définir les évolutions, les positions actuelles et les perspectives de développement respectives de l’électroacoustique et de la production commerciale en regard de la qualité audio. Une réflexion obligatoirement généraliste, qu’il est maintenant temps d’étoffer en entrant dans le détail des efforts déployés, en ce moment précis, pour améliorer la qualité audio de la production électroacoustique. Ces efforts sont concentrés, dans la phase actuelle, sur le mastering.
5. Problèmes audio courants
Pour toutes les raisons évoquées plus haut, les œuvres électroacoustiques qui parviennent au mastering sont porteuses d’un certain nombre de problèmes aussi typiques que récurrents, et facilement classables dans un nombre limité de catégories. Plutôt que de décrire chacune de ces catégories, il a semblé plus efficace de les illustrer à l’aide d’exemples audio tirés de deux albums récemment masterisés. (2) Il importe ici de bien préciser que la seule raison pour laquelle on a fait exclusivement appel à ces albums est la bonne grâce avec laquelle les deux compositeurs ont accepté de prêter leur matériel, et certainement pas parce qu’ils comporteraient une plus grande concentration de problèmes audio que l’ensemble des autres albums électroacoustiques masterisés à ce jour.
Chaque exemple est d’abord présenté tel que mixé par le compositeur, puis après mastering.
5.1 Aiguës et haut médium agressants
Il s’agit du problème le plus courant et le plus caractéristique de la production électroacoustique courante. Les exemples abondent dans cette catégorie :
Cet extrait, qui met en opposition un climat de sérénité et une tension sous-jacente, est difficile à apprécier à cause de ses clochettes trop perçantes et d’un sifflement continu d’un niveau presque douloureux. La correction visera à donner à l’oreille un répit en rendant les clochettes plus aériennes et le sifflement moins insistant :
L’exemple suivant concerne davantage le haut médium :
Le côté aigrelet de certains éléments n’a pas disparu, mais la texture d’ensemble étant plus compacte et plus dynamique, la composante timbrale nasillarde a cessé d’être dominante :
5.2 Imprécision des basses / intégration des ultra basses
Le problème ici est l’absence de connexion entre les fréquences ultra basses et le reste du contenu. La conséquence de cette discontinuité est que la forte présence de ces basses ne parvient pas à conjurer la sensation de minceur qui caractérise le passage.
Les ultra basses ont été ici « remplacées » par une fréquence plus haute, mieux en mesure de conférer de la solidité au piano et aux sons vocaux. L’action est plus vive et moins désincarnée.
Autre exemple, concernant un aspect différent du problème des basses fréquences. Ici, on n’a simplement pas été en mesure de leur donner toute l’ampleur nécessaire, malgré le fait qu’on soit déjà par moments au bord du boursouflement :
La solidité des basses fréquences est maintenant palpable, bien que la sensation de boursouflement ait été éliminée. On gagne en cohérence et en efficacité dramatique :
5.3 Résonances sur tout le spectre
Cet exemple est émaillé de « bulles » résonantes qui explosent à des fréquences variées mais avec une énergie telle que l’oreille se met en état de protection. Le niveau de l’arrière-plan est faible, ce qui met d’autant plus en valeur chacune de ces explosions.
Le problème des résonances utilisées à des fins d’expression n’est pas facile à régler, en particulier pour le genre de résonances courtes qui caractérisent cet exemple. Une égalisation serait laborieuse, puisqu’il faudrait trouver la fréquence centrale de chaque événement, un par un. La compression serait plus expéditive, mais pour qu’elle soit efficace dans la grande variété des situations résonantes en présence ici, elle devrait être radicale, avec un seuil très bas et un taux de compression très élevé. Ceci laminerait tout l’extrait en en réduisant la dynamique à l’état d’une mince couche. Dans les deux cas, l’effet de tension et de contraste qui anime tout le passage disparaîtrait, et avec lui tout son intérêt. La solution a été ici de conserver l’essentiel des résonances mais en leur donnant un appui dans les basses fréquences. La texture de fond s’en trouve renforcée, ce qui enlève un peu d’énergie subjective à chaque explosion. L’oreille ne se met plus en protection, et le passage peut fonctionner sans embûche.
Un autre extrait montre une encore plus grande diversité spectrale dans les résonances, ce qui démonte une idée courante associant les résonances avec les fréquences moyennes ou situées dans le haut du registre grave :
Encore une fois, la correction a surtout visé à donner plus d’épaisseur à la texture de fond, de manière à enlever indirectement un peu de relief aux résonances les plus agressantes. Les différences entre les deux versions sont plus nombreuses qu’il n’y paraît :
5.4 Confusion des plans / mise en espace ambiguë
Ici, la confusion des plans — par exemple entre la marche et les éléments percussifs — est directement responsable de l’ambiguïté de la spatialisation. La concentration dans les fréquences moyennes est sans aucun doute à l’origine du problème.
Si la direction générale de la marche demeure ambiguë, l’espace général, lui, ne l’est plus, et les éléments s’y déploient avec précision.
Mis à part une coloration forcée des hautes fréquences, le long passage qui suit ne présente pas de défauts trop évidents :
… à ceci près qu’il n’est pas vraiment convaincant. Il lui manque cette puissance immersive qui semble pourtant bien être son argument pour construire une tension. Nous sommes donc encore dans une problématique de distribution dans l’espace. Voici le résultat de la masterisation :
L’image est plus large, plus englobante, et les événements s’enchaînent avec toute l’autorité nécessaire à la construction d’un véritable suspense.
5.5 Minceur, sécheresse et granularité
Ces trois termes sont souvent employés en tant que synonymes, quand il s’agit de décrire toute une famille de malaises audio, mais l’extrait suivant a le mérite de permettre une identification séparée de chacun des symptômes. La minceur est évidente dans le timbre de l’instrument principal. La sécheresse se manifeste dans ce qui semble être un nettoyage systématique des résonances finales de chaque élément, et est même davantage mise en valeur que compensée par les courtes réverbérations ajoutées. La granularité est très audible dans le crescendo de hautes fréquences final :
Le traitement a visé à retrouver de la rondeur et du naturel. La réduction des hautes fréquences a corrigé, dans la mesure du possible, la granularité, et même si rien n’a pu être fait directement pour récupérer une certain naturel dans les résonances, l’effet de sécheresse n’attire plus l’attention :
5.6 Mollesse et imprécision
Si le coup de caisse claire est un exemple évident de mollesse, l’imprécision est la caractéristique principale des autres éléments de cet extrait. La résonance excessive dans les médiums aigus et la réverbération fortement colorée en sont probablement la cause :
La caisse claire démontre maintenant tout l’impact dont elle est normalement capable, mais le chœur qui en constitue la queue a aussi beaucoup plus de réalité. Quant aux éléments qui suivent, ils semblent bien mieux s’intégrer dans la gestuelle du passage, dont toute la souplesse cesse de n’être accessible qu’à travers une analyse abstraite pour devenir physiquement palpable :
Dans l’exemple qui suit, l’imprécision est directement due à une gamme dynamique trop étendue. Après un début très agressant dans les aiguës, nous tombons dans un passage dont la moyenne se situe vers les -40 dB. Pour conserver l’intérêt avec un pareil niveau, la résolution des sons devrait être exceptionnelle, et les sons eux-mêmes d’une grande richesse timbrale, ce qui n’est pas le cas ici :
Voici ce que le mastering a fait de cet extrait :
Les aiguës ont été contrôlées pour les deux événements initiaux, et la suite a été relevée de manière à afficher une moyenne plus raisonnable de -25 dB. Le passage irrésolu fait place à une suite de transformations dont l’intention esthétique est la même, mais livrée avec une bien plus grande efficacité.
Un autre exemple, tiré de la même pièce :
La mollesse caractérise la suite de sons percussifs de hauteur ascendante, et l’imprécision est surtout évidente dans les sons de basse fréquence qui apparaissent 3 secondes après le début de l’extrait. Les cordes sont aussi un facteur de confusion majeur, à cause de leur interaction conflictuelle avec le crescendo percussif principal.
Les sons percussifs ont une attaque beaucoup plus franche, qui leur permet de demeurer au premier plan tout au long du crescendo, même à travers l’intervention des cordes. Les basses sont plus denses et plus précises.
Voir suite :
6. Interactions avec les compositeurs
Social top