Tout comme le mixage, le mastering est un art qui nécessite des qualités de jugement musical et de prise de décisions. Vous n'avez qu'à demander à l'ingénieur du son Nathan Hamiel (prononcez “Hamel”), qui pratique à la fois le mixage, le mastering et l'enregistrement à The Freq Zone, son studio situé à Jacksonville en Floride.
Parmi les clients de Hamiel, on trouve des groupes comme Saliva, Guttermouth et Molly Hatchet ainsi que le label punk Bird Attack Records. Dans cet entretien, Hamiel couvre des sujets allant du service de mastering en ligne Landr.com à la façon dont il traite ses clients. Il aborde aussi quelques problèmes spécifiques propres au mastering et décrit sa configuration hybride hardware/software.
J’ai été intéressé par un article sur votre blog à propos du service de mastering automatique Landr.com, et sur toutes les raisons pour lesquelles il n’arrivera jamais au niveau de ce qu’un ingénieur de mastering pourra faire. Au passage, je suis totalement d’accord avec vous.
L’une des raisons qui m’ont poussé à écrire cet article sur mon blog, c’est que j’en avais marre de toujours devoir argumenter avec des gens et je voulais résumer mon point de vue. Un mastering implique des centaines de décisions différentes qui ne peuvent pas être reproduites par des algorithmes. Pourquoi ? Parce qu’un algorithme n’a pas de contexte sur lequel se baser. Même s’il y a des presets pour différents genres musicaux, ça n’indique pas à l’algorithme à quel style de musique il s’attaque. Il prend des paramètres et il crache un résultat. Le problème avec un traitement algorithmique, c’est son absence de jugement, notamment lors de la phase de masterisation. Chaque décision que vous prenez a son lot d’avantages et d’inconvénients, si vous corrigez quelque chose il se peut que cela sonne mieux au final mais ce processus induit aussi une part d’inconvénients.
Ça parait logique.
Prenons un égaliseur par exemple. Les gens pensent que c’est facile. Mais un égaliseur induit aussi des effets secondaires. Selon le type d’égaliseur, vous pouvez avoir une distortion de phase, des bourdonnements… Et c’est pareil avec la compression multibande. Si je masterise une piste et que j’y applique un compresseur multibande, je le fais parce que je veux me concentrer sur un ou plusieurs passages sur lesquels il pourrait apporter quelque chose. Soit ça va résoudre un problème, soit ça va aider le tout à mieux coller ensemble.
Il ne s’agit pas de compresser l’ensemble du spectre.
Ça peut être une bonne décision, ou peut-être pas. Quand vous écrivez un algorithme, vous êtes là, « alors on va utiliser cette matrice de compresseurs multibandes et appliquer le tout à tel niveau quand ça atteint tel seuil ». Mais en tant qu’humain, je peux me dire « les hauts-médiums ont besoin d’être compressés, par contre je ne veux pas toucher à tout le reste », et pour ça je désactive les autres bandes. Au final, ça créé un filtre de matrice, et ce filtre détermine l’emplacement des points de coupure pour chaque bande. Et plus vous en ajoutez, plus il y a de risque que des artefacts sonores soient ajoutés, même si ces bandes-là ne sont pas compressées. Donc pour moi, le mastering devrait être un processus basé sur un choix délibéré et adapté au cas par cas. Vous devriez écouter la musique et vous dire « ce point là, c’est ce que j’ai envie de changer », le changer en vous demandant « est-ce que c’est mieux ou pire comme ça ? », ça implique tout un processus d’évaluation au fur et à mesure, mais ça n’est qu’une part du processus de mastering. Ça n’inclut pas tout ce qui se passe jusqu’à la prise de décision, comme la vérification des erreurs ou l’évaluation de la qualité du mix : est-il assez bon pour faire l’objet d’un mastering ? Faut-il le faire refaire ? Y-a-t-il des déséquilibres sonores dans le mix qui ne vont pas bien passer au mastering ? Et tous ces trucs qui ont leur place dans la chaîne de décisions avant même que soit appliqué le moindre égaliseur, compresseur, limiteur ou autre.
À quoi prêtez-vous spécialement attention au moment de chercher des erreurs ?
Tous les sons du genre clic ou pop que le processus risquerait d’accentuer. Parfois il y a de vrais problèmes liés au fichier. Parfois il y a du clipping alors que ça ne devrait pas être le cas. Parfois il y a un vrai déséquilibre, et le mix est complètement bancal. Souvent, les déséquilibres sont dus au fait que les gens surchargent un côté au cours du mixage. Par exemple, si les charleys ressortent particulièrement et sont panoramisés à gauche. Il ne suffit pas de dire « allez, rajoutons 1dB au côté droit ». C’est dû à un instrument en particulier dans le mix, pas nécessairement à cause d’un appareil analogique utilisé au cours du mixage et qui produirait un son mal équilibré.
Je me doute que là où ça pose le plus problème, c’est quand il faut modifier le mix stéréo pour y ajuster certains éléments sans trop toucher au reste. Je suppose que pour ça vous utilisez pas mal de processeurs MS [mid/side] ? Pour l’exemple que vous citiez avec les charleys déséquilibrant l’image stéréo, je suppose que vous utiliseriez un processeur MS en mode « Sides » pour y pratiquer une égalisation dans une bande de fréquences restreinte ?
Vous pouvez tenter ce genre de trucs, c’est d’ailleurs ce que je fais. J’utilise des processeurs MS lorsque c’est nécessaire. J’essaie de ne pas trop penser comme ça, parce que je ne veux pas prendre le pli de me dire systématiquement « OK, donc là je mets ça en mode MS et je vais essayer de modifier quelques trucs ». J’aime analyser le problème et tenter de le résoudre. Par exemple, disons qu’il y a un son particulièrement criard. Où est-ce que ça se situe ? Est-ce que c’est sur tout le spectre ? Est-ce à droite ou à gauche ? Où se situe le problème, et comment le résoudre sans causer trop de dégâts ?
D’après mon expérience très limitée en matière de mastering, si je me trouvais dans un cas comme celui avec les charleys, je chercherais un moyen de baisser le son des charleys sans compresser ou égaliser ces fréquences sur l’ensemble du mix.
Ouais. C’est une bonne idée, beaucoup de gens utilisent des effets en stéréo et ils ont tout un tas d’éléments un peu partout, du coup les charleys peuvent partager les mêmes fréquences que des effets stéréo, ou le haut du spectre de la piste de guitare, ou quelque chose dans le genre. Tout ça aussi, ça se trouve sur les côtés du signal. Est-ce que ça sonne mieux qu’auparavant ? Même si ça induit des effets secondaires, est-ce que c’est mieux qu’avant ? J’essaie de prendre des notes. « J’ai essayé divers trucs et je pense que ça sonne bien, mais si vous trouvez que ça manque de clarté, voici pourquoi, et si vous voulez le remixer, allez-y, faites une version revue et corrigée du mix et renvoyez-la moi de façon à ce que j’en fasse quelque chose de plus vivant ».
Ça amène à une autre question : l’un des très rares avantages qu’il y a à masteriser soi-même ses propres pistes, c’est justement de pouvoir facilement réouvrir ses mixes pour résoudre les problèmes rapidement. Je suppose que dans certains (rares) cas, il est possible de demander à un client de revoir son mix. Ou peut-être est-ce que vous commencez par tout écouter pour pouvoir dire le cas échéant « ces mixes, ça ne va pas le faire, il vaudrait mieux changer ça ou ça avant que je ne commence ».
Ouais, et c’est généralement ce qu’on fait. La première chose qu’on fait, même, et c’est drôle, parce qu’on voit tous ces gens qui donnent des conseils, et qui expliquent « comment masteriser vos propres pistes », « comment faire ci », « comment faire ça ». Certains sont devenus très célèbres sur Youtube en expliquant aux gens comment masteriser. Mais ce que personne n’explique jamais, c’est « comment écouter la chanson ? ». Il faut d’abord l’écouter. C’est là la toute première étape. Parce qu’on n’a jamais qu’une (ou deux) occasions de s’en faire une toute première impression. La plupart du temps, quand je fais ma première écoute pour dépister les erreurs, je prends des notes à toute vitesse. Genre, « le bas du spectre est trop fort ici, il va falloir corriger ça », « il faudra sûrement rajouter de la largeur au champ stéréo, il a l’air un peu étroit ». Je prends ces notes en écoutant la chanson. « La chanson a l’air très bien mixée et équilibrée, ça va bien passer au mastering », ou au contraire « ces instruments sont complètement déséquilibrés, il n’y a aucune forme de cohérence, il faut vraiment reprendre tout ça ». À ce moment là, je n’ai plus rien à faire, je leur rends et je dis « voilà, il y a des problèmes là et là ». Quand vous faites votre propre mastering, il faut être vraiment très discipliné. Parce que si vous faites tout (enregistrement, mixage et mastering) par vous-même, il y a de fortes chances pour que vous l’ayez fait au même endroit. Vous n’avez pas le bénéfice que l’on a à prendre du recul.
Tout à fait.
Du coup, s’il y a un problème qui est apparu lors de l’enregistrement et vous a échappé au cours du mixage, les chances pour que vous vous en aperceviez au cours du mastering sont assez faibles. De nos jours, je pense que l’idée de faire appel à un ingé son spécialisé dans le mastering est de moins en moins considérée. Les personnes qui font leur propre musique se disent « mais pourquoi je paierais quelqu’un pour faire ça? J’ai un égaliseur juste là, dans ma STAN ». Et je pense que c’est un bien mauvais calcul, parce que si vous envoyez votre mix à quelqu’un d’autre ce n’est pas uniquement pour qu’il joue de l’EQ dessus. Vous allez aussi tirer profit de l’acoustique de sa pièce d’écoute, de son système de monitoring et de son expérience. Et même si ce n’est pas une question d’expérience et s’il s’agit juste de faire rentrer une autre paire d’oreilles dans le projet, c’est aussi ça que vous achetez. Tout ça, ça fait partie de la « valeur ajoutée » qu’apporte le fait de faire travailler quelqu’un d’autre dessus. Cela fait un certain temps que j’enregistre maintenant, et il y a plein de choses que je regrette d’avoir faites de la façon dont je les ai faites, soit parce que j’ai essayé de tout faire par moi-même, soit parce que j’en avais marre et du coup j’ai fait les choses avec précipitation. C’est gênant. Pour ce genre de trucs, il n’y a rien de pire que d’avoir des regrets.
Ça, c’est sûr. Ça m’est arrivé deux fois d’enregistrer un projet moi-même et de les envoyer à un ingénieur mastering, et à chaque fois, je me suis rendu compte que l’acoustique de mon studio limite les basses fréquences que j’entends, du coup j’ai tendance à surcompenser. Et je ne l’aurais jamais su si je n’avais pas envoyé ces enregistrements à un ingé de mastering disposant d’un environnement d’écoute neutre.
Je crois que c’est plus une question de construire une relation. J’ai une cliente que j’ai rencontrée au NAMM cette année, et j’ai longuement parlé avec elle. Elle m’a abordé et m’a posé des questions sur le mastering, elle disait qu’elle avait dépensé beaucoup d’argent pour que son album soit mixé et masterisé mais qu’elle avait l’impression que le résultat n’était pas bon, et qu’elle était incapable d’expliquer exactement ce qui n’allait pas. Elle était là, « non, mais ça ne sonne pas chaud ni attractif ». C’est le genre d’adjectifs que j’entends souvent. Alors je lui ai dit de me l’envoyer. Elle m’a dit qu’elle l’avait envoyé à un ingé de mastering récompensé aux Grammy Awards et qu’il avait fait un mauvais travail dessus.
Ça, c’est étonnant.
Il faut vraiment créer une relation avec la personne en charge du mastering, parce que chacun utilise ses propres mots et décrit les choses de façons différentes. Et au final, nous sommes dans un secteur de service. On fait ce qu’on nous demande de faire. Même si je pense qu’un son a trop de brillance, si vous me demander d’ajouter encore de la brillance je vais vous donner ce que vous me demandez, c’est vous le client. Vous avez une certaine vision artistique, peut-être est-ce que vous-même ne vous en rendez pas vraiment compte. Vous me demandez de faire quelque chose de précis, et je pense qu’il y a un vrai problème avec ceux qui cherchent à interférer en imposant leur propre vision artistique à la musique de leurs clients, alors que ce n’est pas à eux de décider de cet aspect. Je pense qu’il est important d’apprendre le jargon. Je connais une personne qui parle de la compression comme « des sonorités croustillantes », et j’ai un client qui parle du milieu du spectre comme étant la « compression ». Donc il faut comprendre ce qu’ils veulent dire, et ça prend un peu de temps. Si vous vous dites « je vais envoyer un morceau et voir ce qu’un ingé de mastering en fera » sans lui donner le moindre contexte, lui énoncer vos attentes ou lui donner quelque référence que ce soit, il va faire ce que lui pense que vous espérez, et en entendant le résultat vous risquez de vous dire « ça n’a rien à voir avec ce que j’attendais ».
Mais est-ce qu’une bonne part du boulot n’est pas aussi de s’occuper de la façon dont ça va sonner d’une piste à l’autre sur un album? Ça fait partie de l’ensemble, de lui donner une certaine consistance, non ?
Oui, enfin, ça dépend. Encore une fois, on travaille pour le client, et vous pouvez très bien avoir un client un peu original qui vous dit « je veux que chaque chanson ait l’air d’avoir été faite par un groupe différent, je veux un album qui ait l’air d’une compilation » [rires]
Mais en général…
En général vous voulez un ensemble aussi cohérent que possible en matière de volume. Il ne devrait pas y avoir de grands écarts de volume.
Et aussi une égalisation cohérente ?
Ça aussi. Et c’est parfois difficile avec les albums d’aujourd’hui, parce que les artistes peuvent très bien avoir enregistré dans plusieurs studios différents, donc chaque mix sonnera différemment. Ou alors, ils ont passé un an à s’enregistrer eux-mêmes et au fil du temps ils ont pu acheter du nouveau matériel : « j’ai ce nouveau micro, maintenant c’est celui-ci que je vais utiliser pour enregistrer », « j’ai une nouvelle guitare, je vais l’utiliser sur cette chanson »… C’est un fait, beaucoup de groupes ne mettent pas un pied en studio et sortent un album. Ils font ça en l’espace d’un an. Naturellement, le tout sonne moins cohérent sur un album. Mais l’objectif, c’est que ça sonne comme un album, pas comme une collection de chansons.
Que pensez-vous des logiciels de mastering comme Ozone et quelques autres, qui offrent la possibilité de travailler dessus par soi-même en ouvrant un preset puis en l’adaptant à ce qu’on veut obtenir ?
J’en pense que je vois tout ça comme de simples outils. J’utilise un mélange, une configuration hybride. Donc en fait je mélange hardware et software et j’utilise les deux ensemble. Ce ne sont que des outils, dont vous vous servez pour arriver là où vous voulez arriver. Je trouve que les logiciels se sont vraiment améliorés en termes de qualité ces dernières années. Des outils comme ceux-là, c’est très bien.
Et quels logiciels utilisez-vous?
Beaucoup de trucs différents. J’ai Ozone 7. La plupart du temps, j’utilise son égaliseur dynamique, et parfois celui à phase linéaire. Je l’aime bien parce que je peux le lancer et passer directement en mode « Mid/Side ». J’utilise aussi le nouvel algorithme IRC IV qu’ils ont dans leur maximiseur, qui est vraiment très bon. Vous pouvez en tirer une bonne hausse du volume sans trop d’artefacts. Un autre logiciel que j’aime beaucoup est l’Equilibrium de DMG Audio. C’est un bon plug-in d’égalisation. Il n’y a pas si longtemps DMG Audio a aussi sorti un nouveau limiteur du nom de Limitless, et c’est une vraie bête. Vous pouvez facilement faire des dégâts avec, mais si vous savez ce que vous faites, c’est une vraie bête.
Et qu’utilisez-vous pour organiser les pistes en séquence, organiser les espaces entre elles, etc. ?
Pour ça j’utilise deux processus. En général, quand je commence à m’occuper des fichiers WAV, ou à un moment ou un autre du process, j’utilise Studio One de PreSonus.
La page Project ?
Non, la bonne vieille page Song. La raison pour laquelle je ne peux utiliser ni la page Project ni l’autre logiciel que j’utilise, Wavelab [de Steinberg], c’est que pour travailler sur un master il est nécessaire de pouvoir comparer votre mix, en mode A/B, de façon à être sûr que chaque évolution est bien un progrès et non une régression. Je possède un Dangerous Monitor ST et je route une sortie du mix « nu » de façon à pouvoir à chaque instant écouter comment le mix sonne via un simple bouton. Comme ça, inutile de chercher sur quel plug-in ou quelle fenêtre cliquer. C’est très simple. Quand vous faites un mastering, c’est ce genre de choses qui fait toute la différence, ainsi vous allez entendre des choses que vous n’entendiez pas précédemment.
Donc vous comparez en mode A/B entre les versions traitée et non-traitée.
Tout à fait.
Et qu’utilisez-vous pour le monitoring ?
J’ai une paire de Focal SM9, avec caisson de basses Dynaudio BM14 ou 15 MK II. Ce sont mes moniteurs principaux.
En plus du Monitor ST, vous avez d’autres produits de chez Dangerous je crois. Avez-vous le Dangerous Compressor ?
Ouais. J’ai pas mal de matériel de chez Dangerous. J’ai Dangerous Master et le Dangerous Liaison, c’est pour ainsi dire la colonne vertébrale de tout mon travail de mastering.
Que fait le Liaison ?
Liaison c’est une sorte de patchbay avec des boutons-poussoirs. En gros, ça permet d’utiliser vos appareils un peu comme des plug-ins. Donc vous pouvez facilement comparer en mode A/B, il est très rapide d’activer ou désactiver un appareil. Il a deux bus, et vous pouvez activer quelque chose sur l’un ou l’autre.
Donc vous pouvez l’utiliser pour « patcher » du hardware sur le signal du mastering ?
Exactement. Vous pré-patchez votre matériel, et ensuite vous pouvez les ajouter ou les enlever un par un du signal. Pour moi, c’est indispensable. Si vous voulez utiliser des processeurs matériels dans votre chaîne de mastering, vous vous devez d’avoir quelque chose qui fasse ça. Vous ne pouvez pas vous permettre de prendre le temps de faire le tour et débrancher quelque chose de votre patchbay, puis ré-écouter, puis re-brancher le tout: pendant ce temps, vous perdriez le fil de votre écoute. Je peux travailler en mid/side comme en parallèle, en utilisant les deux conjointement. Et puis j’ai un Dangerous Compressor, et aussi deux Dangerous Convert-2. L’un des deux alimente la chaîne de mastering analogique, et l’autre mon signal de monitoring.
Ce sont des convertisseurs ?
Oui, des convertisseurs N/A.
Trouvez-vous que ces convertisseurs apportent quelque chose au son, rien qu’en les utilisant pour y faire circuler le signal ?
Les convertisseurs, oui. Ils sont plutôt transparents, c’est ce qu’on attend d’un convertisseur N/A. C’est difficile à expliquer. J’ai fait un test avec de nombreux convertisseurs N/A quand j’ai eu mon premier Convert-2, et comme je disais je suis plutôt du genre scientifique, j’aime comprendre comment les choses fonctionnent. Il y a plein d’adjectifs qu’on pourrait utiliser pour les décrire. L’image stéréo semble un peu meilleure, elle semble plus cohérente. Mais c’est surtout la musique en elle-même, elle paraissait sonner mieux. Je ne sais pas pourquoi, ni ce qui se passe ni pourquoi elle a l’air de mieux sonner. Mais au final, quand c’est mieux, c’est mieux et ça me plait comme ça.
Intéressant…
Et autre chose sur les convertisseurs: toutes les décisions que vous prenez en matière de signal audio s’additionnent. Donc, s’il vous faut deux convertisseurs A/N et que vous vous dites « ces deux modèles se ressemblent beaucoup, celui-ci est moins cher, il ne sonne pas aussi bien que l’autre mais il est petit et original, ça ne change pas grand chose pour moi », que se passe-t-il quand vous enregistrez 30 pistes en entrée ? Si vous faites quelques mauvais choix, ils ne font que s’additionner. Je ne devrais pas dire « mauvais » mais plutôt « moins bons ». En matière d’audio, les moins bons choix s’ajoutent les uns aux autres, de la même manière que le font les bonnes décisions. Et si ces convertisseurs sont juste un peu meilleurs, ou ce matériel juste un tout petit peu meilleur, tous ces éléments s’additionnent pour donner un meilleur résultat, ce qui fait qu’au final ces différences presque imperceptibles deviennent une différence audible parce que vous aurez pris ces décisions-là.