Se connecter
Se connecter

ou
Créer un compte

ou

Article sur Neural Amp Modeler de Steven Atkinson - L'intelligence artificielle au service de la guitare

Il y a deux ans, une révolution a montré son nez en sous-marin, une vieille promesse des technologies de DSP qui a été finalement satisfaite grâce à l'IA, avec simplicité et gratuitement : la possibilité de cloner à l'identique des amplis et pédales. Parlons donc de Neural Amp Modeler !

Article sur Neural Amp Modeler de Steven Atkinson : L'intelligence artificielle au service de la guitare

L’an dernier, nous vous avions proposé dans nos colonnes un trio de dossiers qui portait sur la convo­lu­tion et ses appli­ca­tions, qui était une mise à jour d’un très vieux dossier de votre servi­teur, avec un guide d’achat sur les réver­bé­ra­tions à convo­lu­tion et un autre sur les simu­la­teurs d’en­ceintes guitare et basse, où l’usage de réponses impul­sion­nelles enre­gis­trées ci et là s’est répandu comme une trai­née de poudre depuis de nombreuses années.

Nous nous étions inter­ro­gés à de multiples reprises sur la possi­bi­lité de voir émer­ger une tech­no­lo­gie quel­conque, qui permet­trait de faire la même chose que ce que permet la convo­lu­tion, à savoir copier les carac­té­ris­tiques soniques d’un trai­te­ment sonore pour l’ap­pliquer à n’im­porte quelle source audio, mais avec un champ d’ap­pli­ca­tion qui couvre les trai­te­ments non linéaires (distor­sion, compres­sion, exci­teurs, appa­reils avec des lampes, etc.), donc en capa­cité de produire des harmo­niques, et pas simple­ment le linéaire pur et dur (réver­bé­ra­tion, filtres, prise de son d’en­ceintes guitare). Parmi les usages que l’on ferait d’une telle tech­no­lo­gie, il y aurait évidem­ment un focus sur le maté­riel dédié à la guitare (ampli­fi­ca­teurs et pédales notam­ment), mais aussi un champ des possibles qui irait s’at­taquer à de multiples appa­reils de studio dont on voudrait pouvoir virtua­li­ser les apports et les bien­faits.

Focusrite Liquid Channel

Quelques années plus tard, on s’in­té­res­sera de plus en plus près à un concept, celui du « clonage » d’am­pli­fi­ca­teur guitare, en l’abor­dant sous diffé­rents angles. D’abord, l’angle du Tone Matching consiste à trai­ter une piste de guitare déjà produite par une égali­sa­tion géné­rée auto­ma­tique­ment, pour coller le plus possible au son d’une autre piste, via convo­lu­tion ou assem­blage de bandes d’un EQ para­mé­trique (possible dans Fabfil­ter Pro-Q et la plupart de ses concur­rents). Le résul­tat peut être assez inté­res­sant si le signal à corri­ger n’est pas trop éloi­gné de la cible, la correc­tion étant de fait linéaire, ce qui limite évidem­ment les appli­ca­tions.

Kemper Profiling Amp

L’autre approche, celle propo­sée par Kemper / Access avec son Profi­ler Amp en 2012, allait créer une petite révo­lu­tion. Cette fois-ci, on allait pouvoir copier la partie non linéaire égale­ment ! Or, le résul­tat attendu n’était pas exac­te­ment au rendez-vous. Malgré les diffé­rentes évolu­tions de la tech­no­lo­gie depuis la sortie du premier produit de la firme, la dernière en date de 2023 s’ap­pe­lant « Liquid Profi­ling », la ressem­blance obte­nue est, disons d’un niveau aléa­toire, et les compa­ra­tifs en ligne que vous pour­rez aller écou­ter vous montre­ront des signes d’ex­cel­lence et des gros ratés à d’autres moments. Ce côté aléa­toire on le retrouve d’ailleurs chez des concur­rents directs qui ont cher­ché à adop­ter le même concept (on pense notam­ment à la fonc­tion­na­lité de clonage du Peavey Reval­ver 4, appa­rue en 2016 et qu’on retrouve encore dans des produits testés récem­ment dans nos lignes), qui proposent parfois des trai­te­ments supplé­men­taires à appor­ter pour opti­mi­ser la corré­la­tion simu­la­tion / cible via des proces­sus labo­rieux et d’une fiabi­lité parfois discu­table. 

Autour de la fin de la décade précé­dente, des articles scien­ti­fiques pres­sants indiquaient que l’in­tel­li­gence arti­fi­cielle allait prochai­ne­ment être la solu­tion à ce problème. Alors que le Deep Lear­ning commençait à faire parler de lui dans la sphère publique, on commençait à voir appa­raître des projets de démons­tra­tion de la tech­no­lo­gie pour repro­duire le compor­te­ment de pédales d’ef­fets ou d’am­pli­fi­ca­teurs guitare. Puis, en 2022, un de ces projets fut mené un peu plus loin que les autres. Steven Atkin­son, musi­cien et Applied Scien­tist chez Amazon, mis en ligne gratui­te­ment son travail réalisé sur son temps libre, la première version du plug-in Neural Amp Mode­ler ainsi que le proces­sus pour mesu­rer soi-même son maté­riel, expor­ter le résul­tat du proces­sus sous forme d’un petit fichier de 200 kilo-octets, et le char­ger dans le plug-in pour simu­ler ce maté­riel avec un niveau de réalisme au mini­mum éton­nant, et surtout une commu­nauté très active qui a partagé rapi­de­ment des centaines de profils d’am­pli­fi­ca­teurs et de pédales. C’est ce dont nous allons vous parler dans ce dossier !

C’est quoi l’IA ?

Avant de vous expo­ser les prouesses réali­sables par Neural Amp Mode­ler, que j’avais d’ailleurs déjà utilisé dans un de mes précé­dents tests, il me semble oppor­tun sans être H.S. de parta­ger avec vous quelques infor­ma­tions sur ce sujet, ô combien brûlant aujour­d’hui, qu’est l’in­tel­li­gence arti­fi­cielle dans notre société. On en a déjà parlé ci et là avec l’ar­ticle de Los Teignos sur Musi­cLM, ses nombreux éditos évidem­ment, ou encore l’in­ter­view de Jason Valax, fonda­teur de Albs­tract.

Déjà le terme « d’in­tel­li­gence arti­fi­cielle » est très galvaudé, dans la mesure où les usages exis­tants aujour­d’hui de ces tech­no­lo­gies, ainsi que ceux que l’on peut déjà imagi­ner dans le futur, n’ont pas vrai­ment grand chose à voir aujour­d’hui avec une quel­conque mani­fes­ta­tion d’in­tel­li­gence, même arti­fi­cielle, à l’en­contre de l’ima­gi­naire dysto­pique. À l’heure actuelle, il s’agit le plus souvent d’au­to­ma­ti­sa­tion de tâches rébar­ba­tives, d’uti­li­sa­tion de règles mathé­ma­tiques pour faire appa­raître de l’ordre et de la logique là où il ne semble pas y en avoir de manière évidente, de réus­sir à faire croire à la présence d’une intel­li­gence humaine de manière algo­rith­mique (quitte à faire des choses qui dans le détail n’ont aucun sens), et parfois même à utili­ser un peu de savoir-faire algo­rith­mique pour inter­po­ler entre plusieurs conte­nus parfai­te­ment humains.

Carto IA deepLearningLe plus souvent on préfé­rera plutôt l’ex­pres­sion Machine Lear­ning qu’on traduit parfois par appren­tis­sage auto­ma­tique. Les deux concepts sont proches, mais il existe une distinc­tion impor­tante entre les deux. Le Machine Lear­ning est en fait une sous-caté­go­rie de l’IA, qui se concentre sur la capa­cité des systèmes à apprendre à partir des données, sans être expli­ci­te­ment program­més pour chaque tâche. Cela signi­fie qu’au lieu de coder manuel­le­ment une règle pour chaque situa­tion, un modèle peut « apprendre » des rela­tions ou des struc­tures dans les données et s’amé­lio­rer au fil du temps, et utilise des algo­rithmes pour créer des modèles à partir de données et faire des prédic­tions ou clas­si­fi­ca­tions sur de nouvelles données. 

Il existe des appli­ca­tions répan­dues de l’IA qui ne sont pas du machine lear­ning, par exemple tous les systèmes basés sur des règles et des symboles (systèmes experts conçus pour imiter la prise de déci­sion humaine dans un domaine spéci­fique, comme en méde­cine ou en finance, logique floue), les algo­rithmes de recherche comme ceux que l’on retrouve régu­liè­re­ment dans le jeu vidéo (voir l’ex­cel­lente intro­duc­tion au sujet sur YouTube du Joueur du Grenier), des langages de program­ma­tion logique comme le Prolog avec ses appli­ca­tions, des systèmes de trai­te­ment du langage natu­rel qui étaient utili­sés encore jusqu’à il y a peu pour la traduc­tion du texte…

Mais aujour­d’hui, ce dont il est ques­tion quand on parle de ce sujet pour le grand public, c’est prin­ci­pa­le­ment de tous les clones de ChatGPT de OpenAI (qui d’ailleurs n’est plus open source, contrai­re­ment à Deep­Seek, par exemple) ou de Midjour­ney et DALL-E, que l’on appelle aussi IA géné­ra­tives, et qui permettent de géné­rer du texte, des images, des vidéos, du son ou même du code en réponse à des requêtes ou prompts, grâce au Deep Lear­ning et aux LLMs (large language models), nour­ris par d’énormes quan­ti­tés de données. Les deux para­graphes du dessus ont d’ailleurs été écrits pour le fun avec l’aide de ChatGPT et d’un peu de réécri­ture, dans l’op­tique d’illus­trer ce qu’il est possible de faire en aide à la rédac­tion (c’était d’ailleurs la première fois que je le fais), et aussi parce que c’est drôle de deman­der à une IA ce qu’elle pense de l’IA pour écrire un article sur l’IA avec comme illus­tra­tion des para­graphes écrits par l’IA pour expliquer ce qu’est l’IA…

YO GPTDAWGSi vous lisez régu­liè­re­ment de la presse écrite, il y a de très fortes chances que vous ayez déjà été confronté en masse à de l’ar­ticle écrit en partie au mini­mum, voire plus grâce à ces outils. Person­nel­le­ment, j’avais déjà fait un essai il y a un moment de type « qu’est-ce qu’il faudrait rajou­ter à Able­ton Live pour en faire une STAN géniale ». Alors, tout n’était pas inin­té­res­sant dans sa réponse (ça parlait de VR et d’in­té­gra­tion avec d’autres STANs), mais ça m’avait un peu refroidi de lire qu’il fallait que Able­ton Live invente le Able­ton Cloud, améliore son éditeur de parti­tions, se mette aux beat repea­ters et à la FM pour que le passage de la version 11 à la version 12 soit un succès (on était fin 2024, et Live 12 était sorti après la collecte de données du corpus de cette version de ChatGPT). Parfois, ces algo­rithmes vont même jusqu’à inven­ter des choses tota­le­ment irréelles (on appelle cela des hallu­ci­na­tions), car leur objec­tif reste toujours d’avoir l’air le plus plau­sible, pas de donner de l’in­for­ma­tion fiable.

Aujour­d’hui l’IA est aussi au cœur de polé­miques, voire de ques­tion­ne­ments fonda­men­taux sur les réper­cus­sions du déploie­ment de cette tech­no­lo­gie, et des consé­quences sur la société humaine. Elle pose un certain nombre de problèmes à des niveaux indi­vi­duels et plus macro, d’au­tant que les appli­ca­tions et le fond scien­ti­fique progressent actuel­le­ment de façon très rapide, voire incon­trô­lée. Si l’avè­ne­ment des IAs dites « fortes » (en gros Termi­na­tor et consorts) ou des super­in­tel­li­gences nous semble peu probable pour le moment, l’hu­main réalise déjà avec l’exis­tant un certain nombre de choses problé­ma­tiques, suffi­sam­ment pour qu’il y ait une demande forte de citoyens et d’ex­perts sur des manœuvres de régu­la­tion et de protec­tion. Mais, pour le moment le sujet est très peu inté­rio­risé par les pouvoirs publics de la plupart des pays occi­den­taux, qui ont plutôt tendance à vouloir favo­ri­ser le busi­ness et l’ac­cé­lé­ra­tion­nisme. Pour­tant, alors que « le sommet de l’IA » se tenait début février en France, nous avons été nombreux à décou­vrir la vidéo de vulga­ri­sa­tion des problé­ma­tiques du moment illus­trée par une partie de paper­clips. Et Média­part vient de livrer un tableau peu relui­sant des usages du moment de l’IA qui vont contre l’in­té­rêt géné­ral, et même parfois le droit natio­nal et inter­na­tio­nal : mili­ta­ri­sa­tion, collecte de données sans consen­te­ment pour la tech­no­sur­veillance ou le détour­ne­ment du droit d’au­teur, déploie­ment de recon­nais­sance faciale et voix en temps réel, préca­ri­sa­tion du travail, dégra­da­tion des services publics, influence et désin­for­ma­tion sur les réseaux sociaux, le tout avec un coût éner­gé­tique hors de contrôle qui va encore plus loin que celui des cryp­to­mon­naies et des tech­no­lo­gies block­chain…

C’est quoi l’IA appliquée à la M.A.O.

Fort heureu­se­ment, les appli­ca­tions et problé­ma­tiques posées de l’in­tel­li­gence arti­fi­cielle à la musique sont sur une autre échelle, ce qui ne nous empê­chera pas toute­fois d’exer­cer notre sens critique. Tout ce qui permet d’au­to­ma­ti­ser des tâches ingrates ou de simpli­fier la vie des musi­ciens a toujours créé de tout temps des polé­miques, des débats « analo­gique contre numé­rique », en passant par l’im­pact sur ces dernières décades de la diffu­sion d’ou­tils d’aide à la compo­si­tion ou au mixage, de la virtua­li­sa­tion des machines, voire même des humains d’un EZDrum­mer ou d’un EZMix qui ont forcé­ment influencé la perte de vitesse des studios d’en­re­gis­tre­ment tradi­tion­nels, ou les kilo­mètres de présets de nos plug-ins modernes. On parle aussi régu­liè­re­ment des pratiques de Spotify et des décla­ra­tions de son fonda­teur, avec la diffu­sion de morceaux réali­sés par des IAs (type Suno) pour réduire la part de leurs reve­nus à redis­tri­buer aux artistes réels (docu­menté dans le livre Mood Machine de Liz Pelly sorti récem­ment).

Qui aurait cru qu’on parle­rait aujour­d’hui de tous ces sujets en voyant les évolu­tions de la tech­no­lo­gie au service de la musique ? Il y a à peine une dizaine d’an­nées, les débuts de l’IA permet­taient timi­de­ment de géné­rer des notes MIDI à partir de bases de données issues de parti­tions clas­siques, avant qu’on parle de machine lear­ning symbo­lique ou profond. Les débuts des géné­ra­teurs auto­ma­tiques de musique étaient plutôt rudi­men­taires et n’in­té­graient pas encore la dimen­sion du sound design et du mixage. L’IA a aussi pas mal été utili­sée dans le contexte des inter­faces homme-machine pour la recon­nais­sance des gestes et l’in­ter­ac­tion avec le maté­riau sonore (voir par exemple les diffé­rentes expé­ri­men­ta­tions avec les contrô­leurs de jeux vidéo Kinect de Micro­soft ou Wiimotes de Nintendo, l’Ae­ro­drums, ou tout ce qui est publié aux confé­rences annuelles NIME).

MPC StemsMais aujour­d’hui, certains usages sont deve­nus assez matures et ont commencé à s’im­po­ser. Par exemple, cela fait des années que nous enten­dons parler de démixage, le proces­sus qui consiste à prendre un morceau et à en expor­ter des stems, sur lesquels l’opé­ra­tion de sépa­ra­tion de source est plus ou moins propre, mais qui permet déjà d’al­ler beau­coup plus loin que tout ce qui était permis jusque là par le sampling tradi­tion­nel. On pense aussi à tous les modèles de recon­nais­sance de la voix, aux derniers algo­rithmes de text-to-speech, aux produits de Izotope qui peuvent faire des mixages et maste­ring auto­ma­tiques (ce qui est aussi le cas de certains algo­rithmes déployés via des appli­ca­tions web), au maste­ring en ligne, à tous les produits qui retirent auto­ma­tique­ment des réso­nances ou unifor­misent, puis modi­fient le spectre fréquen­tiel, comme oeksound Soothe 2 et Sound­theory Gull­foss, ou aux derniers algo­rithmes de détec­tion de tempo.

Et puis, on a vu du machine lear­ning montrer le bout de son nez dans les simu­la­teurs d’am­pli­fi­ca­teurs guitare depuis déjà quelques années. La première occur­rence du phéno­mène provient, il me semble, de l’édi­teur de plug-ins russe du nom de Mercu­riall, issu de la vague des déve­lop­peurs qui échan­geaient sur feu le forum Guita­ramp­mo­de­ling à propos de tech­niques d’ému­la­tion, et qui parta­geaient leurs créa­tions gratui­te­ment. C’est ainsi qu’on vit débarquer en même temps les free­wares notam­ment de LePou, Ignite Amps, TSE, et Mercu­riall. Ils utili­saient des tech­niques qui avaient été inspi­rées du travail des cher­cheurs Fede­rico Fontana, Thomas Sera­fini, et David T. Yeh, et des moteurs de simu­la­tions géné­ra­listes SPICE, tels que le logi­ciel LTSpice édité par Linear Tech­no­logy. L’usage du Machine Lear­ning permet­tait alors de rempla­cer des tableaux de valeurs précal­cu­lés à inter­po­ler par un réseau de neurones, plus facile à utili­ser et à déployer. À ma connais­sance, il y a quelques autres socié­tés qui ont utilisé plus tard cette appro­che…

C’est quoi Neural Amp Mode­ler ?

Neural Amp Mode­ler est donc le projet de Steven Atkin­son, docteur en ingé­nie­rie méca­nique, cher­cheur en statis­tiques et machine lear­ning, et guita­riste amateur. Le projet commença sur son temps libre en 2019, fut aban­donné quelque temps, puis repris début 2022. Steven utilisa ses connais­sances pour conce­voir à la fois le proces­sus d’en­trai­ne­ment en python, et le moteur de simu­la­tion temps réel, qu’il finit par rempla­cer en septembre 2022 par l’état de l’Art du domaine appliqué à l’au­dio, avec des modèles de réseaux de neurones LSTM (Long short-term memory) et basés sur le Wave­Net de Google / Deep­Mind.

À ce stade, son travail permet­tait déjà à son grand éton­ne­ment d’ob­te­nir un niveau de simi­la­rité excellent entre ses résul­tats – qu’il pouvait utili­ser en temps réel dans un plug-in – et les origi­naux qui étaient utili­sés pour l’en­trai­ne­ment, avec un réalisme supé­rieur à celui obtenu via les procé­dés de clonage des produits Kemper, du Quad Cortex de Neural DSP, ou des produits ToneX de IK Multi­me­dia, en tout cas dans ses tests. Il exis­tait déjà à ce moment des produits qui réali­saient le clonage par machine lear­ning, Wave­Net était dispo­nible depuis 2016 et très forte­ment lié au domaine de l’au­dio, des articles IEEE et DAFX faisaient état des premières tenta­tives de créer des plug-ins de simu­la­tion de maté­riel guitare par IA, notam­ment celui de Alec Wright + Vesa Välimäki de l’uni­ver­sité de Aalto, et Eero-Pekka Damskägg + Lauri Juvela de Neural DSP en 2020 avec une autre variante de Wave­Net. Le nerf de la guerre ici n’était pas seule­ment le résul­tat en lui-même, mais aussi l’ef­fi­ca­cité du proces­sus d’en­trai­ne­ment, qui dépend forte­ment du type de signal à envoyer dans les origi­naux, sans oublier l’exis­tence d’une implé­men­ta­tion C++ rapide pour utili­ser le résul­tat en temps réel. Cette contrainte est très spéci­fique à l’au­dio et à nos problé­ma­tiques de musi­ciens, tandis que la plupart des appli­ca­tions du machine lear­ning sont réali­sées à la demande en offline dans des envi­ron­ne­ments où tout est codé en python, sans l’in­té­rêt de mixer les langages de program­ma­tion ou de garan­tir une basse latence et une consom­ma­tion de charge proces­seur (ou GPU) en dessous d’un certain seuil.

ToneHuntAussi, dès fin 2022, il y avait déjà presque tout ce qui était impor­tant : le réalisme, le temps réel avec une consom­ma­tion CPU certes un peu élevée et l’obli­ga­tion de fixer la fréquence d’échan­tillon­nage dans sa STAN à 48 kHz, un proces­sus d’en­trai­ne­ment qui s’af­fi­nait et qui était libre, ce qui permet­tait à tout le monde de s’amu­ser avec l’ou­til. D’au­tant que l’au­teur l’a proposé en ligne aussi via Google Collab, pour permettre à tout le monde de profi­ter de GPUs Nvidia dans le cloud qui accé­lèrent la phase d’en­trai­ne­ment. Mais les choses allèrent encore plus loin lorsque de nombreux utili­sa­teurs du projet, déjà regrou­pés en commu­nau­tés notam­ment sur Face­book et sur Discord, lancèrent le site Tone­Hunt.org, seul moyen de gérer l’af­flux continu et massif d’uploads de profils pour NAM réali­sés sur du maté­riel divers et varié, ampli­fi­ca­teurs guitare et basse, pédales, enceinte, et même maté­riel de studio. Tout y serait centra­lisé, et il y serait facile de cher­cher des réfé­rences hard­ware à simu­ler, parfois même qui n’avaient pas encore eu de simu­la­tion tradi­tion­nelle dédiée faute d’in­té­rêt ou d’ac­cès aux sché­mas élec­tro­niques sur le net.

Honnê­te­ment, on peut dire aujour­d’hui qu’il est diffi­cile de déga­ger une tech­no­lo­gie à base d’IA qui ferait un meilleur travail que les autres, vu qu’elles affichent des perfor­mances et des problé­ma­tiques simi­laires, qui tendent vers le même niveau de réalisme à chaque itéra­tion par design. Quand NAM s’est vrai­ment fait connaître en 2023, il exis­tait d’ailleurs déjà des initia­tives gratuites, comme Proteus ou Aida-X, ainsi que diffé­rents projets moins user-friendly dans les méandres de GitHub. Mais ce qui a fait que ce projet est passé devant en termes d’in­té­rêt, c’est clai­re­ment l’en­ga­ge­ment de sa commu­nauté, et les tonnes de profils rendus dispo­nibles pour NAM (plus de 2500 packs de profils gratuits en février 2025, ainsi que du contenu payant proposé ailleurs), en compa­rai­son avec une poignée seule­ment de profils pour les autres tech­no­lo­gies gratuites.

Neural Amp Mode­ler en action : comment l’uti­li­ser et quels résul­tats attendre ?

Alors, comment ça marche ? Et bien on peut aller sur le site Tone­Hunt, télé­char­ger des profils de maté­riel qui nous inté­ressent au format NAM, télé­char­ger un des plug-ins qui lit ces fichiers (voir une liste plus loin dans le dossier), ouvrir le plug-in et sélec­tion­ner le profil NAM voulu. On obtient une simu­la­tion du maté­riel en ques­tion, le plus souvent une pédale de distor­sion ou un ampli­fi­ca­teur guitare. Je repré­cise que tout cela est gratuit évidem­ment !

Et, comme pour les autres simu­la­teurs d’am­pli­fi­ca­teurs, on fera atten­tion à la gestion de la stéréo, on pourra utili­ser des effets avant ou après si on le souhaite, et on rajou­tera une simu­la­tion de la partie « enceintes ». Il est d’ailleurs tout à fait possible d’uti­li­ser plusieurs instances du moteur NAM à la suite (certains plug-ins compa­tibles le permettent déjà) pour avoir, par exemple, une Klon Centaur, un Fender Reverb et un 1×12 en Green­back, tous gérés par NAM (même si sur la partie enceinte l’usage le plus répandu aujour­d’hui reste toujours les réponses impul­sion­nelles).

Préci­sons qu’un profil ici corres­pond à un élément à simu­ler donné avec un set de para­mètres fixés et qui ne varie pas, indiqué par son auteur en géné­ral. Il n’est pas pour l’ins­tant possible de captu­rer du maté­riel avec NAM qui inclu­rait toutes les varia­tions de ses poten­tio­mètres (par exemple, une Tube Screa­mer avec le Drive, le Tone, et le Volume variables à l’envi) autre­ment qu’en propo­sant des captures pour diffé­rents sets de para­mètres. Toute­fois, cela est déjà possible en adap­tant la tech­no­lo­gie, Steven Atkin­son ayant juste­ment mis en ligne à un moment donné un proof of concept à savoir un plug-in dédié inti­tulé « NAM Para­me­tric: Over­drive », qui simule une pédale analo­gique custom de sa concep­tion avec la tech­no­lo­gie. C’est quelque chose qui sera amené à être beau­coup plus diffusé dans un futur proche, le moteur Proteus propo­sant déjà quelque chose de simi­laire, ainsi que les plug-ins de la marque Fazer­tone en source fermée.

NAM Parametric OverdriveSi vous possé­dez vous aussi du maté­riel inté­res­sant pour la guitare ou la basse, et que vous souhai­tez le captu­rer pour le simu­ler avec NAM, vous pouvez réali­ser vos profils de diffé­rentes manières. Neural Amp Mode­ler, c’est donc aussi une série de scripts qui permettent de réali­ser l’en­trai­ne­ment d’un réseau de neurones à partir d’un signal d’en­trée, que l’on choi­sit comme étant le plus repré­sen­ta­tif possible de ce que l’on espère faire ensuite du résul­tat. Steven Atkin­son four­nit un signal spéci­fique qu’il recom­mande pour ses perfor­mances, que l’on peut télé­char­ger ici : https://colab.research.google.com/github/sdat­kin­son/NAMTrai­ner­Co­lab/blob/main/note­book.ipynb

Le fichier input.wav suggéré est mono en 24 bits, avec une fréquence d’échan­tillon­nage de 48 kHz, et fait une durée de très exac­te­ment 3 min et 10 secondes. N’im­porte quel autre fichier pour­rait faire l’af­faire, mais, en partant de celui-ci, la première étape est de le passer au travers du maté­riel que l’on cherche à repro­duire. Cela peut d’ailleurs aussi être un plug-in ! Dans le cas d’un ampli­fi­ca­teur guitare hard­ware, on recom­man­dera l’usage d’un boitier de réam­ping, qui permet de conver­tir un signal niveau ligne (en sortie de votre inter­face audio) en un signal qui présente une haute impé­dance comme les pickups d’une guitare élec­trique passive, pour obte­nir un compor­te­ment de l’am­pli­fi­ca­teur plus proche de condi­tions d’usage réel. On enre­gis­trera alors la sortie de l’am­pli, qu’on expor­tera ensuite au même format iden­tique, avec exac­te­ment la même durée égale­ment (atten­tion c’est très impor­tant). Enfin, on pourra déclen­cher la phase d’en­trai­ne­ment, avec une version locale du projet qui exécute la fonc­tion (de préfé­rence si vous êtes à l’aise avec le code et que vous possé­dez un GPU Nvidia pour accé­lé­rer le proces­sus, notam­ment si vous avez envie de faire l’opé­ra­tion sur beau­coup de captures à la fois en person­na­li­sant certains réglages), ou bien avec les outils en ligne comme Google Collab, et le nouveau site web Tone­Zo­ne3000 dont je vous recom­mande l’usage. Toutes les infor­ma­tions à jour sont dispo­nibles ici : https://www.neura­lamp­mo­de­ler.com/users

Notons qu’il peut arri­ver que les méthodes d’en­trai­ne­ment ci-dessus vous indiquent des erreurs avant même le démar­rage du procédé. Pour amélio­rer les perfor­mances du proces­sus, il est recom­mandé d’uti­li­ser votre STAN pour envoyer le signal à enre­gis­trer et enre­gis­trer la sortie de l’ap­pa­reil ou du logi­ciel à captu­rer en même temps, avec la bonne fréquence d’échan­tillon­nage, et un réglage des niveaux qui permet de limi­ter le niveau de bruit sur la mesure.

Dans mon test du Nembrini Audio MP1 Pro, simu­la­tion du préam­pli ADA MP-1, j’avais mis deux échan­tillons sonores que je vais vous refaire écou­ter ici, le A corres­pon­dant à un enre­gis­tre­ment de l’ori­gi­nal à partir d’un signal dry réampé, et le C à la même chose passée dans le plug-in NAM en réglant en amont le niveau de gain d’en­trée et le volume de sortie, avec à chaque fois la même simu­la­tion d’en­ceintes.

Dist Tube – Exemple A
00:0000:11
  • Dist Tube – Exemple A00:11
  • Dist Tube – Exemple C00:11

Le moins que l’on puisse dire, c’est que nous sommes sur un niveau de perfor­mance de clonage d’am­pli­fi­ca­teur saturé qui est assez remarquable ! Les deux échan­tillons sonores sont faciles à diffé­ren­cier en faisant atten­tion au niveau de bruit et de hum sur les premières secondes, mais sur le reste, en calant les sons à l’échan­tillon près, on arrive même à avoir une perfor­mance avec un null test qui est singu­lière (en moyenne en dessous de –30 dB) compte tenu des condi­tions d’en­re­gis­tre­ment et de réglage du proto­cole. Sur des sons clairs, on peut obte­nir égale­ment des résul­tats inté­res­sants si on compare le son d’un Roland Jazz Chorus avec une capture NAM (réali­sée aussi avec les mêmes réglages, et un peu d’uni­for­mi­sa­tion des volumes d’en­trée et de sortie).

Jazz Chorus Origi­nal
00:0000:19
  • Jazz Chorus Origi­nal00:19
  • Jazz Chorus NAM00:19

On peut égale­ment s’amu­ser à faire un test cette fois-ci avec des pédales de distor­sion, par exemple, la distor­sion JHS Pedals Notak­lon, réplique de la mythique Klon Centaur, d’abord désac­ti­vée, puis acti­vée dans l’exemple sonore suivant (avec une capture de Dumble Over­drive en son clair issue de Tone­Hunt.org), ou un peu de Bass Attack de Hartke sur la basse.

Dumble Clean Notak­lon
00:0000:16
  • Dumble Clean Notak­lon00:16
  • Under­world Bass00:21

Ainsi, la tech­no­lo­gie de Neural Amp Mode­ler nous semble très à l’aise sur diffé­rents registres liés à la guitare. Notons qu’il est possible, comme avec certains concur­rents, de réali­ser des captures qui profilent une combi­nai­son de diffé­rents appa­reils hard­ware. On trouve ainsi de nombreuses captures sur Tone­Hunt.org d’am­pli­fi­ca­teurs guitare typés métal qui incluent une Tube Screa­mer en amont (utili­sa­tion clas­sique pour obte­nir un côté tight sans forcé­ment utili­ser le gain de la pédale), ou des ampli­fi­ca­teurs plutôt son clair avec des pédales de boost, distor­sion, ou fuzz incor­po­rées. Tout ce qui compte, c’est l’ima­gi­na­tion, tout ça… 

Gain staging avec Neural Amp Mode­ler : opti­mi­ser son signal pour un rendu réaliste

À présent, parlons d’un sujet central avec NAM qui n’avait pas lieu d’être avec la convo­lu­tion et les réponses impul­sion­nelles, l’im­pact du niveau d’en­trée ou ce qu’on appelle parfois aussi le gain staging. Avec la convo­lu­tion, une fois qu’on a réglé le volume de sortie à un niveau accep­table, on est assuré d’ob­te­nir un rendu sonore satis­fai­sant et simi­laire à la cible à simu­ler. Avec NAM, la capture étant non linéaire, le niveau d’en­trée dans le plug-in va avoir un impact drama­tique sur le résul­tat. Pire, en fonc­tion des condi­tions dans lesquelles la capture a été faite, il est néces­saire de partir d’un volume d’en­trée assez faible (par exemple –12 dB) comme valeur par défaut ou de départ pour utili­ser un fichier NAM dans de bonnes condi­tions d’usage, avec le niveau de gain attendu. Et cette valeur peut chan­ger dras­tique­ment d’une capture à une autre !

Une bonne pratique dans l’usage de NAM sera donc, quelle que soit la capture utili­sée, d’avoir constam­ment à portée de souris ou de doigt le réglage du niveau d’en­trée. On peut imagi­ner qu’il n’y aura pas besoin de chan­ger ce réglage à chaque fois, surtout si on navigue dans un pack donné de captures où le niveau d’en­trée du signal avant capture ne change pas sans arrêt, mais il faudra toujours garder cela en tête, notam­ment si on utilise plusieurs profils à la suite (par exemple pour la partie pédale, puis ampli­fi­ca­teur, etc.).

Cette notion de gain nous amène à faire plusieurs obser­va­tions supplé­men­taires. Pour commen­cer, nous le savions déjà avec les simu­la­teurs de maté­riel analo­gique, mais ici égale­ment, le niveau d’en­trée de la simu­la­tion n’équi­vaut pas au réglage de gain qui existe dans l’ori­gi­nal ! Que ce soit dans une pédale de distor­sion clas­sique ou une grosse tête à 12 lampes moderne, les construc­teurs posi­tionnent souvent le réglage dit de gain dans un circuit élec­tro­nique à un endroit situé après un certain nombre de compo­sants, dans l’op­tique d’ob­te­nir un son toujours propre quelque soit la valeur du réglage, ainsi que des inter­ac­tions inté­res­santes avec le reste du circuit, ou des filtres qui vont modi­fier la réponse en fréquence du résul­tat en fonc­tion de la valeur de gain. Tous ces « sweet spots » ne seront donc pas acces­sibles à l’aide d’une seule capture, même réali­sée déjà avec un certain niveau de gain, juste en faisant varier le niveau d’en­trée de la simu­la­tion ou même le volume au niveau de la guitare. Il sera plus inté­res­sant d’avoir plusieurs captures avec diffé­rentes valeurs de ce para­mètre. 

De même, puisque la simu­la­tion NAM a un compor­te­ment haute­ment inter­ac­tif avec le niveau de gain, on peut imagi­ner que le réalisme de simu­la­tion sera opti­mal sur un cadre donné et restreint de valeurs de niveau d’en­trée qui corres­pond aux condi­tions de capture. Cela soulève une remarque supplé­men­taire. Admet­tons que l’on pousse le volume d’en­trée fort dans NAM, est-ce que ce que l’on entend est bien ce qui se passe­rait dans l’ori­gi­nal avec un volume d’en­trée simi­laire ? Aucun simu­la­teur d’am­pli ou de pédale analo­gique ne garan­tit cela, ce n’est pas le nouveau chal­len­ger qui va déro­ger à la règle (que celui qui n’a jamais essayé de mettre 60 dB de volume d’en­trée dans son plug-in préféré pour le fun parle main­te­nant ou se taise à jamais). D’ailleurs, je ne résiste pas à l’en­vie de vous faire écou­ter ce qui sort de IK Multi­me­dia Ampli­tube 4 quand on joue un peu trop long­temps avec des signaux d’am­pli­tude beau­coup trop forte, j’avais réussi à détraquer complè­te­ment le moteur de simu­la­tion à un moment donné, qui m’en­voyait ce genre de sons sans que je ne fasse quoi que ce soit en entrée à part des inter­ac­tions avec le poten­tio­mètre de gain sur un ampli­fi­ca­teur émulé high gain.

Ampli­tu­be­Glit­chy
00:0001:46

Sans aller jusque là, on peut imagi­ner qu’avec un niveau de gain suffi­sant, ce qu’on enten­dra, ça sera, par exemple, des satu­ra­teurs utili­sés dans le réseau de neurones qui saturent plutôt que quelque chose présent natu­rel­le­ment dans l’ap­pa­reil mesuré. De plus, avec de tels niveaux de gain, il est probable égale­ment que des phéno­mènes très numé­riques comme l’alia­sing puissent venir polluer le signal. C’est d’ailleurs un sujet récur­rent dans la commu­nauté NAM. Le moteur semble avoir un compor­te­ment un peu diffi­cile à quan­ti­fier à ce niveau-là, dépen­dant de la simu­la­tion utili­sée, qu’on pourra réduire au maxi­mum en appliquant un filtre passe-bas avant la simu­la­tion ou en utili­sant des captures réali­sées avec une fréquence d’échan­tillon­nage supé­rieure à 48 kHz. 

Enfin, à moins de mettre une quan­tité de gain impres­sion­nante dans le monde analo­gique, on aura du mal à faire entendre sur l’en­re­gis­tre­ment qui sert à l’en­trai­ne­ment des phéno­mènes comme ceux que l’on peut obte­nir faci­le­ment en numé­rique en pous­sant un peu le volume d’un glis­se­ment de souris. Après tout, même nos sorties audio d’in­ter­faces numé­riques ont une limite au niveau du volume de sortie, tout comme d’éven­tuels ampli­fi­ca­teurs de puis­sance. Ce qui nous permet de réali­ser – pour termi­ner cet aparté sur le gain staging – qu’il est impor­tant lorsqu’on réalise des mesures de garan­tir qu’on envoie un signal assez fort dans le maté­riel analo­gique à captu­rer, quitte à en mettre un peu plus que ce qu’il faudrait, pour qu’on soit certain d’avoir le bon niveau de non-linéa­rité dans la simu­la­tion. Car NAM ne pourra pas produire une sono­rité issue de l’ori­gi­nal qui n’est pas présente dans l’en­re­gis­tre­ment utilisé par l’en­trai­ne­ment ! Donc, inutile, par exemple, de pous­ser fort NAM avec une capture d’en­ceinte ou de pédale de distor­sion dans l’es­poir d’ob­te­nir une sono­rité qui n’existe pas dans la capture, faute de niveau suffi­sant appliqué à l’en­re­gis­tre­ment. Mais avec un peu de marge de gain, on peut faire ressor­tir correc­te­ment le grain de l’am­pli­fi­ca­teur origi­nal avec un peu de marge, comme ici avec un Peavey 5150 II.

Under­world Section B2
00:0000:38

Cela peut être parti­cu­liè­re­ment drama­tique dans le cas, par exemple, de la pédale ProCo RAT. Celle-ci possède un compor­te­ment très carac­té­ris­tique qui la fait sonner comme une over­drive plutôt clas­sique tant que le niveau de gain est infé­rieur à un seuil, qui pour­rait presque la faire passer pour une Tube Screa­mer. Puis, au-dessus de ce seuil, à cause d’une erreur initiale de concep­tion du desi­gner sur une valeur de résis­tance, le gain en entrée d’un des ampli­fi­ca­teurs opéra­tion­nels augmente bruta­le­ment, et notre joli signal légè­re­ment distordu se trans­forme indu­bi­ta­ble­ment et inexo­ra­ble­ment en carré, appor­tant le côté fuzz clas­sique de la pédale. Sans ce boost de gain néces­saire, une simu­la­tion NAM ne pour­rait ainsi jamais donner la sono­rité atten­due, même avec plus de volume en entrée du plug-in (ici un exemple cliché d’uti­li­sa­tion de la RAT, à partir d’une capture de la JHS Pedals PackRAT, sur une ligne de TB-303).

303 RAT
00:0000:26

Enceintes pour ampli­fi­ca­teurs guitare et basse

De même, le cas des enceintes néces­site une certaine atten­tion, d’au­tant que NAM va pouvoir nous appor­ter un éclai­rage inté­res­sant. Lorsque Neural Amp Mode­ler est sorti, j’ai attendu avec impa­tience la mise en ligne de profils d’en­ceintes guitare, repiquées avec des micro­phones clas­siques, dans le but de pouvoir entendre via NAM cette fameuse non-linéa­rité issue des haut-parleurs qui est un sujet depuis la sortie des premiers simu­la­teurs de Two Notes. En effet, on fantasme beau­coup encore aujour­d’hui sur ces non-linéa­ri­tés qui ne sont pas acces­sibles avec les simu­la­teurs clas­siques à base de réponse impul­sion­nelle, mais seule­ment avec ceux qui intègrent des modèles physiques ou des approches plus avan­cées (notam­ment chez Two Notes, Mercu­riall, Over­loud, etc.). Pour savoir où votre simu­la­teur préféré se situe, il est aisé d’uti­li­ser, par exemple, le fameux DDMF Plugin­Doc­tor, et de jeter un œil à la réponse harmo­nique du produit. S’il n’y a pas la moindre trace de distor­sion, cela signi­fie que l’ap­proche utili­sée est parfai­te­ment linéaire.

IKM-SpeakerCe phéno­mène est censé avoir un impact inté­res­sant sur le son, au point qu’il existe des plug-ins, comme le IRDX Core de Bogren Digi­tal (à base de Machine Lear­ning appa­rem­ment), censés rajou­ter le carac­tère manquant aux simu­la­teurs clas­siques, que l’on va pouvoir rajou­ter dans sa chaine d’ef­fets pour rajou­ter un petit quelque chose en plus. La réalité, c’est que ce phéno­mène existe, mais qu’il n’est pas forcé­ment si agréable que cela à l’oreille, et que, pour l’ob­te­nir, il faut soit augmen­ter très forte­ment la puis­sance d’émis­sion du son, soit avoir des haut-parleurs qui sont en mesure de produire ces non-linéa­ri­tés à volume plus faible, par exemple s’ils sont endom­ma­gés (on pense instan­ta­né­ment aux fameuses guitares du Surfing with the Alien de Satriani, avec un Even­tide H949 en fin de vie et un haut-parleur éclaté, ou encore au son sur « You Really Got Me » des Kinks avec un Dave Davies qui fait du sound design à la lame de rasoir). Alors, pour se faire une idée de tout ça dans son home studio, on se mit à la recherche d’un profil NAM d’en­ceinte (+ pièce + micro­phone) sur Tone­Hunt.org, et il y en avait bien plusieurs ! Nous avons ici les enre­gis­tre­ments que j’avais publiés dans mon précé­dent dossier, avec diffé­rents volumes d’en­trée.

Guitar – Dry
00:0000:10
  • Guitar – Dry00:10
  • Guitar – IR00:10
  • Guitar – NAM Low Gain00:10
  • Guitar – NAM Mid Gain00:10
  • Guitar – NAM High Gain00:10
  • Guitar – NAM Higher Gain00:10
  • Guitar – NAM Highest Gain00:10
  • Guitar – NAM Hell Gain00:10

Or, dans ce que nous enten­dons ici, il est en fait très probable que les non-linéa­ri­tés proviennent de la satu­ra­tion du moteur NAM plutôt que des enceintes elles-mêmes, pour les raisons que nous venons d’évoquer ! Dans le cas contraire, nous aurions déjà une certaine quan­tité de non-linéa­ri­tés présentes avec la valeur par défaut du volume d’en­trée. Ce qui n’est mani­fes­te­ment pas le cas, et entre en contra­dic­tion avec ce que nous disions dans le dossier sur la simu­la­tion d’en­ceintes. Le mystère reste donc entier, et nous allons le résoudre en faisant là encore nos propres mesures, sur une enceinte Harley Benton 1×12 avec un haut-parleur Celes­tion V30, et une prise de son en close-miking avec un SM57 (on ne peut pas faire plus clas­sique !) avec beau­coup de volume en sortie. Nous allons ensuite écou­ter le rendu de la simu­la­tion NAM avec le volume d’en­trée qui augmente progres­si­ve­ment. Sur l’exemple sonore, on entend clai­re­ment quelque chose qui nous semble d’ori­gine analo­gique, puis une satu­ra­tion à la toute fin, qui est très proba­ble­ment celle de NAM, mais avec des sono­ri­tés inté­res­santes entre les deux.

Test Spea­ker Satu­ra­tion
00:0000:30

La perfor­mance des simu­la­tions d’en­ceintes a ainsi fran­chi un nouveau palier grâce à Neural Amp Mode­ler ! Pas mal de petites choses bougent encore à ce niveau-là d’ailleurs aujour­d’hui, et on se dit que les remarques sur les dépla­ce­ments de poten­tio­mètres en live sur les pédales pour­raient s’ap­pliquer à diffé­rents posi­tion­ne­ments de micro­phones dans l’es­pace, qui seraient inter­po­lés par le modèle, ce qui permet­trait de résoudre un autre problème typique de ces simu­la­tions dans la foulée !

De plus, NAM permet­tant de modé­li­ser des stacks complets (pédale + ampli + enceinte + micro par exemple) avec la même capture, on pour­rait égale­ment récu­pé­rer un peu de réalisme supplé­men­taire dans la simu­la­tion des inter­ac­tions entre ces diffé­rents éléments, notam­ment l’im­pé­dance de l’en­ceinte avec l’am­pli­fi­ca­teur de puis­sance, pour se rappro­cher encore plus des prises de son réelles. En atten­dant, nous allons aussi conti­nuer à regar­der les dernières inno­va­tions en la matière, telles que le Kemper Kabi­net, ou le IK Multi­me­dia ToneX Cab, réali­sés en parte­na­riat avec Celes­tion, et écou­ter encore un peu de satu­ra­tion d’en­ceintes avec une capture d’un Mesa Boogie JP2C.

Under­world Section C
00:0001:16

Aller plus loin avec NAM

Alors, jusqu’où peut-on encore aller avec Neural Amp Mode­ler ? Malheu­reu­se­ment, le moteur dans son état actuel a un certain nombre de limites en matière de capa­ci­tés d’ému­la­tion. Par exemple, il ne permet pas pour le moment de repro­duire d’ef­fets « tempo­rels » de type délai ou réverbes (ce qui peut être problé­ma­tique sur les simu­la­tions d’en­ceintes si on veut « le son de la pièce » sans ajou­ter de réverbe supplé­men­taire), ou encore de modu­la­tions, provoquées par un LFO ou même une enve­loppe qui suit le signal comme sur les compres­seurs. Ce que l’on entend sur les captures NAM exis­tantes est très insuf­fi­sant, et semble repré­sen­ta­tif du carac­tère fréquen­tiel linéaire pur ou non linéaire, mais sans certaines carac­té­ris­tiques clé, comme la queue de la réverbe ou le pompage du compres­seur, ce qui tout de suite limite pas mal les appli­ca­tions possibles de la tech­no­lo­gie à l’heure actuelle, qui s’étendent à peine au delà du monde de la guitare à d’autres types de distor­sions comme celle des préam­pli­fi­ca­teurs à lampes en géné­ral.

Mais cela ne doit pas nous décou­ra­ger à trou­ver des appli­ca­tions rigo­lotes avec ce qui est déjà dispo­nible. Nous avons évidem­ment quelques idées, qui nous ont été souf­flées par des petits plai­san­tins qui mettent en ligne des profils un peu parti­cu­liers sur Tone­Hunt.org. Nous avons pu consta­ter là-bas que parfois les anno­ta­tions affi­chées sur les profils dispo­nibles peuvent être menson­gères ou falla­cieuses sur les origines du maté­riel capturé. Ainsi, puisque rien n’em­pêche de captu­rer le son d’un plug-in, il y a des captures  qui ont été réali­sées sur des modé­li­sa­tions, notam­ment chez Neural DSP, ou plus amusant encore, avec le logi­ciel LTSpice !

SansAmpGT2Celui-ci permet de simu­ler tout le compor­te­ment élec­tro­nique d’un circuit élec­trique, à partir de son schéma compo­sant par compo­sant, très utile pour les concep­teurs de vrais circuits ou pour les cher­cheurs en modé­li­sa­tion. Et depuis toujours il gère l’im­port et l’ex­port de fichiers WAV. On peut donc s’amu­ser à y repro­duire le schéma de son circuit à lampes ou à tran­sis­tors préféré, et lui envoyer le signal test de NAM pour l’avoir ensuite dans sa STAN, avec un niveau de réalisme très accep­table. On peut même y appor­ter des modi­fi­ca­tions ou fabriquer quelque chose d’ori­gi­nal !

inceptionNous avons donc réalisé pour votre plus grand plai­sir la capture d’une simu­la­tion analo­gique d’am­pli­fi­ca­teur au format pédale, à partir d’un simu­la­teur de circuits élec­tro­nique (LTSpice), à desti­na­tion d’un autre simu­la­teur de circuits (NAM), pour pouvoir en faire une démo audio. Nous avons profité de l’en­vi­ron­ne­ment LTSpice pour reti­rer au ciseau virtuel la partie simu­la­tion d’en­ceintes du SansAmp GT2, tant qu’à faire, pour pouvoir y acco­ler quelque chose de plus passe-partout.

SansAmpGT2 LTSpice NAM
00:0000:27

Neural Amp Mode­ler : les meilleures solu­tions logi­cielles et maté­rielles pour l’uti­li­ser

Pour termi­ner ce dossier, nous allons à présent vous faire quelques recom­man­da­tions de solu­tions numé­riques pour utili­ser les profils au format Neural Amp Mode­ler… On peut par exemple utili­ser le plug-in Neural Amp Mode­ler offi­ciel ! Celui-ci est gratuit, régu­liè­re­ment mis à jour avec son moteur de trai­te­ment, il est fourni avec un noise-gate et une section d’éga­li­sa­tion rudi­men­taire, et il dispose aussi d’un lecteur de réponses impul­sion­nelles par convo­lu­tion pour la simu­la­tion d’en­ceintes.

NeuralAmpModeler

On pour­rait s’ar­rê­ter là, mais le plug-in est fina­le­ment assez rudi­men­taire, et ne dispose pas (à l’heure actuelle dans sa version 0.7.13) de la stéréo. Aussi, natu­rel­le­ment, nous allons regar­der quelles sont les alter­na­tives, gratuites et payantes, qui permettent d’al­ler encore plus loin avec la tech­no­lo­gie.

Soft­ware

Niveau logi­ciel, il existe diffé­rents types de projets, certains qui sont exclu­si­ve­ment des versions alter­na­tives du plug-in d’ori­gine et qui permettent simple­ment d’ou­vrir des profils NAM, tandis que d’autres sont des simu­la­teurs d’am­pli­fi­ca­teurs géné­ra­listes propo­sant la lecture de fichiers NAM de façon option­nelle. De la première caté­go­rie, on peut citer notam­ment NAM Univer­sal de Wave­Mind, qui est gratuit, qui propose diffé­rents ajouts, dont la stéréo, des filtres supplé­men­taires sur le chemin du signal, et la possi­bi­lité de char­ger plusieurs profils NAM pour l’am­pli­fi­ca­teur et pour une pédale.

TonocracySur le deuxième type de plug-in, impos­sible de ne pas parler de Tono­cracy de Atomic Ampli­fiers. Il est gratuit depuis la version 2.0, et dispose de plusieurs moteurs de simu­la­tion (Sche­mAc­cu­rate et ToneS­nap en plus du lecteur de fichiers NAM), qui permettent de propo­ser une gamme sympa­thique (encore plus pour le tarif) d’am­pli­fi­ca­teurs, d’ef­fets et de simu­la­tions d’en­ceintes. Et bien sûr, nous avons encore le Genome de Two Notes, qui est proposé au tarif de 80 euros hors promo­tions (gratui­te­ment si vous avez du hard­ware de la marque). Une parti­cu­la­rité inté­res­sante du plug-in est qu’il dispose d’un lecteur de plusieurs formats de captures ouverts, Neural Amp Mode­ler évidem­ment, mais aussi Proteus et AIDA-X, via son module CODEX (on vous renvoie à notre test).

Genome-CodexPréci­sons enfin que certains plug-ins incor­porent des profils et le moteur NAM en interne, sans possi­bi­lité de char­ger les vôtres donc, et qu’on a pu voir appa­raître des usages inté­res­sants, comme le Tran­sis­tor Legacy de Ghost Note Audio. Ce plug-in gratuit permet de tester le rendu sonore de plusieurs pédales hard­ware de la marque, à travers plusieurs dizaines de captures NAM acces­sibles via un menu dérou­lant avec l’in­ter­face des pédales origi­nales.

repedal-uiLes fichiers NAM asso­ciés peuvent d’ailleurs être utili­sés ailleurs, ce qui est une excel­lente chose. Dans le même genre, le récent rePE­DAL de Sample­son génère des fichiers JSON aléa­toi­re­ment avec le profil d’une pédale de distor­sion, en un clic. Et il existe même une version appli­ca­tion web / online du moteur NAM, et des appli­ca­tions pour smart­phones comme Gigfast Lite de Artera DSP, qui est gratuit.

Hard­ware

Depuis peu, il existe égale­ment du maté­riel qui permet de char­ger les fichiers NAM, comme les lecteurs de réponses impul­sion­nelles dont on avait parlé dans notre précé­dent dossier ! Cela fait d’au­tant sens que les déve­lop­peurs de tech­no­lo­gies concur­rentes se sont lancées eux aussi sur le créneau, que ce soit IK Multi­me­dia avec son ToneX Pedal, Neural DSP avec le Nano Cortex, ou encore le récent GS1000 de Mooer. Ainsi, le NAM Player de Dime Head (595 $) dispose de deux moteurs de lecture de fichiers NAM simul­ta­nés, d’un lecteur de réponses impul­sion­nelles et d’un moteur de convo­lu­tion avancé qui peut gérer les IRs de jusqu’à 60 secondes, et de quelques effets (délai, réver­bé­ra­tion, noise-gate, etc.). On pour­rait parler aussi du Poly Effects Ample (400 $), qui est basé sur NAM, mais qui ne permet pas de choi­sir soi-même les profils que l’on veut utili­ser. L’offre à ce niveau-là est aujour­d’hui assez limi­tée, mais on peut imagi­ner qu’elle va conti­nuer à s’étof­fer, côté construc­teurs français (sérieux) peut-être ? En tout cas, quelque soit la plate­forme le résul­tat sonnera aussi bien et dépen­dra d’abord des captures utili­sées et de votre jeu !

Théâtre des rêves
00:0000:42
  • Théâtre des rêves00:42
  • Under­world Section Outro00:15

Conclu­sion

Neural Amp Mode­ler est à n’en point douter le début de quelque chose dont on risque de repar­ler encore dans quelques années. Il ne doit pas tout à son créa­teur direct, mais aussi à ses insti­ga­teurs et à ses utili­sa­teurs, qui ont fait quelque chose d’in­té­res­sant de la tech­no­lo­gie open source grâce au partage, dans une dyna­mique déto­nante par rapport aux appli­ca­tions corro­sives plus lucra­tives du moment de l’in­tel­li­gence arti­fi­cielle.

NAM a encore quelques limi­ta­tions (impact de l’alia­sing, consom­ma­tion CPU impor­tante, y compris avec les moteurs simpli­fiés, obli­ga­tion de resam­pler le signal d’en­trée vers la fréquence d’échan­tillon­nage de la capture, maté­riel qui ne peut être capturé, etc.), mais il est très probable que l’on voit débarquer prochai­ne­ment de plus en plus de produits soft­ware et hard­ware conçus sur la même idée et qui iront de plus en plus loin sur les possi­bi­li­tés.

Pour autant, comme avec chaque sujet lié à l’IA, cela ne nous empêche pas de rester vigi­lants sur les usages ou un certain nombre de ques­tions éthiques. On pense à d’in­nom­brables débats « analo­gique contre numé­rique » à venir (sachant que l’IA ne permet toujours pas de réta­blir le lien physique entre une simu­la­tion et la guitare ou le système de diffu­sion final du son causés par les conver­tis­seurs analo­giques / numé­riques), sur l’im­pact de la possi­bi­lité de copier à l’iden­tique un son comme cela était le cas pour la convo­lu­tion ou les produits Kemper, et de tous les débats sur les outils qui entendent simpli­fier la vie du compo­si­teur, quitte à rendre moins utile de faire appel à des musi­ciens (avec batte­ries virtuelles par exemple) ou des ingé­nieurs du son (avec les EZmix like ou tous les outils de maste­ring auto­ma­tique par plug-ins et en ligne), qui résonnent beau­coup avec nos consi­dé­ra­tions modernes sur les IAs géné­ra­tives. Tran­cher sur tous ces sujets sort complè­te­ment du cadre de l’ar­ticle évidem­ment.

Mais si l’IA au sens large ne permet pas encore de rendre le Phoe­nix Pro possible, profi­tons quand même de ce que des plug-ins gratuits, powe­red by AI ou non, peuvent faire au service de la créa­tion musi­cale.

Sauvegarder l’article

Vous souhaitez réagir à cet article ?

Se connecter
Devenir membre