Se connecter
Se connecter

ou
Créer un compte

ou
FR
EN

réactions à la news Commentaires sur la news : Sonnez comme vos morceaux préférés avec la OnePedal de Groundhog Audio

  • 15 réponses
  • 8 participants
  • 514 vues
  • 10 followers
Sujet de la discussion Commentaires sur la news : Sonnez comme vos morceaux préférés avec la OnePedal de Groundhog Audio
298.jpg
La OnePedal de Groundhog Audio est une pédale qui fonctionne avec une intelligence artificielle permettant de reproduire n'importe quel son de guitare


Lire la news


Ce sujet a été créé automatiquement suite à la publication d’une news. N’hésitez pas à poster vos commentaires ici !

Hushman

Suivez moi sur Instagram : @hushman_audiofanzine

2
Avec un soupçon d'esprit critique et de connaissance de la chaîne du son pour une guitare on ne peut qu'être sceptique face à ces innovations technologiques qui promettent monts et merveilles.
Comment peut-on espérer tirer d'une seule pédale un son précis quand autant d'éléments entrent en considération dans la définition d'un son précis : les micros, l'ampli, la compression / dynamique etc etc. À moins que l'IA intégrée à la pédale n'analyse les signaux d'entrée et de sortie au début et à la fin de la chaîne d'effets et d'amplification, pour le "moduler" en fonction du son voulu, je ne comprends pas comment cela peut fonctionner.

Le Spark de Positive Grid que je possède promettait déjà cela avec l'une de ses fonctionnalités. Je possède cet ampli pour pratiquer à la maison, extrêmement pratique et satisfaisant par ailleurs. Mais lorsqu'on recherche un son, par exemple "Gilmour ambient", on obtient simplement un stack d'effets (reverb, delay, drive etc.) qui donne le "ton" général mais n'est en aucun cas une reproduction du son de Gilmour. Qui plus est, selon la guitare, donc les micros utilisés, le rendement change radicalement. Le Spark ne propose rien qui ne puisse être approché facilement avec un Pedalboard basique, voire rudimentaire dans la plupart des scénarios - si tant est que l'on est un peu créatif et qu'on se sert de son imagination.
3
je te rejoins dans la réflexion, Lnfrto.

J'ai pensé à peu près la même chose ce matin en découvrant la news mais je n'avais pas le temps de commenter.

Ce produit revient à faire abstraction totalement de l'ampli placé plus tard dans la chaine. Si encore, il prétendait corriger / prendre en compte cette étape dans la chaine sonore d'un guitariste. Mais non même pas. Ça simplifie le problème. :facepalm:

Et puis très accessoirement dans "notre morceau préféré", au delà des effets et de l'ampli, le son provient en grande partie du jeu du guitariste. C'est sûrement pris en compte par l'intelligence artificielle....

Bref, c'est du gros n'importe quoi à destination de gratteux débutants ou très naïfs. Ceci dit, Groundhog Audio table peut-être sur les deux. :mrg:



4
Je vais peut-être dire une bêtise mais, avec le NAM profiler, on peut "capturer" une chaine complète (il me semble).
Admettons que l'on isole une piste de guitare, avec moises ou autre, et qu'on envoie ça dans le NAM, cela pourrait fonctionner, non?
Sinon, si j'ai bien compris le modèle économique, c'est de vendre le hardware (fermé ?) pour ensuite vendre des "patchs" sur commande, à la manière d'une BeatBuddy.

[ Dernière édition du message le 10/07/2025 à 20:01:56 ]

5
Vos réserves techniques sont compréhensibles, mais je pense que l'IA est, sinon sera bientôt en passe de s'en affranchir.

Pour moi, le problème n'est pas là, mais dans la philosophie elle-même de la démarche. Déjà, j'ai toujours trouvé que "sonner comme", "avoir le son de" était une mauvaise démarche parce qu'il faut au contraire développer son son personnel.

Mais "avoir le son de" fait partie du chemin du guitariste débutant qui, souvent, s'est mis à la guitare par admiration d'un artiste. Qu'il veuille commencer par l'imiter, pourquoi pas ?
La démarche pour y arriver comporte énormément d'apprentissages : c'est quoi telle ou telle pédale ? Comment les pédales interagissent entre elles et avec le son de la guitare, etc. Et puis bien sûr le travail sur le jeu.
Les dilettantes en resteront là : ils ont à peu près le son de leur idole et ça suffit à leur bonheur. Les artistes continueront leur recherche pour développer leur propre son, mais en chemin, ils auront appris énormément pour y parvenir.

Avec cette pédale, si elle tient ses promesses, il n'y aura aucun effort, aucun apprentissage pour sonner comme Gilmour, John Lee Hooker ou The Edge.
Une fois arrivé là, que va t-il se passer ? Les gens n'auront rien appris et devront se contenter d'imiter.

C'est pas bien grave encore une fois pour les dilettantes qui veulent juste s'amuser le week-end et se faire plaisir en rêvant quelques heures par semaine, mais ceux qui auront suivi ce chemin perdent quand même de grandes chances de pouvoir dépasser ce stade.

En revanche, ça peut être une bénédiction pour les musiciens de bal et de cover-bands qui peuvent ainsi sans trop se faire ch... disposer du son des morceaux qu'ils doivent jouer. Ceci dit, ceux-ci qui ont un niveau sans commune mesure avec les musiciens du dimanche savent généralement comment faire le son qu'ils désirent, justement parce qu'ils ont appris, dans leur long chemin d'apprentissage, à maîtriser chaque paramètre d'un son de guitare.

Comme d'habitude avec l'IA, on aura donc un truc permettant à ceux qui ne savent pas faire de faire quelques chose d'à peu près potable, mais qui sera sans grand intérêt pour les spécialistes qui maîtrisent parce qu'ils peuvent faire mieux.
6
Citation de Will Zégal :
Vos réserves techniques sont compréhensibles, mais je pense que l'IA est, sinon sera bientôt en passe de s'en affranchir.

Pour moi, le problème n'est pas là, mais dans la philosophie elle-même de la démarche. Déjà, j'ai toujours trouvé que "sonner comme", "avoir le son de" était une mauvaise démarche parce qu'il faut au contraire développer son son personnel.

Mais "avoir le son de" fait partie du chemin du guitariste débutant qui, souvent, s'est mis à la guitare par admiration d'un artiste. Qu'il veuille commencer par l'imiter, pourquoi pas ?
La démarche pour y arriver comporte énormément d'apprentissages : c'est quoi telle ou telle pédale ? Comment les pédales interagissent entre elles et avec le son de la guitare, etc. Et puis bien sûr le travail sur le jeu.
Les dilettantes en resteront là : ils ont à peu près le son de leur idole et ça suffit à leur bonheur. Les artistes continueront leur recherche pour développer leur propre son, mais en chemin, ils auront appris énormément pour y parvenir.

Avec cette pédale, si elle tient ses promesses, il n'y aura aucun effort, aucun apprentissage pour sonner comme Gilmour, John Lee Hooker ou The Edge.
Une fois arrivé là, que va t-il se passer ? Les gens n'auront rien appris et devront se contenter d'imiter.

C'est pas bien grave encore une fois pour les dilettantes qui veulent juste s'amuser le week-end et se faire plaisir en rêvant quelques heures par semaine, mais ceux qui auront suivi ce chemin perdent quand même de grandes chances de pouvoir dépasser ce stade.

En revanche, ça peut être une bénédiction pour les musiciens de bal et de cover-bands qui peuvent ainsi sans trop se faire ch... disposer du son des morceaux qu'ils doivent jouer. Ceci dit, ceux-ci qui ont un niveau sans commune mesure avec les musiciens du dimanche savent généralement comment faire le son qu'ils désirent, justement parce qu'ils ont appris, dans leur long chemin d'apprentissage, à maîtriser chaque paramètre d'un son de guitare.

Comme d'habitude avec l'IA, on aura donc un truc permettant à ceux qui ne savent pas faire de faire quelques chose d'à peu près potable, mais qui sera sans grand intérêt pour les spécialistes qui maîtrisent parce qu'ils peuvent faire mieux.


Je rejoins Will Zégal.

Chacun ses envies et ses besoins, tout est n'est pas noir ou blanc donc comme d'habitude, on pourra en discuter des heures : personne a raison car tout le monde a raison. Chacun a son interprétation.

En revanche, bien que l'IA soit de plus en plus d'actualité, la question à se poser, c'est surtout : "comment va t on l'utiliser pour grandir bénéfiquement ?"

Repousser la mort, écrire un texte (mon ex compagne est chanteuse) en lui dictant 3 mots et il te sort (en plus de ça, magnifiquement bien) un texte digne des grands. Ici, sur ce forum, comme on l'a dit, je ne me fais pas de soucis pour la capacité de reproduction du son. L'IA est un réseau neuronal illimité.

Si tu savais ce que l'IA fait. C'est n'est pas ta chaîne de son, même complexe, qui va l'effrayer 😂.

Non, cest quel est l'intérêt :
La séduction, la facilité, rendant la majorité des gens dependants, en perte de sens critiques = asservissement.

Chacun fera son observations à ce sujet.😉
7
@ Tom.G05 :
Citation :
Si tu savais ce que l'IA fait. C'est n'est pas ta chaîne de son, même complexe, qui va l'effrayer 😂.

On n'a peut-être pas ton expérience mais apparemment, tu as raté quelque chose d'important dans cet échange.

La finalité affichée par ce produit étant de restituer un son "à la manière de", tu peux raconter ce que tu veux à la gloire de l'IA, une pédale placée en amont d'un ampli aussi intelligente soit-elle, aura bien du mal à le prendre en compte et à pouvoir corriger un signal audio en conséquence puisqu' il lui est inconnu.

L'ampli étant un élément majeur en matière de coloration, si tu ne comprends pas ce principe de base, il y a quelque chose de majeur qui t'échappe.

8
Citation :
une pédale placée en amont d'un ampli aussi intelligente soit-elle, aura bien du mal à le prendre en compte et à pouvoir corriger un signal audio en conséquence puisqu' il lui est inconnu.

Oui enfin j'imagine que la boiboite fait aussi simulation d'ampli / cab, et que le but n'est pas de sortir sur un ampli mais sur une baffle frfr, ou PA, comme la plupart des multieffets actuels
9
Ce serait cohérent, en effet. Néanmoins, dans ce cas, ça ne viserait pas le public débutant et / ou inexpérimenté, d'un point de vue commercial.
D'ailleurs, à 400 $ la boite magique, on peut se demander qui ils visent vraiment. Erreur de positionnement ?

Concernant les specs techniques, c'est simple, il n'y a absolument aucune info disponible sur leur page kickstarter. :??:
Il y a juste deux copies virtuelles d'écran d'IPhone de l'app permettant les régalges, la seconde illustrant un chainage de pédales mais elle partiellement masquée. On ne voit pas la fin de la chaine.
10
Ce que je vois là c'est une annonce à gogos avec tous les termes de la hype du gratteux avides de vidéos YT. "IA", "profiling"/"sons uniques", "simplicité"...

Le produit semble se concentrer sur des morceaux enregistrés, donc ça veut dire que l'IA va servir à reconnaître le titre (façon Shazam) puis faire la correspondance dans une banque de données avec un profil de type de chaine de sons genre NAM et le faire jouer à ce modeleur... Moi j'appelle ça un bête programme informatique tournant sur un Raspberry Pi dernière génération, pas une IA. Mais je reconnais que je n'ai pas la hype avec moi et que je ne dois pas plaire à des financiers et/ou des gogos pour faire le lancement du produit.
Enfin si le produit sort un jour et s'il répond vraiment aux attendus dès la V1.

Rock, rock 'til you drop!

11
C'est tout de même relativement gonflé de sortir ça de façon affirmative sans le moindre conditionnel.
12
Citation de Tom.G05 :

Si tu savais ce que l'IA fait. C'est n'est pas ta chaîne de son, même complexe, qui va l'effrayer 😂.


Bon... @TC Hotrod a déjà très clairement expliqué en quoi ton raisonnement ne tient pas la route, mais je vais simplement ajouter qu'il faudrait en finir une bonne fois pour toutes avec le mythe de l'IA indépendante et autosuffisante. Tout comme l'intelligence humaine, une IA, pour progresser, il faut qu'on la nourisse. Et tout comme l'intelligence humaine, cela prend du temps et demande des ressources. Énormément de temps, énormément de ressources.

Juste un exemple. Je suis historien spécialisé dans la période d'Ancien Régime, et une importante partie de mon travail consiste à fouiller les archives et à lire des manuscrits des 15 - 18è siècles, ce qui, parfois, est une tannée. L'IA pourrait venir à mon secours. Sauf que pour être capable de lire et déchiffrer correctement un manuscrit francais du 16è siècle, par exemple, il faut que l'IA ait déjà eu accès a des centaines, voire des milliers de documents de ce genre, que des personnes devraient corriger patiemment, à la main, pour entraîner l'IA.

Bref, mon point est que : pour qu'une IA puisse reproduire le son de Gilmour, par exemple, il faudrait nourir le modèle d'une quantité exubérante de données sur ce guitariste spécifique : amplis, micros, guitares, pédales etc. etc. etc. Cela prendrait des années et, à ma connaissance, aucune compagnie au monde ne fait cela. Et probablement ne le fera jamais parce que cela n'a aucun intérêt dans le monde de la guitare ou de la musique plus généralement - probablement aussi pour des questions légales de droit d'auteur.

L'IA n'est pas un miracle, c'est un outil comme un autre, malgré les argumentaires employés par de plus en plus de compagnies pour nous vendre leurs merveilles.

[ Dernière édition du message le 15/07/2025 à 15:10:21 ]

13
Citation :
Bref, mon point est que : pour qu'une IA puisse reproduire le son de Gilmour, par exemple, il faudrait nourir le modèle d'une quantité exubérante de données sur ce guitariste spécifique : amplis, micros, guitares, pédales etc. etc. etc.

Ceci montre (à mon avis et de ce que j'ai compris du fonctionnement des IA) que tu n'as pas saisi la façon dont celles qu'on utilise sur la musique et le son travaillent.
L'IA n'a pas besoin de connaitre la combinaison de matos utilisée pour obtenir tel son. Elle a "juste" besoin d'écouter suffisamment de morceaux avec la guitare jouée par Gilmour pour savoir comment elle sonne. Puis elle va être entraînée avec n'importe quel son de guitare en entrée pour le transformer de façon à ce qu'il sonne comme Gilmour en sortie.
Il n'y aura pas besoin de l'entraîner ainsi pour chaque son : une fois qu'elle aura ete suffisamment entraînée, elle à peu près capable de faire la même chose pour n'importe quel son qu'on lui demandera de reproduire, avec n'importe quel son en entrée.

La question, c'est que je doute (mais je ne l'affirme pas) qu'un système embarqué dans une pédale soit capable de le faire seul. Je pense plutôt que les trucs seront envoyés vers des serveurs qui feront l'exercice pour renvoyer à la pédale les instructions pour reproduire le son.
Ce qui peut à la fois poser la question de l'ergonomie (nécessité d'une connexion) et de la pérennité du service.

La pédale n'est pas un multieffets qui va construire toute seule un chaîne de pédales et traitements divers pour reproduire le son. Elle va directement modifier le son dans sa globalité pour arriver au résultat voulu.
14
Si l'on reprend les infos de départ de la news, la liste des sons imités semble limitée à une librairie disponible :
Citation :
Selon le fabri­cant, la OnePe­dal se synchro­nise à une librai­rie musi­cale présente sur un appa­reil connecté (un smart­phone, par exemple). Quand on choi­sit un morceau en parti­cu­lier, la pédale s’adapte pour four­nir au guita­riste qui l’uti­lise un son très proche de celui du morceau sélec­tionné.


D'autre part, comme évoqué déjà, une saisie d'écran fait apparaitre un chainage de pédales. cependant, pour rejoindre la remarque de Will Zegal, c'est certainement un rendu visuel sur lequel on ne pourra pas interagir, le son étant globalement traité et livré figé.

[ Dernière édition du message le 16/07/2025 à 09:06:41 ]

15
Soit c'est un algorithme comme le NAM, qui, peut importe le chainage d'effets ou ampli, capture une empreinte sonore dans son ensemble, soit, plus "bêtement", un simple multi effets avec des patchs pré définis, façon Tonebridge (Android, iOS), non modifiables, a charger dans leur banque de donnés.
Le terme IA, comme dans le reste de la techno (PC, smartphone, robot cuisine, etc...), est plus un argument commercial fourre tout, qu'il ne faut pas, amha, y accorder beaucoup de crédit...
16
Citation de Will Zégal :

Ceci montre (à mon avis et de ce que j'ai compris du fonctionnement des IA) que tu n'as pas saisi la façon dont celles qu'on utilise sur la musique et le son travaillent.
L'IA n'a pas besoin de connaitre la combinaison de matos utilisée pour obtenir tel son. Elle a "juste" besoin d'écouter suffisamment de morceaux avec la guitare jouée par Gilmour pour savoir comment elle sonne. Puis elle va être entraînée avec n'importe quel son de guitare en entrée pour le transformer de façon à ce qu'il sonne comme Gilmour en sortie.


Non, j'ai très bien compris comment fonctionne l'"IA" dans la manière dont on l'applique aujourd'hui au domaine de la guitare et c'est précisément ce que je critique, cf. mon premier commentaire.
Comme tu le précise, aujourd'hui, les compagnies de pédales et consorts se contentent de nourrir leurs IA de morceaux enregistrés, mixés etc. Autrement dit : elles n'entrainent leurs modèles qu'à partir de spectres sonores, ou fréquences, noyés dans des miriades d'effets et post-traitements en studio auxquels l'IA n'a pas accès et qu'elle ne peut donc prendre en considération - ces données lui étant, de fait, inconnues. D'où ma critique sur l'argumentaire qui prétend qu'on peut obtenir le son de tel ou tel guitariste par une telle analyse superficielle, et la raison pour laquelle ces produits ne font jamais rien de plus que de stacker des effets pour "sonner comme", ce qui, une fois encore, peut être accompli dans 99% des scénarios avec un pedalboard rudimentaire de 4 ou 5 pédales, un peu d'imagination et sans doute un peu plus de patience. Ton commentaire ne fait que confirmer ma critique vis-à-vis de l'IA appliquée à la reproduction sonore.

[ Dernière édition du message le 17/07/2025 à 13:34:50 ]