Se connecter
Se connecter

ou
Créer un compte

ou

réactions au dossier Dossier sur les processeurs à convolution

  • 30 réponses
  • 20 participants
  • 1 303 vues
  • 26 followers
Sujet de la discussion Dossier sur les processeurs à convolution
5526.png
Aujourd'hui, c'est l'heure de mettre à jour notre fameux dossier sur les applications de l'opération de convolution numérique dans la M.A.O. ! Presque 20 ans après, quels en sont les usages principaux aujourd'hui, et y a-t-il encore des territoires à défricher ?


Lire l'article


Ce thread a été créé automatiquement suite à la publication d'un article. N'hésitez pas à poster vos commentaires ici !

Développeur de Musical Entropy | Nouveau plug-in freeware, The Great Escape | Soundcloud

Afficher le sujet de la discussion
11
Veuillez recevoir, Wolfen, mes convolutions les plus respectueuses pour cet excellent article. :mrg:

"Je voudrais connaître la musique dont la queue de mon chien bat la mesure"

Mes oreilles préfèrent une bonne musique mal enregistrée qu'une mauvaise musique bien enregistrée.

12
Merci à tout le monde pour vos commentaires ! :boire:

Citation de perigo :
Veuillez recevoir, Wolfen, mes convolutions les plus respectueuses pour cet excellent article. :mrg:

:ptdr::ptdr::ptdr:

Citation de ElVicente :
Merci pour ce super article !
Moi je me pose une question sur les plug qui parlent de 'True Stereo' impulse response.
Est un usage récent ?
Est-ce vraiment un avantage par rapport à la convo stéréo habituelle ?

Alors il me semble que ça existe depuis aussi longtemps que les processeurs à convolution en plug-in, dans les premières versions de SIR ou de Altiverb je crois me souvenir avoir déjà vu ça.

L'avantage il est dans un contexte très spécifique, qui est la simulation d'algorithmes numériques de réverbération, genre sur les racks Lexicon, la fameuse Bricasti, et parfois sur des trucs qui ont un comportement stéréo un peu particulier comme les réverbs à plaques. En gros, ça concerne tout ce qui fonctionne avec des canaux de traitement mono vers stéréo. Le canal gauche d'entrée va ainsi générer du signal à gauche et à droite en sortie, de même que le canal droit en entrée mais pas de la même manière. Et donc, on a besoin pour modéliser ça correctement de mesurer 4 sinus sweeps, 2 pour la réponse d'un sweep de gauche vers gauche+droite, et 2 pour la réponse d'un sweep de droite vers gauche+droite. On colle ainsi plus près à l'original. Mais à priori ça n'a strictement aucun intérêt pour des trucs mono, ou pour des algos qui sont double mono pour faire de la stéréo (la gauche renvoie que du signal à gauche etc.)

Développeur de Musical Entropy | Nouveau plug-in freeware, The Great Escape | Soundcloud

13
Je crois que j'ai compris ! Merci :)

[ Dernière édition du message le 21/02/2024 à 10:25:01 ]

14
Merci pour cet article détaillé et hyper intéressant! Je rebondis un peu sur ce que tu énonces dans ta conclusion: les problèmes d'impossibilité de capture de non linéarité devraient être résolvable assez facilement avec l'avancée des modèles génératifs en deep-learning. Je pense notamment aux auto-encoders capables de modéliser précisément des phénomènes non linéaires, et l'évolution des puces devrait nous permettre d'intégrer ces outils plus facilement sur des ordis de bureau.
Alors se pose toujours le problème des bases de données d'entraînement mais les choses ont évolué sacrément vite ces 5 dernières années dans ce domaine. Malheureusement, pour travailler dans la vision par ordinateur, j'ai l'impression que l'audio n'intéresse pas grand monde (comparé à l'image et aux modèles de langage par exemple), à voir si les constructeurs s'y penchent dessus sérieusement.
15
Citation de bass-man13 :
Merci pour cet article détaillé et hyper intéressant! Je rebondis un peu sur ce que tu énonces dans ta conclusion: les problèmes d'impossibilité de capture de non linéarité devraient être résolvable assez facilement avec l'avancée des modèles génératifs en deep-learning. Je pense notamment aux auto-encoders capables de modéliser précisément des phénomènes non linéaires, et l'évolution des puces devrait nous permettre d'intégrer ces outils plus facilement sur des ordis de bureau.
Alors se pose toujours le problème des bases de données d'entraînement mais les choses ont évolué sacrément vite ces 5 dernières années dans ce domaine. Malheureusement, pour travailler dans la vision par ordinateur, j'ai l'impression que l'audio n'intéresse pas grand monde (comparé à l'image et aux modèles de langage par exemple), à voir si les constructeurs s'y penchent dessus sérieusement.

Merci beaucoup !

Oui en fait j'ai donné cette info en mode twist, mais j'ai suivi aussi de très près la sortie du IK ToneX, du plug-in Neural Amp Modeler, et de tous les autres joujoux qui embarquent la techno (comme le Genome chez Two Notes). Grâce au Machine Learning on peut capturer des amplis et des pédales de disto aujourd'hui, donc ça y est ça marche et c'est accessible en plus ! J'en reparlerai prochainement :bave:

Développeur de Musical Entropy | Nouveau plug-in freeware, The Great Escape | Soundcloud

16
dossier très intéressant !
J'ai vu que certains développeurs proposaient des "IR" pour les instruments acoustiques (violon/guitare...) équipés de piezo.
De ce que j'en comprends, cela semble être une comparaison du signal envoyé par le piezo avec celui reçu par un micro placé devant l'instrument (genre statique large membrane).
Le but étant d'envoyer ça dans un IRloader dans lequel sera branché le système piezo, pour un rendu plus ""fidèle"" de l'instrument acoustique sur une sono par exemple.
A la lecture de ce dossier, je n'ai pas l'impression que cela repose sur les mêmes outils de traitement du signal... une idée ?
Cette méthode semble dépendre grandement du jeu de l'instrumentiste j'imagine ?
Vous connaissez des plugins qui saurait faire ça directement à la maison? :)
(soit prendre 2 sources, et générer une "IR" de traitement le signal du piezo afin de le rapprocher de celui capter par le mirco statique)
17
Citation de psycrow :
dossier très intéressant !

Merci !

Citation de psycrow :
J'ai vu que certains développeurs proposaient des "IR" pour les instruments acoustiques (violon/guitare...) équipés de piezo.
De ce que j'en comprends, cela semble être une comparaison du signal envoyé par le piezo avec celui reçu par un micro placé devant l'instrument (genre statique large membrane).
Le but étant d'envoyer ça dans un IRloader dans lequel sera branché le système piezo, pour un rendu plus ""fidèle"" de l'instrument acoustique sur une sono par exemple.
A la lecture de ce dossier, je n'ai pas l'impression que cela repose sur les mêmes outils de traitement du signal... une idée ?
Cette méthode semble dépendre grandement du jeu de l'instrumentiste j'imagine ?
Vous connaissez des plugins qui saurait faire ça directement à la maison? :)
(soit prendre 2 sources, et générer une "IR" de traitement le signal du piezo afin de le rapprocher de celui capter par le mirco statique)

Alors je ne suis pas très à jour sur tout ce qui se fait là dessus, mais en gros la stratégie pour essayer de faire ça efficacement avec plus ou moins de succès c'est d'essayer d'une part "d'effacer" on va dire la signature sonore du piezo, en le modélisant correctement, puis d'appliquer par dessus les caractéristiques de la guitare acoustique pour faire sonner le piezo comme une guitare captée de manière standard par un micro. Pour que ça soit vraiment efficace, il ne faut surtout pas se contenter de la deuxième partie comme on peut l'imaginer en me lisant, ce qui rend les choses potentiellement très difficiles si on a pas un traitement d'effacement ou "d'inversion" qui est dédié au matos qu'on utilise et suffisamment précis, sans parler du fait qu'un piezo réagit très différemment de ce qui sort d'une prise de son classique et qu'il y a un tas de phénomènes dynamiques qui entrent en jeu là dedans...

Du coup la seconde partie peut se faire avec les mêmes outils que ce dont j'ai parlé dans mon article, mais sur l'inversion ça me semblerait assez insuffisant.

Développeur de Musical Entropy | Nouveau plug-in freeware, The Great Escape | Soundcloud

[ Dernière édition du message le 21/02/2024 à 12:28:09 ]

18
Enfin des réponses à de nombreuse questions.
Merci pour cet éclairage et démystification, surtout pour les plugins qui "sonneraient mieux" ;-)
19

Citation de Wolfen :

Alors je ne suis pas très à jour sur tout ce qui se fait là dessus, mais en gros la stratégie pour essayer de faire ça efficacement avec plus ou moins de succès c'est d'essayer d'une part "d'effacer" on va dire la signature sonore du piezo, en le modélisant correctement, puis d'appliquer par dessus les caractéristiques de la guitare acoustique pour faire sonner le piezo comme une guitare captée de manière standard par un micro. Pour que ça soit vraiment efficace, il ne faut surtout pas se contenter de la deuxième partie comme on peut l'imaginer en me lisant, ce qui rend les choses potentiellement très difficiles si on a pas un traitement d'effacement ou "d'inversion" qui est dédié au matos qu'on utilise et suffisamment précis, sans parler du fait qu'un piezo réagit très différemment de ce qui sort d'une prise de son classique et qu'il y a un tas de phénomènes dynamiques qui entrent en jeu là dedans...

Du coup la seconde partie peut se faire avec les mêmes outils que ce dont j'ai parlé dans mon article, mais sur l'inversion ça me semblerait assez insuffisant.


merci pour ta réponse.
alors je ne suis pas concepteur, mais de manière très simpliste, est-ce qu'une approche du type :
je soustrais les deux signaux (piezo-micro), j'obtiens un signal.
je fais ça plusieurs fois, j'obtiens plusieurs signaux-résultats
je "moyenne" les résultats, j'obtiens un signal moyenné (pour peu que ça ait du sens^^')
j'inverse la phase de ce signal moyenné, et je l'applique au signal d'origine (piezo)
...
ça a du sens en traitement de signaux analo ça ? :)
20
Citation de Wolfen :

Citation de ElVicente :
Merci pour ce super article !
Moi je me pose une question sur les plug qui parlent de 'True Stereo' impulse response.
Est un usage récent ?
Est-ce vraiment un avantage par rapport à la convo stéréo habituelle ?

Alors il me semble que ça existe depuis aussi longtemps que les processeurs à convolution en plug-in, dans les premières versions de SIR ou de Altiverb je crois me souvenir avoir déjà vu ça.

L'avantage il est dans un contexte très spécifique, qui est la simulation d'algorithmes numériques de réverbération, genre sur les racks Lexicon, la fameuse Bricasti, et parfois sur des trucs qui ont un comportement stéréo un peu particulier comme les réverbs à plaques. En gros, ça concerne tout ce qui fonctionne avec des canaux de traitement mono vers stéréo. Le canal gauche d'entrée va ainsi générer du signal à gauche et à droite en sortie, de même que le canal droit en entrée mais pas de la même manière. Et donc, on a besoin pour modéliser ça correctement de mesurer 4 sinus sweeps, 2 pour la réponse d'un sweep de gauche vers gauche+droite, et 2 pour la réponse d'un sweep de droite vers gauche+droite. On colle ainsi plus près à l'original. Mais à priori ça n'a strictement aucun intérêt pour des trucs mono, ou pour des algos qui sont double mono pour faire de la stéréo (la gauche renvoie que du signal à gauche etc.)


Si je peux me permettre, le true stereo c'est aussi très utile pour modéliser des espaces naturels (indépendamment de la technique utilisée, IR ou modélisation)
Si tu te places au centre d'une pièce, et que tu écoutes un son qui vient de la droite, ton oreille gauche va aussi entendre du son, grâce à la dispersion sonore dans l'espace.

Donc dans ton mix, si tu as un instru panné à droite et que tu l'envoies dans une reverb stéréo:
- une reverb double mono va sortir du son à droite uniquement
- une reverb mono in / stereo out sortira du son des 2 côtés, mais ne prend pas en compte la position de pan d'origine puisque l'entrée est mono
- une reverb true stereo va sortir du son à droite, mais aussi à gauche, et les 2 signaux ne seront pas identiques (c'est pas un simple panoramique de la reverb quoi, enfin ça peut j'imagine, mais dans ce cas c'est pas une reverb true stereo), et ces signaux sont influencés par la panoramique du signal entrant.
Après est-ce que ça te sera utile musicalement, ça c'est une autre histoire et à toi de juger, beaucoup de très bon mixes ont été faits avec des reverbs mono in / stereo out.

Une application concrète qui en est faite (avec des IRs je suppose): la simulation d'espace pour mixer au casque, comme le plugin Realphones par exemple.

Sinon belle MAJ wolfen :bravo:

audiothingies.com - FacebookYoutube
Pas de support par MP, email uniquement, si vous avez ouvert un sujet sur AF, envoyez un lien, ma réponse profitera à tout le monde