Se connecter
Se connecter

ou
Créer un compte

ou

Sujet Différence de son entre les DAW : un mythe ?

  • 296 réponses
  • 34 participants
  • 38 034 vues
  • 48 followers
Sujet de la discussion Différence de son entre les DAW : un mythe ?
J'ouvre un nouveau thread pour une discussion qui a commencé dans le sujet Comment sont créés les kicks des productions actuelles ?.
Suite à la remarque d'un membre qui disait qu'on peut avoir le gros son avec seulement des plugs, nous parlions de l'intervention de la qualité des convertos, des plugs et des DAW utilisés.
Nous étions en train de dire qu les DAW et les plugs n'interviennent pas dans ce qui sort du monitoring et que la différence de son entre les bounces et les L-R des softs est un mythe. Voici ma réponse aux derniers posts :


Citation : ben sans être méchant, si ils t'on répondus ca, c'est qu'ils n'y connaissent pas grand chose, d'une parsque les calculs sont faits en 32 bit flottant dans TOUS LES CAS (sauf certains plugs particuliers), et de deux parsqu'il n'y a pas de notion de qualité de calcul à partir du moment ou on applique le même algorythme, on est en numérique, c'est du 1 et du 0, soit ca marche et ca fait tout le temps pareil partout, soit ca marche pas.



Ca me parait logique, mais tous les mecs qui m'ont dit entendre des différences entre les DAW sont des ingés, et pas des mecs qui ont appris sur le tas... comme quoi, ce ne sont pas des clichés de débutants.

Citation : ben oubli ton test alors, il ne vaut rien.



Citation : Tu as répondu toi même au mystère



Je suis d'accord que pour que la mesure soit bonne, on reproduit EXACTEMENT la même situation dans les deux cas; mais ce que je ne comprends pas, c'est qu'on n'obitenne pas le même résultat, quelque soit l'audio sur lequel l'effet est appliqué !
Ca voudrait dire qu'avec un simple coupe haut, on n'a pas le même son sur une guitare que sur une voix par exemple ?

Après ça vient peut être du fait que la source stéréo était un mix entier et que les sources mono étaient des prises de son brutes et individuelles...
Afficher le sujet de la discussion
91

Citation : Ok, donc les différences de son en termes de sommation sont subjectives en fait ?


ben oui, vu que ya pas de son dans u soft et que comme le dit dr pouet, contrairement à l'analogique, une sommation numérique est un truc on ne peu plus bête, c'est une addition pure et simple, donc à partir du moment ou ce sont les mêmes nombres (mots binaires ici) qu'on additionne, ya pas la moindre raison que le résultat de l'opération soit différent, et si il l'était à cause d'un arrondi tout au bout du résultat, vu ou se trouverai cet arrondi (quelque part au bout des 80 bit qu'utilise le cpu), nos 24 bit ne sont pas prêt d'en être affectés.
Et puis allez, poussons le truc, même si ils l'étaient, à partir de quand on l'entendrait vraiment, parce que même une différence sur le dernier bit, on n'est pas prêt de l'entendre.
Tout ceci sous réserve que les tests d'écoute soient fait de façon rigoureuse, parce qu'une autre raison pas évoquée, c'est que les mecs font lectures sans se soucier de certains points (loi des pans, fondus auto, dithering, niveau etc...) qui eux peuvent engendrer des différences à l'écoutes, mais ces différences ne sont pas duent à une empreinte sonore du logiciel, juste à des paramètres mal réglés ou des traitements dans le cheminement du signal, chose sur lesquels l'utilisateur à la main.
92

Citation : Je crois aussi que c'est ironique.

Je ne vois vraiment pas ce qui te permet d'affirmer un truc pareil, si j'étais du genre à ironiser, ça se saurait ;)

A par ça, la citation que tu fais (Dr Pouet) et que j'ai déjà lue quelque part résume très bien la situation. Si on ajoute à cela que les opérations en base 2 ont été découvertes dans la Chine antique, et que la sommation numérique n'est qu'une somme d'éléments dont les valeurs sont pondérées, du genre [(sample voies 1) x (gain voie 1)] + [(sample voies 2) x (gain voie 2)] +[(sample voies 3) x (gain voie 3)] + etc, on est en droit de penser que les améliorations possibles sont connues depuis une sacrée jolie lurette.

JM
93    fusion

Bonjour scare,

Je pense que je ne t'apprendrai rien ici. Doubler la fréquence permet de gagner en bande passante et donc en qualité par l'augmentation du nombre d'informations transmises. Quand on a 2 valeurs @44.1 KHz pour décrire un signal de 20 KHz, @88.2 KHz, c'est de 4 valeurs dont on dispose pour décrire ce même signal. C'est aussi vrai à 20 Hz. Mais plus la fréquence du signal se rapproche de la limite théorique de Fs/2 (moitié de la fréquence d'échantillonnage), plus l'approximation que constitue l'échantillonnage se fait sentir. Ainsi @44Hz il n'y aura quasi pas de différence entre une sinusoïdale de 20KHz et un signal carré de 20 KHz. Cette différence sera plus marquée @88.2KHz. Alors que cette même différence est toujours flagrante entre sinus et carré à 20 Hz quelle que soit la fréquence d'échantillonnage.

De plus le sur-échantillonnage permet d'éviter nombre de problèmes de repliement (aliasing) lors du traitement numérique du signal. Cette amélioration apportée tout au long de la chaine de traitement reste audible même une fois le signal reconverti en 44.1 KHz.

 

 


[ Dernière édition du message le 15/12/2010 à 11:23:17 ]

[ Ce message faisait initialement partie de la discussion "Mastering internet à 10$ : Y'en a qui osent tout!" qui a été fusionnée dans ce sujet le 07/07/11 ]

94    fusion

Le débat sur la fréquence d'échantillonnage est encore loin d'être terminé.

Hors sujet :

Pour moi, le sur-échantillonnage ne change rien au repliement puisque n'importe quel convertisseur possède un filtre anti-repliement. On ne gagne pas non plus de précision dans les aigus, ou en tout cas c'est vraiment très subtil, et le rapport signal/bruit est amélioré de 3dB lorsqu'on double la fréquence d'échantillonnage, donc c'est très négligeable.

 

Par contre, avec une facturation qui se fait à la quantité de données uploadées, c'est sûr qu'on comprend l'intérêt du sur-échantillonnage.

https://linktr.ee/studiopelican

https://linktr.ee/grisanttheme

[ Ce message faisait initialement partie de la discussion "Mastering internet à 10$ : Y'en a qui osent tout!" qui a été fusionnée dans ce sujet le 07/07/11 ]

95    fusion

Citation :

le rapport signal/bruit est amélioré de 3dB lorsqu'on double la fréquence

 headscratch.gif vu qu'on augmente le jitter et qu'on perd en résolution en augmentant la Fe, je vois pas comment on peut gagner en SNR, et pourquoi 3 dB, tu confonds pas avec un doublement de niveau là?

Citation :

Quand on a 2 valeurs @44.1 KHz pour décrire un signal de 20 KHz, @88.2 KHz, c'est de 4 valeurs dont on dispose pour décrire ce même signal. C'est aussi vrai à 20 Hz.

 ouai, je vais laisser scare t'expliquer, mais les 2 valeurs supplémentaires, elles servent à rien de plus, ni à 20Hz, ni à 20 kHz, à Fe/2 par contre, ca change un peu, mais on est donc à 22.5kHz à pour 44.1, soit un peu au dessus de la BP humainement perceptible en théorie, et à voir aussi la BP des convertos et des enceintes.....

[ Ce message faisait initialement partie de la discussion "Mastering internet à 10$ : Y'en a qui osent tout!" qui a été fusionnée dans ce sujet le 07/07/11 ]

96    fusion

Citation de docks :

headscratch.gif vu qu'on augmente le jitter et qu'on perd en résolution en augmentant la Fe, je vois pas comment on peut gagner en SNR, et pourquoi 3 dB, tu confonds pas avec un doublement de niveau là?

 

Je suis persuadé qu'en doublant la fréquence de Shannon/Liquiest, on augmente le SNR de 3dB. En sur-échantillonnant à 4 fois, on gagne 6 dB soit 1 bit. Il faut que je te retrouve des explications et démonstrations, mais je ne crois pas avoir inventé ça icon_redface.gif

 

Sinon oui deux points (échantillons) sont suffisants pour numériser parfaitement la fréquence la plus aigue dont l'oreille humaine peut avoir besoin. Donc le sur-échantillonnage n'est pas utile dans ce cas là, et je signalais simplement que je trouvais assez marrant de conseiller aux clients du "mastering en ligne" d'envoyer des fichier sur-échantillonnés, et ensuite de facturer en fonction du poids du fichier.

https://linktr.ee/studiopelican

https://linktr.ee/grisanttheme

[ Ce message faisait initialement partie de la discussion "Mastering internet à 10$ : Y'en a qui osent tout!" qui a été fusionnée dans ce sujet le 07/07/11 ]

97    fusion

j'ai déjà trouvé ça (https://fr.audiofanzine.com/techniques-du-son/editorial/dossiers/les-bases-de-l-encodage-audio.html) :

Citation de :

 

Suréchantillonnage


Notez la fréquence de suréchantillonnage en abscisses sur le diagramme 6. Un modulateur 1-bit n’échantillonne pas à 44,1 kHz. Une fréquence d’échantillonnage bien plus élevée doit être utilisée pour prendre en compte le bruit de quantification. Cette fréquence est souvent 64 fois la fréquence souhaitée, soit 64 x 44,1 kHz, ou environ 2,8 MHz ! Avec autant d’échantillons, le bruit de quantification indésirable peut être mis en forme pour chaque échantillon, et le bruit moyen peut être bien plus faible. Pour un modulateur d’ordre N, chaque fois qu’une fréquence d’échantillonnage double, le bruit de quantification applicable diminue de 3 x (2M+1) dB [2]. Doubler la fréquence d’échantillonnage pour un modulateur d’ordre 1 réduit le bruit de quantification de 9 dB, mais doubler la fréquence d’échantillonnage pour un modulateur d’ordre 2 réduit le bruit de 15 dB, etc. Cela améliore énormément le SNR à 64 fois la fréquence d’échantillonnage. Le diagramme 7 montre la réponse de fréquence du signal et le bruit d’un modulateur d’ordre 1 et 2.

À basse fréquence, le bruit est éliminé plus efficacement avec chaque incrémentation d’ordre. Cependant, du fait de la mise en forme du bruit, les fréquences plus élevées sont souvent perturbées en modulation 1-bit. Cela reste parfois préférable à la PCM, qui a un niveau de bruit de quantification bas sur toutes les fréquences.

 

et ça (je sais pas ce que vaut l'ensemble du doc, je suis juste tombé dessus) : http://www.esiee.fr/~francaio/enseignement/version_pdf/VII_CAN.pdf

Page 11 :

Citation de :

Si on échantillonne le même signal mais cette fois-ci à une fréquence K fois
supérieure, on va diviser d’autant la densité spectrale du bruit qui va cette fois s’étaler entre –
KFe/2 et KFe/2.

Ainsi dans la bande de fréquence [0 ;Fe/2] la puissance du bruit est divisé par K, soit
un SNR :
SNRdb 6,02N 1.76dB 10log(K) = + +
Utiliser une fréquence d’échantillonnage 4 fois supérieure à la fréquence dite de
Shannon revient à augmenter le SNR de 6 db soit un gain de 1 bit.

 

 

https://linktr.ee/studiopelican

https://linktr.ee/grisanttheme

[ Dernière édition du message le 15/12/2010 à 14:00:52 ]

[ Ce message faisait initialement partie de la discussion "Mastering internet à 10$ : Y'en a qui osent tout!" qui a été fusionnée dans ce sujet le 07/07/11 ]

98    fusion
Citation :
Doubler la fréquence permet de gagner en bande passante et donc en qualité par l'augmentation du nombre d'informations transmises. Quand on a 2 valeurs @44.1 KHz pour décrire un signal de 20 KHz, @88.2 KHz, c'est de 4 valeurs dont on dispose pour décrire ce même signal.

Première précision : on parle de fréquence d'échantillonnage (=FE) à la prise, sinon, si c'est après la prise, c'est du sur-échantillonnage, qui a certaines qualités, mais pas celle d'inventer des informations manquantes.

Ensuite, peut-être que ce n'est pas ce que tu veux dire, mais l'analogie avec le nombre de pixels sur un photo (plus il y a de pixels plus c'est précis) est fausse. Car augmenter la fréquence d'échantillonnage revient à baisser le temps disponible pour faire la mesure, et donc avoir une valeur moins bonne (plus approximative). Il y a donc quoi qu'il arrive un compromis. Les spécialistes semblent d'accord pour dire que 192kHz ou 176kHz comme FE est moins bon que 44kHz ou 88kHz. Par contre, à choisir entre 44 et 88 ça se discute selon les cas, avec peut-être le plus souvent un avantage pour 88.


Citation :
Je n'ai pas trouvé le moyen pour qu'une machine puisse faire la différence entre du Dark Metal et du Rockabilly. Les nouvelles productions ne sont pas par définition dans les base de données de Shazam. Et l'analyse stylistique fine restera longtemps hors de portée des vilaines machines.

Vous pourriez peut-être proposer au client de choisir parmi plusieurs options (qui ne seraient pas forcément le style de musique) ?

[ Dernière édition du message le 15/12/2010 à 14:33:11 ]

[ Ce message faisait initialement partie de la discussion "Mastering internet à 10$ : Y'en a qui osent tout!" qui a été fusionnée dans ce sujet le 07/07/11 ]

99    fusion

Bon effectivement, les articles que j'ai cité parlent du SACD et autres codage et échantillonnages sur 1 bit. Je ne sais pas d'où me venait cette idée de SNR amélioré de 3dB. Ensuite effectivement il y a à la prise, et après, et là ça commence à dépasser mes connaissances.

Mais tout ceci était un peu hors sujet, il y a énormément d'autre sujet qui parlent de la FE et résolution sur le forum.

Citation de VvSurLeRiddim :

Moi en tant qu'informaticien ça ne me choque pas particulièrement en tout cas.

 

Oui c'est sûr, ce fonctionnement est logique. Mais sur le site commerçant, il conseille d'envoyer les fichiers à une fréquence la plus élevée possible, justifiant une meilleure qualité, alors qu'on vient de  dire que ce n'est vraiment pas flagrant/nécessaire pour tout le monde. Puis il explique que le prix variera, et donc je trouve un peu douteux cette méthode. Les clients de ce genre de prestations ne savent probablement pas qu'il n'y aura pas de différence audible entre du 44.1 et un surechantillonnage.

Mais bon au risque de me répéter, ce qui me dérange le plus, c'est qu'on puisse proposer une prestation audio quelconque sans écouter ce que l'on fait.

 

 

https://linktr.ee/studiopelican

https://linktr.ee/grisanttheme

[ Dernière édition du message le 15/12/2010 à 14:53:12 ]

[ Ce message faisait initialement partie de la discussion "Mastering internet à 10$ : Y'en a qui osent tout!" qui a été fusionnée dans ce sujet le 07/07/11 ]

100    fusion
Le white paper de maximalsound est intéressant. J'apprécie la volonté de décrire les traitements effectués, et plusieurs points vont dans le sens du sérieux (veiller au respect de la phase, des transitoires...)

D'un autre côté, il soulève aussi des questions auxquelles il ne répond pas, et qui peuvent piquer notre curiosité ! Notamment:
Citation :
Une (topologie de filtre FIR) a été écartée lors des tests d'écoute en raison des abérations produites par tout traitement de dé-expansion situé en amont.

Quelles aberrations ?


Quelques approximations dans les explications, mais on devine le fond, qui doit être justifié:
Citation :
Un compresseur agira toujours en retard (son temps d'attaque) sur les transitoires obligeant le limiteur à agir et à déformer ces transitoires qui sont si précieuses à la perception de l'espace. le dé-expandeur n'amplifiera le signal qu'après ce temps d'attaque évitant ainsi au limiteur d'agir inutilement le signal

Sans look-ahead, les deux traitements auront toujours le même retard.


Citation :
Contrairement au domaine analogique, le numérique n'autorise aucun dépassement du signal, même bref. Le limiteur est là pour gérer les situations où la sommation de toutes les bandes traitées produit un signal supérieur au maximum (0dB fs) permis dans le domaine numérique. Le limiteur est donc un point essentiel du traitement puisqu'à ce stade le signal est complet (large bande) et tout défaut peut conduire à déséquilibrer le rendu global en favorisant, ou pénalisant certaines parties du spectre. Dans un limiteur le temps d'attaque est nul ou négatif (look ahead) pour prévenir tout dépassement de la valeur limite fixée.

Dans le traitement numérique, en virgule flottante, on peut dépasser le 0dBFS, puis dans une étape suivante normaliser pour produire un wav qui ne dépasse plus le 0dBFS, le tout sans look-ahead.

[ Dernière édition du message le 15/12/2010 à 16:50:04 ]

[ Ce message faisait initialement partie de la discussion "Mastering internet à 10$ : Y'en a qui osent tout!" qui a été fusionnée dans ce sujet le 07/07/11 ]