Se connecter
Se connecter

ou
Créer un compte

ou

Sujet Différence de son entre les DAW : un mythe ?

  • 296 réponses
  • 34 participants
  • 38 251 vues
  • 48 followers
Sujet de la discussion Différence de son entre les DAW : un mythe ?
J'ouvre un nouveau thread pour une discussion qui a commencé dans le sujet Comment sont créés les kicks des productions actuelles ?.
Suite à la remarque d'un membre qui disait qu'on peut avoir le gros son avec seulement des plugs, nous parlions de l'intervention de la qualité des convertos, des plugs et des DAW utilisés.
Nous étions en train de dire qu les DAW et les plugs n'interviennent pas dans ce qui sort du monitoring et que la différence de son entre les bounces et les L-R des softs est un mythe. Voici ma réponse aux derniers posts :


Citation : ben sans être méchant, si ils t'on répondus ca, c'est qu'ils n'y connaissent pas grand chose, d'une parsque les calculs sont faits en 32 bit flottant dans TOUS LES CAS (sauf certains plugs particuliers), et de deux parsqu'il n'y a pas de notion de qualité de calcul à partir du moment ou on applique le même algorythme, on est en numérique, c'est du 1 et du 0, soit ca marche et ca fait tout le temps pareil partout, soit ca marche pas.



Ca me parait logique, mais tous les mecs qui m'ont dit entendre des différences entre les DAW sont des ingés, et pas des mecs qui ont appris sur le tas... comme quoi, ce ne sont pas des clichés de débutants.

Citation : ben oubli ton test alors, il ne vaut rien.



Citation : Tu as répondu toi même au mystère



Je suis d'accord que pour que la mesure soit bonne, on reproduit EXACTEMENT la même situation dans les deux cas; mais ce que je ne comprends pas, c'est qu'on n'obitenne pas le même résultat, quelque soit l'audio sur lequel l'effet est appliqué !
Ca voudrait dire qu'avec un simple coupe haut, on n'a pas le même son sur une guitare que sur une voix par exemple ?

Après ça vient peut être du fait que la source stéréo était un mix entier et que les sources mono étaient des prises de son brutes et individuelles...
Afficher le sujet de la discussion
221
y'a donc au moins celui la qui interpole. et pour des traitements? enfin si ça a un interet??
222

Comme dis Docks, SSL propose un plug grzatuit qui indique le niveau réel du signal après reconstruction.

JM

223

j'avai fait quelques tests à une époque avec ce plug, j'ai constaté en calibrant le niveau de sorti à -0.3 dBfs crête, j'était jamais emmerdé (et même dans la plupart des cas à -0.2 voir -0.1) du coup j'ai laché l'affaire, pour moi c'est sans intérêt.

224

SDLC ?

JM

225
x
Hors sujet :
Citation :
mon acharnement (et mon elegance naturelle) a lui montrer pourquoi il avait tord m'avait valu quelques jours d'ombres

Normal :


C'est torT bordeeeeeel ! icon_exorbite.gif :fache: headbang.gif icon_police.gif icon_tresfache.gif :violent: :fou:



Citation :
Le risque, il se produit bien, comme tu le dit, au moment de la conversion, parce que sinon, entre deux points, il n'y a rien

On peut pinailler : "mathématiquement" la satu y est, et certains effets pourraient la faire ressortir : pitch shift, time stretch... tous les effets qui ont un lien avec la reconstitution du signal.

Idem s'il y a un sur-échantillonnage, qui plus est en virgule fixe (bon ok, ce serait con).


Je pense qu'au stade de la pratique la conclusion de Docks est la bonne.

[ Dernière édition du message le 08/07/2011 à 16:23:05 ]

226

Citation :

 

SDLC ?

  affirmatif!icon_mrgreen.gif

 

[ Dernière édition du message le 08/07/2011 à 16:30:32 ]

227
Citation :
On peut pinailler : "mathématiquement" la satu y est

même pas, si?? je veux dire mathematiquement, y'a aucun indice sur l'intersample. tu voulais dire "physiquement"?

Citation :
Idem s'il y a un sur-échantillonnage, qui plus est en virgule fixe (bon ok, ce serait con).

La, j'avoue....

Citation :
C'est torT bordeeeeeel !

un classique, celui la...
228

Citation :

Je pense qu'au stade de la pratique la conclusion de Docks est la bonne.

rendons à Caesar ce qui appartient à Caesar, c'est à Jan que revient la conclusion (je lui laisse aussi la pratique d'ailleurs)  icon_mrgreen.gif

 

229
Du moment qu'il ne passe pas de Caesar à LC, tout va bien pour lui :-D
230
x
Hors sujet :
C'est énorme ce genre de topics, parce que l'on peut lire tout et son contraire :D:


Concernant la quantification et les contraintes / erreurs des traitements associés, avant de parler de différences notables au niveau de l'audition, il faut revenir à des aspects théoriques de base.
https://www.irisa.fr/archi03/Presentations/Menard.pdf

Pour ceux que ça intéressent, je vous invite à jeter un œil sur les planches 6 et 7 de cette présentation.


Pour une valeur (ou un signal) S et sa valeur quantifiée Sq :

Une quantification à virgule fixe (ou un codage sur des nombres entiers, qui revient au même à une puissance de 2 prêt) permet de garantir une erreur de quantification absolue :
|Sq - S| < 2^-n
où n est le nombre de bits après la virgule.

Une quantification à virgule flottante permet de garantir une erreur de quantification relative :
|Sq - S | / S < 2^-n
où n est la taille de la mantisse.


Il ne faut pas comprendre "absolue" comme "absolument mieux" et "relative" comme "relativement mieux". En fait, tout dépend de l'opération réalisée... Si j'ai 2 valeurs quantifiée Aq et Bq, pour un nombre de bits identiques :
- Cq = Aq + Bq présentera un erreur du même ordre de grandeur que celle sur Aq et Bq dans le cas d'un codage à virgule fixe (en écartant le problème de la saturation).
- Cq = Aq / Bq présentera un erreur plus petite dans le cas d'un calcul en virgule flottante.


On pourrait alors être tenté de croire qu'il faut passer d'un type de codage à un autre en fonction du type d'opération :
- dès que j'ai une addition / soustraction, je passe en virgule fixe,
- dès que j'ai une division / multiplication, je passe en virgule flottante.

Parfois, dans certaines applications où la taille des bus est critique, c'est effectivement ce qui est réalisé (par exemple, quand il s'agit d'implémenter un traitement sur un FPGA et que les tailles des bus explose en virgule fixe).


Mais il y a une chose à ne pas oublier, surtout lorsque l'on traite de l'audio : le rapport signal à bruit. Il s'agit ici de contrôler la puissance du bruit introduit par la quantification lorsque l'on passe de S à Sq (le bruit de quantification est lié à l'erreur de quantification Sq - S) :
- Dans le cas d'un codage à virgule fixe, le SNR croit avec la dynamique du signal d'entrée, et il est catastrophique quand la dynamique du signal est faible.
- Dans le cas d'un codage à virgule fixe, le SNR est constant, quelque soit la dynamique du signal d'entrée.
(figure en bas à droite de la 6ième planche sont comparés du "fixed point 16bits" et du "float 16bits", la mantisse fait moins de 16bits)


C'est tout à fait prévisible étant donnée que l'erreur absolue du codage point fixe ne dépend pas de la dynamique du signal alors que dans le cas de la virgule flottante, la précision "s'adapte" à la dynamique d'entrée.



Le codage "24bits fixe" d'une certaine DAW serait plus mieux bien qu'un codage 32bits virgule flottante ?

Si je reprends le cas de l'addition, ce que l'on cherche à calculer avec le moins d'erreur possible c'est C = A + B.
Or, je calcule Cq = Aq + Bq... Même si le codage virgule fixe permet de minimiser l'erreur de l'opération sur les valeurs quantifiées, l'erreur déjà présente sur Aq et Bq ruine cet avantage.

De plus, avec table de mixage "virtuelle", l'addition des bus n'est pas la seule opération réalisée. Quid des différents gains (multiplication / division) appliqués ?


Si ce qui est réalisé ce sont des traitements / gains en virgule flottante sur chaque bus, puis une conversion flottante => fixe sur 24bits pour des signaux avec une dynamique bien compressée à mort de +0dB (voir, tout dans le rouge), alors peut-être... mais ce n'est même pas sûr...

[ Dernière édition du message le 09/07/2011 à 19:11:51 ]