Se connecter
Se connecter

ou
Créer un compte

ou
FR
EN

Encore la normalisation, 2 ou 3 petits choses qui m'échappent complètement.

  • 42 réponses
  • 12 participants
  • 2 590 vues
  • 11 followers
Sujet de la discussion Encore la normalisation, 2 ou 3 petits choses qui m'échappent complètement.
Je viens de lire pas mal de threads sur la normalisation, mais ça n'a pas répondu à la totalité de ma question. sachant que j'utilise cubase SX, je m'interroge sur la fonction du traitement audio "normaliser"
j'ai cru comprendre qu'il ne s'agissait "que" d'un réhaussement (ou éventuellement d'une baisse) du niveau du signal.
j'ai pu lire deux choses un peu contradictoires: la fonction normaliser ne fait que réhausser le niveau jusqu'au seuil maximal avant saturation (par exemple), et remonte la totalité du signal, sans changer la dynamique.

mais j'ai aussi lu que la normlisation pouvait entrîaner une détérioration du signal. or l'autre fois je m'en suis servi sur une piste de guitare electrique au niveau très faible qu'il fallait impérativement que je remonte. j'ai normalisé, et là, le son est devenu de la pure bouillie!!!!!! le son saturé était déjà assez mal défini à l'orgine, et une fois normalisé, c'était quasi-inécoutable!
du coup je n'ose plus toucher à cette fonction du tout, au lieu de ça je passe par un plug de compression et j'augment le volume de la piste en utilisant le volume de sortie du compresseur, en cas de prise trop faible que je ne peux pas refaire.
ai-je tort de ne plus toucher à la normalisation, ou bien est ce la fonction normaliser de cubase SX qui fonctionne mal :???: :???: :?!: :noidea: ?
Afficher le sujet de la discussion
26

Citation : pour entendre la différence (hormis le niveau), faut être soit extrèmement balaise



Sans être extrêmement balaise, vous pouvez faire le test vous-mêmes.
faites une enregistrement multipistes, normalisez chaque piste. Faites votre mix comme bon vous semble (effets, eq, comp, etc.). Ecoutez le résultat final.

Refaites la même chose en sautant l'étape "normalisation". Ecoutez le résultat final. Comparez.

Meilleure sera votre station de travail, plus les calculs seront précis... Sonic Solution va sonner mieux qu'un logiciel bas de gamme (ce qui explique sans doute pourquoi on ne voit JAMAIS certains logiciels dans les bonnes boites de mastering, et pourquoi on en voit d'autres...)
27
Logiquement, chaque étape de calcul sur l'audio fait potentiellement une erreur d'arrondi d'1 bit, si l'algorithme est bien implémenté. Imaginons que tu as un eq (1 traitement) + un fader (1 traitement) + une normalisation (1 traitement), au pire tu te trompes de 3 bits à cause de l'arrondi (c'est quand on n'a pas de chance). Ca fait donc 3 bits sur 24 bits, soit il en reste plus que 21 d'utile. Oui, sauf que l'oreille *commence* à faire une distinction sur des signaux codés sur moins de 20 bits. Autant dire que là, normalement, tu ne perçois pas la différence.

D'ailleurs, pour confirmer mes dires, le dithering est un processus qui permet de réduire le bruit de quantification, i.e. le bruit que génère les erreurs d'arrondi. Et bien devinez quoi, on en fait lors des conversions 16 bits mais pas en 24 bits. Pourquoi ? parce qu'on n'entends pas une différence d'1 bit en 24 bits.
28

Citation : d'abord finalement existe-t-il une différence réelle entre une simple montée de volume (au fader de la console de voie de cubase) et une normalisation, au niveau des calculs effectués par l'ordinateur?


Tu as exactement la même erreur en montant le fader (tu as d'ailleurs la meme erreur a chaque traitement numérique).
Tous calculs numériques entraine une approximation, donc une erreur de quantification.

zieQ > 1 bit? Ca serait une énorme erreur... Bien audible dans ce cas-là. Mais...
En 16 bits, tu as 2^16, soit 65536 échantillons possibles. En 24 --> 16,7 millions. Sachant que les traitements software se font tous désormais en 32 bits (voire même 64), je vous laisse calculer le nombre d'échantillons possibles... (4 294 967 296 échantillons en 32 bits)
Et l'erreur se fait lorsque l'on est entre deux échantillons (entre 2 pas de quantification), donc l'erreur de quantification maximale serait de 0.5 Q, soit 4 294 967 296 x 2.

Je serai curieux de retrouver la formule établissant le rapport entre quantification et dynamique, on pourrait ainsi calculer sur combien de millionième de dB ça se joue...
De tête --> 24 bits = 130dB donc 32 bits = 173 dB
Divise 173 / (4 300 000 000 x 2) = 0.00000002 dB.

--> Inutile de dire que c'est ridicule, d'autant que c'est l'erreur maximale qu'on peut obtenir.

Pour tester, prenez un morceau, baissez-le de X dB (le nombre n'importe pas), bouncez puire rebaissez-le de X dB.
Vous avez ainsi le même niveau. Comparez le fichier traité 2 fois et l'original (sachant qu'en plus la baisse de qualité est 2 fois plus importante qu'avec simple normalisation puisque traité 2 fois)

Pour revenir à ce que disait rroland, pour une fois, je suis pas trop d'accord avec toi (et même avec Bob Katz d'ailleurs) comme je viens d'essayer de le démontrer, sauf sur certains points:
- ne pas normalisez avant le mix (sauf cas extrème avec ormalisation à -10dB) afin de se laisser de la marge
- ne pas normaliser avant mastering pour leur laisser de la marge
- ne pas normaliser après mastering sans quoi les ballades risquent d'etre plus fort que les morceaux péchues.

Pour revenir sur cette hsitoire de gate et de compresseur, le gate te changera 1000 fois plus ton son qu'une simple normalisation. Si tu veux supprimer le bruit de fond, utlise un denoiser, ça sera moins audible, bien que l'on y perde aussi en qualité du signal, mais là est un autre problème.
29
JoneSmice, tu as faux dans ton produit en croix des dB vu que ce sont des logarithmes qui te donnent les dB en fonction du rapport des puissances ou amplitude.
Si je ne m'abuse, Amplification A (en dB) = 20 * log10(A1/A2) (rapport des amplitudes à comparer)
En gros disons que l'amplitude de ton erreur est d'1 bit (=2 puissance 0) par rapport à la valeur maximale d'amplitude possible (=2 puissance 23), ça te fait une erreur de :

20 * log10(1/(2**23)) ~= -138 dB
Celui qui m'entend un truc -138 dB moins fort que le signal le plus fort avant clipping, il m'appelle ;)

Donc 1 bit d'erreur sur 24 bits ça ne s'entend pas, par contre ça s'entendrait en 16 bits. Par contre, JoneSmice, tu as partiellement raison, c'est plutôt 0.5 bit d'erreur à chaque fois.

Ah sinon, en tout cas pour les VSTs, la chaîne audio est sur 32 bits, même si en interne ils peuvent travailler en 64 (mais c'est rare).

Dans tous les cas, il vaut mieux éviter des traitements, mais une normalisation en 24 bits ou plus, normalement ça ne s'entend pas !
30
Tu as raison sur le premier point avec les logarithmes, je te remercie d'ailleurs pour la formule.

Par contre, là ou je suis pas d'accord vec toi, c'est pour l'erreur de 1 bit.

En 16 bits, comme je l'ai dit plus et en prenant les bases du calcul binaire, tu as 2^16 valeurs possibles d'échantillons, soit 65 000 et des brouettes... L'erreur de quantification se joue entre 2 valeurs possibles.

Prenons un signal 4 bits pour la jouer simple:
0000
0001
0010
0011
0100
0101
0110
0111
1000
1001
1010
1011
1100
1101
1110
1111

Ca fait bien 2^4 = 16 échantillons possibles

L'erreur de quantification est donc largement plus faible que si elle était sur 0.5 bits.

Ta théorie serait bonne si le "16 bits" correspondait à "16 mesures possibles". 16 mesures, ca serait très largement insuffisant, ça corespondrait en fait à du 4 bits (2^4 = 16)
31
"De toute façon, il n'y a que 10 catégories de personnes, ceux qui comprennent le binaire et les autres" (un membre d'AF, j'ai oublié son pseudo)

:mrg: :mdr: :mrg: :mdr: :mrg:
32
Dans le même genre il y a aussi l'hexa, c'est pas mal non plus....
33
Relis mon post JoneSmice, j'ai bien parlé de mettre (2 puissance bits) pour les amplitudes. Suivant que tu considères 0.5 bit d'erreur ou 1 bit, cela change un peu la puissance du bruit en dB mais pas dans des proportions audibles en tout les cas. Moi je considère 1 bit d'erreur car :
- ton signal original a été numérisé, i.e. ta carte audio a convertit une tension en volts en valeur binaire, ce qui te fait déjà 0.5 bit d'erreur pour la conversion analogique->numérique.
- ensuite tu as fait un traitement (normalisation) sur ce signal numérisé donc tu ajoutes 0.5 bits d'erreur encore.

Donc par rapport à ce qui est sorti du cable de ton instrument, y a bien 1 bit d'erreur en tout. Pour la normalisation elle-même, tu ne commets effectivement que 0.5 bit d'erreur.
34
De toute façon, vous pouvez tester par vous même en insérant un dithering (qui justement crée une erreur de 0.5 bit :clin: ) et voir si vous entendez quelquechose :
- en 16 bits (réponse : p-e, ça dépend des oreilles)
- en 24 bits (réponse : j'en doute)
35
0.5 bit, ça n'existe pas. :clin:
36
Bref, j'crois bien que Paul a depuis longtemps obtenu la réponse qu'il cherchait...
37
ZieQ > Tu n'as pas compris le raisonnement.
L'erreur possible se fait entre deux pas de quantification (et sur 16 bits --> + de 65 000 et non pas 16)

Citation : 0.5 bit, ça n'existe pas.


Exact. Mais 0.5 pas de quantification non plu si tu vas par là... C'est pourtant l'erreur maximale possible lors de traitement.
38
Merci beaucoup pour vos réponses, surtout jone smice d'avoir répondu à ma question sur le fader de volume qui m'intriguait beaucoup.
je vais me repencher un poil dans mes cours pour être sûr de bien tout saisir, mais ça m'a beaucoup éclairci les idées.
:boire: :boire: :boire:
39
...
40
http://voyard.free.fr/textes_audio/mots_du_son/normaliser.htm

un lien qui traine sur un autre thread, intéressant, avec extrait audios et visuels à l'appui.
41
Arf, je me fends d'un petit lien aussi, extrait de l'excellent livre de Bob Katz : "Mastering Audio, the art and the science"

http://www.sendmefile.com/00137805

Hélas en anglais, mais pas trop compliqué
42
Bon je pond la chose içi , pour pas être hors sujet . Pis comme ça youtou verra rien ... lol .

J'ai lu les 2 pages et des poussiéres du thread et d'autres aussi . Ca fait peur de lire certaines choses . " Lever le potard entraine des erreurs mathématiques dites d'approximation , et ce systématiquement " .
Ca donne envie de faire son mix avec une simple mise à plat . 
J'ai lu le coup des deux chiffres aprés la virgule qui finissent par créer un dilemme dans les entrailles de nos bécanes . Mais franchement , est ce qu'un ordi ne va pas plus loin en précision que 2 chiffres aprés la virgule ? Je sais pas , je suis pas informaticien , mais je sais pousser un potard et même 2 en même temps . A trois , j'opte pour l'automation ...

Personnellement , le traitement du son en interne que ce soit la normalisation ou plus encore ( voir le troisiéme test ) a fini d'être à mes yeux une source d'inquiétude  . Je voudrais juste rassurer les gros inquiets sur le coté positif du test . Donc pour la normalisation , bien que je ne lui trouve plus beaucoup d'utilité , elle a finit par m'apparaitre une chose bien inoffensive dans son genre .
J'ai fait quelques petits tests en soirée , comme j'en parlais tantôt . Je les pose içi , si ça interesse quelqu'un . 


TEST 1 / NORMALISATION

Fichier normalisé ( Vert )  / Sgrp 1 / trim insert - 6,16 dB
Fichier Origine ( Bleu )  / Sgrp 2 / trim insert opposition de phase G/D
MASTER / Vue mètre

Résultat : annulation quasi totale du signal utile ( niveau - 98 dB )

Photo écran 1: http://www41.zippyshare.com/v/8422189/file.html

Photo écran 2 : http://www41.zippyshare.com/v/68393985/file.html

( Sur cette photo , on voit qu'un 100 éme de dB apporte une différence , l'annulation n'est plus totale )

TEST 2    / Traitement multiples sur une duplication du fichier et comparaison

INVERSION SENS ( REVERSE )  >  INVERSION PHASE  > NORMALISATION  > PLUG IN -6,16 dB  POST ROLL >   INVERSION PHASE  > INVERSION SENS ( REVERSE ) >  NORMALISATION > COMPARAISON

Résultat identique

Photo écran 3 : http://www41.zippyshare.com/v/10166146/file.html

J'ai fais ce test sur le mix power de phil443 .


J'ai essayer d'arrêter le Coca , j'y suis arrivé . Mais AF ... non .

[ Dernière édition du message le 27/05/2010 à 00:31:00 ]

43
Citation de : JoneSmice
ZieQ > Tu n'as pas compris le raisonnement.
L'erreur possible se fait entre deux pas de quantification (et sur 16 bits --> + de 65 000 et non pas 16)

JoneSmice, je crains que ce ne soit toi qui ne comprenne pas le binaire.
Les bits n'ont pas tous le même poids, et le bit le plus faible a la valeur d'1 palier.
Donc une erreur d'1 bit (celui de poids faible) est bien une erreur de 1/65000 et pas 1/16.