Se connecter
Se connecter

ou
Créer un compte

ou
FR
EN

Master en 16 ou 24 bits

  • 22 réponses
  • 10 participants
  • 4 237 vues
  • 10 followers
Sujet de la discussion Master en 16 ou 24 bits
Bonjour

j'ai des projets cubase avec des enregistrements faits en 16bits

Dois je garder ce format ou ai je un intérêt à les rendre en 24 bits pour le mastering ?
2
Je doute qu'une conversion supplémentaire soit bénéfique, si besoin le studio de mastering pourra toujours le faire avec ses convertisseurs hors de prix...
3
Le 24 bit est supérieur, mais il doit idéalement être utilisé dès l'enregistrement et conservé au mixage. Prendre un fichier 16 bit et le convertir en 24 bit n'améliorera pas sa qualité.
4
Merci

2 questions :
en quoi est ce meilleur en 24 bits ? car le 0db est toujours le même et on ne peut pas le dépasser
si j'ai des instruments virtuel, que gagnerai je en 24 bits puisque après je repasse en 16 ?
5
La quantification est comparable à la définition sur un appareil photo. Toutes choses égales par ailleurs, un appareil de 12 MP donnera mieux qu'un de 2 MP.
Et même si au départ certains sons que tu utilises sont en 16 bit, tu as intérêt à travailler dans un projet 24 bit car tous les calculs (effets, traitements...) se feront dès lors en 24 bit.
Et même si au final on revient en 16 bit pour le CD, la qualité sera malgré tout appréciable. Comme si pour une petite photo (pour rester dans le même exemple) tu travailles avec une extrême définition qui permettrait de tirer un poster.
6
Compréhensible mais difficile de faire la juste comparaison entre l'image et le son :-D

Pour la prise d'images la plage dynamique dépend de la sensibilité du capteur (iso), du codage des couleur ( nombre de couleur disponible en bit), ce qui pour moi correspond plus au bit de l'audio.

Une grande résolution en pixel permet de zoomer sans faire apparaître le pixel et le zoom n'existe pas encore pour l'audio. Pour un film un grand nombre d'images captées par seconde permet de ralentir le film sans saccade, je préfère comparer cette situation avec la résolution d’échantillonnage en Hz pour l'audio.
7
Est ce gant d'avoir quelques pistes en 16bits dans un projet 24 bits ?

[ Dernière édition du message le 21/05/2013 à 16:06:49 ]

8
Non ce n'est pas gênant dans l'absolu, car ton soft va les convertir en 24 lors de l'importation dans le projet...

http://www.nicolasloncle.com

https://soundcloud.com/you/albums

9
Citation :
Une grande résolution en pixel permet de zoomer sans faire apparaître le pixel et le zoom n'existe pas encore pour l'audio.

Si, en poursuivant ton analogie, en audio, c'est tout simplement le réglage du gain de la piste (par fader ou gain)
10
Citation :
Si, en poursuivant ton analogie, en audio, c'est tout simplement le réglage du gain de la piste (par fader ou gain)


Bien vu :bravo:

Citation :
Est ce gênant d'avoir quelques pistes en 16bits dans un projet 24 bits ?


Ça peut être audible mais si le contraste entre les pistes 16 et 24 bit ne te dérange pas je ne vois aucun problème à continuer à travailler comme ça. Dans certain cas c'est même une mode d'utiliser des pistes en 4, 8, 12,... bit pour émuler le vintage.
11
Citation :
Ça peut être audible mais si le contraste entre les pistes 16 et 24 bit ne te dérange pas je ne vois aucun problème à continuer à travailler comme ça. Dans certain cas c'est même une mode d'utiliser des pistes en 4, 8, 12,... bit pour émuler le vintage.


Si je suis bien, exporter mon projet en 16 bits sonnera mieux qu'en 24 bits si j'ai des pistes 16bits dedans ?

[ Dernière édition du message le 21/05/2013 à 16:44:35 ]

12
Si tu exportes ton projet pour faire du mastering je pense qu'il est préférable d'exporter en 24 bits pour dégrader un minimum tes pistes 24 bits, tes piste 16 bits ne seront pas beaucoup affectées (pas de manière audible) par la conversion.
Si tu exportes pour graver directement un cd alors tu peut directement convertir en 16 bits.
13
x
Hors sujet :

Citation :
La quantification est comparable à la définition sur un appareil photo.


Citation :
Citation :
Une grande résolution en pixel permet de zoomer sans faire apparaître le pixel et le zoom n'existe pas encore pour l'audio.
Si, en poursuivant ton analogie, en audio, c'est tout simplement le réglage du gain de la piste (par fader ou gain)

:non: On peut chercher des analogies pour expliquer ceci, mais pour le coup ce qui est dit au sujet des images est faux :??: .

Ce que l'on appelle "résolution" d'une image est le nombre de pixels verticaux ou/et horizontaux qui la composent. Il s'agit d'un échantillonnage angulaire (ou spatial) 2D et n'est pas du tout la même chose que la quantification des niveaux (du pixel, ou d'un signal audio).
La fréquence d'échantillonnage est l'angle d'ouverture de la caméra divisé par le nombre de pixels ; on parle d'IFOV (instantaneous field of view).

Le "fader" de l'audio évoqué serait plutôt un fondu du noir vers le blanc.

Le "zoom numérique" d'une image revient exactement aux problèmes de sur-échantillonnage ou de sous-échantillonnage de l'audio... mais en 2D.
On retrouve aussi le théorème de Shannon-Nyquist qui montre que si l'on sous-échantillonne une image (i.e. on réduit le nombre de pixels), alors il faut appliquer un filtre passe-bas (oui oui, le filtre d'anti-aliasing) avant pour éviter le problème du repliement spectral (spectre des fréquences spatiales).

Sinon, voici ce que l'on peut obtenir :
https://upload.wikimedia.org/wikipedia/commons/f/fb/Moire_pattern_of_bricks_small.jpg

En image, la quantification correspond au nombre de niveaux d'intensité lumineuse (du plus sombre ou plus lumineux il y a 256 niveaux codés sur 8bits pour chaque canal rouge, vert et bleu).


En virgule fixe (le cas du "16bits" et "24bits") pour chaque bits supplémentaires, tu doubles le nombre de niveaux possibles.
En 16 bits tu as 2^16 = 65536 valeurs possibles, en 24bits tu en as 2^24 = 16777216, soit 2^(24-16) = 2^8 = 256 fois plus de valeurs possibles.

En gros, tu découpes la pleine dynamique en tranches. Quand le signal "réel analogique" est entre deux tranches, tu l'arrondis pour le faire tomber sur l'une des valeurs de ton échelle quantifiée.
En 24bits, l'erreur d'arrondis est 256 fois plus petites quand 16bits (parce que tu as 256 fois plus de tranches).

Cette erreur d'arrondis est une distorsion qui s'entend franchement quand le pas de quantification ("épaisseur" des tranches) est trop grand par rapport à la dynamique du signal quantifié.
Au-delà de 4 à 6bits, et si le contenu spectral du signal est riche, cette distorsion se comportement de façon très similaire à un bruit (de fond) blanc (ça se démontre même mathématiquement).

Quand le nombre de bits est suffisant (et pour nos application audio c'est généralement le cas) on traite alors le "bruit de quantification" comme un bruit blanc classique ; on le caractérise aussi par un SNR (rapport signal à bruit).
Pour 16bits on a un SNR d'un peu plus de 90dB, pour 24bits un SNR de 120dB, mais ces valeurs non de sens qu'en "pleine échelle".

Si tu enregistres un son avec une dynamique inférieure à la pleine échelle, que tu le quantifies en 16bits puis que tu appliques un gain pour remonter son niveau pour qu'il colle au 0dB, tu auras en réalité effectué une quantification sur un nombre moins important de bits (les "tranches supérieures" qui codent l'amplitude du signal ne sont pas utilisées à l'enregistrement).
Si tu dois appliquer un gain de x2 (+6dB) pour obtenir la pleine échelle, tu auras en réalité réalisé une quantification sur 15bits.

L'intérêt d'enregistrés en 24bits et que tu peux appliquer un gain jusqu'à x256 (+48dB) et rester dans un rapport signal à bruit d'un enregistrement "pleine échelle" 16bits (ce qui correspond à la qualité CD). Tu as donc une marge confortable pour bosser et monter tes niveaux après enregistrement.

Tu as aussi une marge sur les sommations : les erreur d'arrondis se cumulent mais il te faudra en ajouter énormément pour que ça s'entendent à la fin sur un support 16bits (ou 14, comme le CD).



Bon, ceci est GRANDEMENT à relativiser :
Il n'est pas rare d'entendre des enregistrements où le bruit de fond ("réel", pas celui lié à la quantification) est parfaitement audible, et si tel est le cas le rapport signal à bruit est inférieur à 90dB... (genre 80 à 60dB).
Quantifier avec plus de 16bits n'est pas forcément pertinent car tous les bits de poids faibles ne servent qu'à coder le bruit de fond ; ils n'apportent pas grand chose (euphémisme). Passer à 24bits est encore moins utile...


Pour résumer :
- Passer un enregistrement de 16bits à 24bits ne sert à rien ; le "mal" est fait.
- Mais pour bosser avec une résolution supérieure à 16bits, il faut de toute façon que le SNR ("réel") soit de plus de 90dB pour en tirer un bénéfice ; il faut donc disposer d'une chaîne d'acquisition qui permet de l'atteindre, et se demander si c'est bien pertinent (par exemple, un vieil ampli à lampes pour basse produit déjà énormément de souffle alors l'enregistrer en 16 bits peut suffire...).

J'arrête ici, mon post est déjà beaucoup trop long :-p
14
Citation :
J'arrête ici, mon post est déjà beaucoup trop long


Il est juste excellent :bravo:
15
Pour complèter l'approche théorique d'EraTom on peut évoquer les 2 points suivants:
  • Le rapport signal sur bruit des meilleurs préamplis analogiques correspond à une conversion 21 bit, donc supérieure au rapport signal/bruit d'une conversion 16 bit surtout si l'on conserve entre 12 et 6 dB de marge pour protéger les convertiseurs d'une éventuelle surmodulation.
  • Le travail de mixage de pistes en 16 bit avec un moteur audio 32 ou 64 bit gagnera en définition s'il est restitué en 24 bit.

A tous les stades de la production, le 24 bit est préférable.
Il faut réserver le 16 bit à la diffusion sur CD ou download.

[ Dernière édition du message le 21/05/2013 à 23:20:24 ]

16

Citation de : Hohman

Citation :
J'arrête ici, mon post est déjà beaucoup trop long


Il est juste excellent :bravo:

 

Certes !!!!!!!

Laptop i7, Sonar X2 Producer, UA101 (2), Quadmic, Solo6 Be, set micros

 

17
Citation :
J'arrête ici, mon post est déjà beaucoup trop long

De fait :mdr:. Mon analogie photographique était moins exacte (ce n'était qu'une analogie), mais elle était plus courte.:mdr::mdr::mdr:

Mais pour en revenir à la question initiale : quelle que soit la quantification de tes échantillons, le travail de mixage en 24 bit sera préférable.
18

Citation :

Et même si au départ certains sons que tu utilises sont en 16 bit, tu as intérêt à travailler dans un projet 24 bit car tous les calculs (effets, traitements...) se feront dès lors en 24 bit.

absolument pas!

Citation :

quelle que soit la quantification de tes échantillons, le travail de mixage en 24 bit sera préférable.

le paramétrage du projet n'agit que sur le format d'enregistrement, pas sur la résolution des calculs qui reste la même quelque soit le réglage de la session.

Si tu dois faire des enregistrements, alors c'est préférable de régler la session en 24 bit, de plus ça ne pose aucun soucis aux DAW d'avoir à traiter des sources de résolutions différentes.

Si tu ne composes qu'avec des vsti ou des samples, alors tu te fous du paramétrage de la session.

De là, si tu appliques des effets/traitements gains pan etc... tout ça sera calculé en flottant (32 ou 64 bit selon ta configue et ton soft), tu as donc intérêt à faire l'export de la session en 24 bit (voir 32 bit flottant) si des traitements doivent encore être faits (cas du mastering).

Pour l'export final par contre (gravure cd etc..), 16 bit, avec ou sans dithering, à toi de voir.

19
Pour revenir aux images, voici mon analogie :
la fréquence serait le nombre de pixels, les bits, la palette de couleurs. En effet, le nombre d'échantillons est la fréquence et les bits la localisation de l'échantillon.
Est ce bon comme analogie ?
20

Citation :

En effet, le nombre d'échantillons est la fréquence et les bits la localisation de l'échantillon.

la fréquence est le nombre d'échantillon pour un intervalle de temps donné (généralement sur une seconde)

la résolution définis le nombre de paliers disponible pour quantifier la valeur de l'échantillon.

http://www.iict.ch/Tcom/Laboratoires/digivox2000/chap/chap2/quantification.htm

21
Un bon lien pour débuter dans le numérique.
22
Ok je réponds parce que c'est ton fil, mais je crois que ça t'écarte de ton problème premier.
En fait il faut introduire comment l'on passe d'un "signal 1D" (le signal audio, par exemple) à un "signal 2D" (une image).

Un signal audio peut être résumé à une fonction du temps, un s(t) ; pour une valeur de "t" tu obtiens une valeur "s(t)".
Avant la numérisation, t et s(t) peuvent varier continument.

La numérisation consiste en 2 étapes.

1ère étape : Échantillonnage.
- D'abord on prélève des valeurs s(t) à un intervalle de temps régulier (en général). Par exemple, toutes les Te secondes : s(0) ; s(Te) ; s(2*Te) ; s(3*Te) ; ... ; s(n*Te) etc.
- Les s(n*Te) sont des échantillons (c'est le nom qu'on leurs donne dans le jargon).
- La fréquence d'échantillonnage est l'inverse de cette période Te : Fe = 1/Te.
- Connaissant Fe ou Te, on a l'habitude de laisser tomber le "Te" dans les notations de la série de valeurs : s(0) ; s(1), s(2), ... s(n).

Jusque là, les s(n) peuvent prendre n'importe quelle valeur, continument. C'est là qu'arrive le seconde étape.

2nde étape : La quantification.
- On crée une échelle de valeurs finie. L'écart entre deux valeurs consécutives s'appelle le pas de quantification. En 16bits, on forme des mots binaires (de 16 bits) qui peuvent représenter 2^16 valeurs différentes (pas une de plus).
- Pour chaque s(n), on trouve la valeur de notre échelle la plus proche et on arrondi la valeur s(n) pour la faire coïncider avec.
- Lors de la quantification on introduit une erreur entre la valeur réelle "s(n)" et sa représentation arrondie sur notre échelle "x(n)" : err(n) = s(n) - x(n), ou encore s(n) = x(n) + err(n).

Si l'on s'intéresse d'un peu plus près à err(n), on constate que si elle est assez petit cette erreur se comporte de façon très similaire à un processus aléatoire, un bruit de densité spectrale uniforme : c'est un bruit blanc.


Pour une image nous avons un "rectangle" dans lequel on se balade, et pour chaque point de ce rectangle nous avons une niveau de luminosité (je ne parle que d'une image "en niveau de gris" pour l'instant) ; c'est une fonction de deux variables p(x,y) où x et y sont les coordonnées d'un point du rectangle et p le niveau de luminosité sur ce point.
p(x,y) est similaire à s(t) sauf que nous sommes en "2d" : au lieu d'évoluer au cours du temps "t", nous évoluons suivant deux directions "(x,y)".


1ère étape : Échantillonnage.
- Là où l'on regardait la valeur prise par s(t) toutes les Te secondes, ici nous piochons des valeurs de p(x,y) sur des points espacés régulièrement, à une distance de xe entre 2 colonnes et ye entre 2 lignes.
Pour la 1ère ligne : p(0,0) ; p(1*xe,0) ; p(2*xe,0) ; ... ; p(i*xe,0)
Pour la 2ème ligne : p(0,1*ye) ; p(1*xe,1*ye) ; p(2*xe,1*ye) ; ... ; p(i*xe,1*ye)
...
Pour la jème ligne : p(0,j*ye) ; p(1*xe,j*ye) ; p(2*xe,j*ye) ; ... ; p(i*xe,j*ye)

- Comme pour les échantillons s(n*Te), lorsque l'on connait xe et ye constants on les laisse tomber pour alléger les notations : on obtient un ensemble de valeurs p(0,0), p(0,1), ..., p(i,j).
Ce sont des échantillons pris sur l'image, et dans le jargon on les appelles... les pixels.
- Il y a 2 fréquences d'échantillonnages spatiales (dans les deux directions) : 1/xe et 1/ye.

Pour info, aujourd'hui on dispose de capteurs matricielles qui prélèvent tous les pixels (échantillons) en même temps, mais à une époque pas si lointaine il n'y avait qu'un seul "pixel" qui balayait un secteur angulaire (un peu comme un radar) et on les prenait 1 par 1 ; le parallèle avec s(t) qui évolue au cours du temps est alors peut-être plus évident (et dans les années 80 on trouvait encore beaucoup de capteurs "barrettes" qui prenaient une colonne entière et qui balayait un secteur angulaire pour former les lignes, un peu comme un pinceau).

2nde étape : Quantification.
- Comme pour les valeur d'amplitude de s(n*Te), les valeurs de luminosité de p(i*xe,i*ye) peuvent encore varier continument.
- Ces valeurs sont quantifiées (généralement sur 8bits, soit 256 niveaux de luminosités) et on arrondit les p(x,y) comme on arrondit les s(t).
- Comme pour la quantification du signal audio, l'arrondi introduit une erreur qui est comparable à un bruit blanc (2d). C'est les images de neige que l'on peut voir sur un télé qui ne reçoit pas d'image.



Citation :
la fréquence serait le nombre de pixels

Grosso modo, c'est ça. Une caméra a un angle d'ouverture fixe (qui dépend de l'optique), augmenter la fréquence d'échantillonnage revient à augmenter le nombre de pixels dans l'image.

Citation :
les bits, la palette de couleurs

Pour les images couleurs, le processus est réalisé 3 fois pour le rouge, le vert et le bleu (il y a 3 "cartes" de luminosités superposées).
Les bits donnent le nombre de valeurs possibles de la luminosité en rouge, vert et bleu (indépendamment).

Pour afficher un pixel vert vif, on trouve une luminosité de 0% pour le rouge et de bleu et de 100% pour le vert.
Pour du noir tous à 0%, pour du blanc tous à 100%. Et pour passer d'une couleur à un autre on ne peut le faire qu'en utilisant l'échelle de luminosité quantifiées.

Visuellement, une soixantaine de niveaux suffirait pour être indiscernable à l’œil. Si on prend 8bits c'est parce que l'informatique ne fait pas plus petit comme mot binaire... alors du coup on dispose de beaucoup plus de niveaux que nécessaire.


Citation :
les bits la localisation de l'échantillon.

La localisation du pixel dans l'image c'est ce qui est échantillonné, mais je pense que si tu as lu ce qui précède tu as dû piger ;)
23
Citation :
la résolution définis le nombre de paliers disponible pour quantifier la valeur de l'échantillon
Ah oui, c'est un mot de vocabulaire qui peut porter à confusion.

En métrologie, la résolution est la capacité d'un appareil à discerner deux valeurs différentes. Quand elles sont trop proches il peut les confondre, c'est la limite que l'on appelle la résolution.

En théorie du signal (et de l'image), lorsque l'on parle de la résolution d'un signal discret c'est la quantification qui est évoquée. Dans l'image c'est le plus petit écart niveau de luminosité.

Dans le grand public, on parle de "résolution spatiale" pour évoquer le nombre de pixels par cm², alors que dans le jargon technique et scientifique ceci et bien lié à l'échantillonnage et pas à la quantification. On évite soigneusement de parler de "résolution spatiale" pour éviter les confusion.
On préfère parler d'ifov (instantaneous field of view) qui est le plus petit élément "d'angle solide" représenté sur l'image.

[ Dernière édition du message le 23/05/2013 à 10:57:04 ]