Master en 16 ou 24 bits
- 22 réponses
- 10 participants
- 4 237 vues
- 10 followers

AntoLyon

j'ai des projets cubase avec des enregistrements faits en 16bits
Dois je garder ce format ou ai je un intérêt à les rendre en 24 bits pour le mastering ?

Nic02


rroland


AntoLyon

2 questions :
en quoi est ce meilleur en 24 bits ? car le 0db est toujours le même et on ne peut pas le dépasser
si j'ai des instruments virtuel, que gagnerai je en 24 bits puisque après je repasse en 16 ?

rroland

Et même si au départ certains sons que tu utilises sont en 16 bit, tu as intérêt à travailler dans un projet 24 bit car tous les calculs (effets, traitements...) se feront dès lors en 24 bit.
Et même si au final on revient en 16 bit pour le CD, la qualité sera malgré tout appréciable. Comme si pour une petite photo (pour rester dans le même exemple) tu travailles avec une extrême définition qui permettrait de tirer un poster.

Hohman


Pour la prise d'images la plage dynamique dépend de la sensibilité du capteur (iso), du codage des couleur ( nombre de couleur disponible en bit), ce qui pour moi correspond plus au bit de l'audio.
Une grande résolution en pixel permet de zoomer sans faire apparaître le pixel et le zoom n'existe pas encore pour l'audio. Pour un film un grand nombre d'images captées par seconde permet de ralentir le film sans saccade, je préfère comparer cette situation avec la résolution d’échantillonnage en Hz pour l'audio.

AntoLyon

[ Dernière édition du message le 21/05/2013 à 16:06:49 ]

scarabeo

http://www.nicolasloncle.com
https://soundcloud.com/you/albums

Anonyme

Une grande résolution en pixel permet de zoomer sans faire apparaître le pixel et le zoom n'existe pas encore pour l'audio.
Si, en poursuivant ton analogie, en audio, c'est tout simplement le réglage du gain de la piste (par fader ou gain)

Hohman

Si, en poursuivant ton analogie, en audio, c'est tout simplement le réglage du gain de la piste (par fader ou gain)
Bien vu

Est ce gênant d'avoir quelques pistes en 16bits dans un projet 24 bits ?
Ça peut être audible mais si le contraste entre les pistes 16 et 24 bit ne te dérange pas je ne vois aucun problème à continuer à travailler comme ça. Dans certain cas c'est même une mode d'utiliser des pistes en 4, 8, 12,... bit pour émuler le vintage.

AntoLyon

Ça peut être audible mais si le contraste entre les pistes 16 et 24 bit ne te dérange pas je ne vois aucun problème à continuer à travailler comme ça. Dans certain cas c'est même une mode d'utiliser des pistes en 4, 8, 12,... bit pour émuler le vintage.
Si je suis bien, exporter mon projet en 16 bits sonnera mieux qu'en 24 bits si j'ai des pistes 16bits dedans ?
[ Dernière édition du message le 21/05/2013 à 16:44:35 ]

Hohman

Si tu exportes pour graver directement un cd alors tu peut directement convertir en 16 bits.

EraTom

Citation :La quantification est comparable à la définition sur un appareil photo.
Citation :Citation :Si, en poursuivant ton analogie, en audio, c'est tout simplement le réglage du gain de la piste (par fader ou gain)Une grande résolution en pixel permet de zoomer sans faire apparaître le pixel et le zoom n'existe pas encore pour l'audio.
On peut chercher des analogies pour expliquer ceci, mais pour le coup ce qui est dit au sujet des images est faux
.
Ce que l'on appelle "résolution" d'une image est le nombre de pixels verticaux ou/et horizontaux qui la composent. Il s'agit d'un échantillonnage angulaire (ou spatial) 2D et n'est pas du tout la même chose que la quantification des niveaux (du pixel, ou d'un signal audio).
La fréquence d'échantillonnage est l'angle d'ouverture de la caméra divisé par le nombre de pixels ; on parle d'IFOV (instantaneous field of view).
Le "fader" de l'audio évoqué serait plutôt un fondu du noir vers le blanc.
Le "zoom numérique" d'une image revient exactement aux problèmes de sur-échantillonnage ou de sous-échantillonnage de l'audio... mais en 2D.
On retrouve aussi le théorème de Shannon-Nyquist qui montre que si l'on sous-échantillonne une image (i.e. on réduit le nombre de pixels), alors il faut appliquer un filtre passe-bas (oui oui, le filtre d'anti-aliasing) avant pour éviter le problème du repliement spectral (spectre des fréquences spatiales).
Sinon, voici ce que l'on peut obtenir :
https://upload.wikimedia.org/wikipedia/commons/f/fb/Moire_pattern_of_bricks_small.jpg
En image, la quantification correspond au nombre de niveaux d'intensité lumineuse (du plus sombre ou plus lumineux il y a 256 niveaux codés sur 8bits pour chaque canal rouge, vert et bleu).
En virgule fixe (le cas du "16bits" et "24bits") pour chaque bits supplémentaires, tu doubles le nombre de niveaux possibles.
En 16 bits tu as 2^16 = 65536 valeurs possibles, en 24bits tu en as 2^24 = 16777216, soit 2^(24-16) = 2^8 = 256 fois plus de valeurs possibles.
En gros, tu découpes la pleine dynamique en tranches. Quand le signal "réel analogique" est entre deux tranches, tu l'arrondis pour le faire tomber sur l'une des valeurs de ton échelle quantifiée.
En 24bits, l'erreur d'arrondis est 256 fois plus petites quand 16bits (parce que tu as 256 fois plus de tranches).
Cette erreur d'arrondis est une distorsion qui s'entend franchement quand le pas de quantification ("épaisseur" des tranches) est trop grand par rapport à la dynamique du signal quantifié.
Au-delà de 4 à 6bits, et si le contenu spectral du signal est riche, cette distorsion se comportement de façon très similaire à un bruit (de fond) blanc (ça se démontre même mathématiquement).
Quand le nombre de bits est suffisant (et pour nos application audio c'est généralement le cas) on traite alors le "bruit de quantification" comme un bruit blanc classique ; on le caractérise aussi par un SNR (rapport signal à bruit).
Pour 16bits on a un SNR d'un peu plus de 90dB, pour 24bits un SNR de 120dB, mais ces valeurs non de sens qu'en "pleine échelle".
Si tu enregistres un son avec une dynamique inférieure à la pleine échelle, que tu le quantifies en 16bits puis que tu appliques un gain pour remonter son niveau pour qu'il colle au 0dB, tu auras en réalité effectué une quantification sur un nombre moins important de bits (les "tranches supérieures" qui codent l'amplitude du signal ne sont pas utilisées à l'enregistrement).
Si tu dois appliquer un gain de x2 (+6dB) pour obtenir la pleine échelle, tu auras en réalité réalisé une quantification sur 15bits.
L'intérêt d'enregistrés en 24bits et que tu peux appliquer un gain jusqu'à x256 (+48dB) et rester dans un rapport signal à bruit d'un enregistrement "pleine échelle" 16bits (ce qui correspond à la qualité CD). Tu as donc une marge confortable pour bosser et monter tes niveaux après enregistrement.
Tu as aussi une marge sur les sommations : les erreur d'arrondis se cumulent mais il te faudra en ajouter énormément pour que ça s'entendent à la fin sur un support 16bits (ou 14, comme le CD).
Bon, ceci est GRANDEMENT à relativiser :
Il n'est pas rare d'entendre des enregistrements où le bruit de fond ("réel", pas celui lié à la quantification) est parfaitement audible, et si tel est le cas le rapport signal à bruit est inférieur à 90dB... (genre 80 à 60dB).
Quantifier avec plus de 16bits n'est pas forcément pertinent car tous les bits de poids faibles ne servent qu'à coder le bruit de fond ; ils n'apportent pas grand chose (euphémisme). Passer à 24bits est encore moins utile...
Pour résumer :
- Passer un enregistrement de 16bits à 24bits ne sert à rien ; le "mal" est fait.
- Mais pour bosser avec une résolution supérieure à 16bits, il faut de toute façon que le SNR ("réel") soit de plus de 90dB pour en tirer un bénéfice ; il faut donc disposer d'une chaîne d'acquisition qui permet de l'atteindre, et se demander si c'est bien pertinent (par exemple, un vieil ampli à lampes pour basse produit déjà énormément de souffle alors l'enregistrer en 16 bits peut suffire...).
J'arrête ici, mon post est déjà beaucoup trop long


Hohman

J'arrête ici, mon post est déjà beaucoup trop long
Il est juste excellent


laurend

- Le rapport signal sur bruit des meilleurs préamplis analogiques correspond à une conversion 21 bit, donc supérieure au rapport signal/bruit d'une conversion 16 bit surtout si l'on conserve entre 12 et 6 dB de marge pour protéger les convertiseurs d'une éventuelle surmodulation.
- Le travail de mixage de pistes en 16 bit avec un moteur audio 32 ou 64 bit gagnera en définition s'il est restitué en 24 bit.
A tous les stades de la production, le 24 bit est préférable.
Il faut réserver le 16 bit à la diffusion sur CD ou download.
MaximalSound.com
Le mastering algorithmique en ligne depuis 2010
Démo SoundCloud
Sound On Sound Shootout
Crédits YouTube
[ Dernière édition du message le 21/05/2013 à 23:20:24 ]

nuin373

Citation de : Hohman
Citation :J'arrête ici, mon post est déjà beaucoup trop long
Il est juste excellent
Certes !!!!!!!
Laptop i7, Sonar X2 Producer, UA101 (2), Quadmic, Solo6 Be, set micros

rroland

J'arrête ici, mon post est déjà beaucoup trop long
De fait




Mais pour en revenir à la question initiale : quelle que soit la quantification de tes échantillons, le travail de mixage en 24 bit sera préférable.

Anonyme

Citation :
Et même si au départ certains sons que tu utilises sont en 16 bit, tu as intérêt à travailler dans un projet 24 bit car tous les calculs (effets, traitements...) se feront dès lors en 24 bit.
absolument pas!
Citation :
quelle que soit la quantification de tes échantillons, le travail de mixage en 24 bit sera préférable.
le paramétrage du projet n'agit que sur le format d'enregistrement, pas sur la résolution des calculs qui reste la même quelque soit le réglage de la session.
Si tu dois faire des enregistrements, alors c'est préférable de régler la session en 24 bit, de plus ça ne pose aucun soucis aux DAW d'avoir à traiter des sources de résolutions différentes.
Si tu ne composes qu'avec des vsti ou des samples, alors tu te fous du paramétrage de la session.
De là, si tu appliques des effets/traitements gains pan etc... tout ça sera calculé en flottant (32 ou 64 bit selon ta configue et ton soft), tu as donc intérêt à faire l'export de la session en 24 bit (voir 32 bit flottant) si des traitements doivent encore être faits (cas du mastering).
Pour l'export final par contre (gravure cd etc..), 16 bit, avec ou sans dithering, à toi de voir.

AntoLyon

la fréquence serait le nombre de pixels, les bits, la palette de couleurs. En effet, le nombre d'échantillons est la fréquence et les bits la localisation de l'échantillon.
Est ce bon comme analogie ?

Anonyme

Citation :
En effet, le nombre d'échantillons est la fréquence et les bits la localisation de l'échantillon.
la fréquence est le nombre d'échantillon pour un intervalle de temps donné (généralement sur une seconde)
la résolution définis le nombre de paliers disponible pour quantifier la valeur de l'échantillon.
http://www.iict.ch/Tcom/Laboratoires/digivox2000/chap/chap2/quantification.htm

laurend

MaximalSound.com
Le mastering algorithmique en ligne depuis 2010
Démo SoundCloud
Sound On Sound Shootout
Crédits YouTube

EraTom

En fait il faut introduire comment l'on passe d'un "signal 1D" (le signal audio, par exemple) à un "signal 2D" (une image).
Un signal audio peut être résumé à une fonction du temps, un s(t) ; pour une valeur de "t" tu obtiens une valeur "s(t)".
Avant la numérisation, t et s(t) peuvent varier continument.
La numérisation consiste en 2 étapes.
1ère étape : Échantillonnage.
- D'abord on prélève des valeurs s(t) à un intervalle de temps régulier (en général). Par exemple, toutes les Te secondes : s(0) ; s(Te) ; s(2*Te) ; s(3*Te) ; ... ; s(n*Te) etc.
- Les s(n*Te) sont des échantillons (c'est le nom qu'on leurs donne dans le jargon).
- La fréquence d'échantillonnage est l'inverse de cette période Te : Fe = 1/Te.
- Connaissant Fe ou Te, on a l'habitude de laisser tomber le "Te" dans les notations de la série de valeurs : s(0) ; s(1), s(2), ... s(n).
Jusque là, les s(n) peuvent prendre n'importe quelle valeur, continument. C'est là qu'arrive le seconde étape.
2nde étape : La quantification.
- On crée une échelle de valeurs finie. L'écart entre deux valeurs consécutives s'appelle le pas de quantification. En 16bits, on forme des mots binaires (de 16 bits) qui peuvent représenter 2^16 valeurs différentes (pas une de plus).
- Pour chaque s(n), on trouve la valeur de notre échelle la plus proche et on arrondi la valeur s(n) pour la faire coïncider avec.
- Lors de la quantification on introduit une erreur entre la valeur réelle "s(n)" et sa représentation arrondie sur notre échelle "x(n)" : err(n) = s(n) - x(n), ou encore s(n) = x(n) + err(n).
Si l'on s'intéresse d'un peu plus près à err(n), on constate que si elle est assez petit cette erreur se comporte de façon très similaire à un processus aléatoire, un bruit de densité spectrale uniforme : c'est un bruit blanc.
Pour une image nous avons un "rectangle" dans lequel on se balade, et pour chaque point de ce rectangle nous avons une niveau de luminosité (je ne parle que d'une image "en niveau de gris" pour l'instant) ; c'est une fonction de deux variables p(x,y) où x et y sont les coordonnées d'un point du rectangle et p le niveau de luminosité sur ce point.
p(x,y) est similaire à s(t) sauf que nous sommes en "2d" : au lieu d'évoluer au cours du temps "t", nous évoluons suivant deux directions "(x,y)".
1ère étape : Échantillonnage.
- Là où l'on regardait la valeur prise par s(t) toutes les Te secondes, ici nous piochons des valeurs de p(x,y) sur des points espacés régulièrement, à une distance de xe entre 2 colonnes et ye entre 2 lignes.
Pour la 1ère ligne : p(0,0) ; p(1*xe,0) ; p(2*xe,0) ; ... ; p(i*xe,0)
Pour la 2ème ligne : p(0,1*ye) ; p(1*xe,1*ye) ; p(2*xe,1*ye) ; ... ; p(i*xe,1*ye)
...
Pour la jème ligne : p(0,j*ye) ; p(1*xe,j*ye) ; p(2*xe,j*ye) ; ... ; p(i*xe,j*ye)
- Comme pour les échantillons s(n*Te), lorsque l'on connait xe et ye constants on les laisse tomber pour alléger les notations : on obtient un ensemble de valeurs p(0,0), p(0,1), ..., p(i,j).
Ce sont des échantillons pris sur l'image, et dans le jargon on les appelles... les pixels.
- Il y a 2 fréquences d'échantillonnages spatiales (dans les deux directions) : 1/xe et 1/ye.
Pour info, aujourd'hui on dispose de capteurs matricielles qui prélèvent tous les pixels (échantillons) en même temps, mais à une époque pas si lointaine il n'y avait qu'un seul "pixel" qui balayait un secteur angulaire (un peu comme un radar) et on les prenait 1 par 1 ; le parallèle avec s(t) qui évolue au cours du temps est alors peut-être plus évident (et dans les années 80 on trouvait encore beaucoup de capteurs "barrettes" qui prenaient une colonne entière et qui balayait un secteur angulaire pour former les lignes, un peu comme un pinceau).
2nde étape : Quantification.
- Comme pour les valeur d'amplitude de s(n*Te), les valeurs de luminosité de p(i*xe,i*ye) peuvent encore varier continument.
- Ces valeurs sont quantifiées (généralement sur 8bits, soit 256 niveaux de luminosités) et on arrondit les p(x,y) comme on arrondit les s(t).
- Comme pour la quantification du signal audio, l'arrondi introduit une erreur qui est comparable à un bruit blanc (2d). C'est les images de neige que l'on peut voir sur un télé qui ne reçoit pas d'image.
la fréquence serait le nombre de pixels
Grosso modo, c'est ça. Une caméra a un angle d'ouverture fixe (qui dépend de l'optique), augmenter la fréquence d'échantillonnage revient à augmenter le nombre de pixels dans l'image.
les bits, la palette de couleurs
Pour les images couleurs, le processus est réalisé 3 fois pour le rouge, le vert et le bleu (il y a 3 "cartes" de luminosités superposées).
Les bits donnent le nombre de valeurs possibles de la luminosité en rouge, vert et bleu (indépendamment).
Pour afficher un pixel vert vif, on trouve une luminosité de 0% pour le rouge et de bleu et de 100% pour le vert.
Pour du noir tous à 0%, pour du blanc tous à 100%. Et pour passer d'une couleur à un autre on ne peut le faire qu'en utilisant l'échelle de luminosité quantifiées.
Visuellement, une soixantaine de niveaux suffirait pour être indiscernable à l’œil. Si on prend 8bits c'est parce que l'informatique ne fait pas plus petit comme mot binaire... alors du coup on dispose de beaucoup plus de niveaux que nécessaire.
les bits la localisation de l'échantillon.
La localisation du pixel dans l'image c'est ce qui est échantillonné, mais je pense que si tu as lu ce qui précède tu as dû piger


EraTom

la résolution définis le nombre de paliers disponible pour quantifier la valeur de l'échantillon
En métrologie, la résolution est la capacité d'un appareil à discerner deux valeurs différentes. Quand elles sont trop proches il peut les confondre, c'est la limite que l'on appelle la résolution.
En théorie du signal (et de l'image), lorsque l'on parle de la résolution d'un signal discret c'est la quantification qui est évoquée. Dans l'image c'est le plus petit écart niveau de luminosité.
Dans le grand public, on parle de "résolution spatiale" pour évoquer le nombre de pixels par cm², alors que dans le jargon technique et scientifique ceci et bien lié à l'échantillonnage et pas à la quantification. On évite soigneusement de parler de "résolution spatiale" pour éviter les confusion.
On préfère parler d'ifov (instantaneous field of view) qui est le plus petit élément "d'angle solide" représenté sur l'image.
[ Dernière édition du message le 23/05/2013 à 10:57:04 ]
- < Liste des sujets
- Charte