Se connecter
Se connecter

ou
Créer un compte

ou

Sujet Master en 16 ou 24 bits

  • 22 réponses
  • 10 participants
  • 3 842 vues
  • 10 followers
Sujet de la discussion Master en 16 ou 24 bits
Bonjour

j'ai des projets cubase avec des enregistrements faits en 16bits

Dois je garder ce format ou ai je un intérêt à les rendre en 24 bits pour le mastering ?
Afficher le sujet de la discussion
21
Un bon lien pour débuter dans le numérique.
22
Ok je réponds parce que c'est ton fil, mais je crois que ça t'écarte de ton problème premier.
En fait il faut introduire comment l'on passe d'un "signal 1D" (le signal audio, par exemple) à un "signal 2D" (une image).

Un signal audio peut être résumé à une fonction du temps, un s(t) ; pour une valeur de "t" tu obtiens une valeur "s(t)".
Avant la numérisation, t et s(t) peuvent varier continument.

La numérisation consiste en 2 étapes.

1ère étape : Échantillonnage.
- D'abord on prélève des valeurs s(t) à un intervalle de temps régulier (en général). Par exemple, toutes les Te secondes : s(0) ; s(Te) ; s(2*Te) ; s(3*Te) ; ... ; s(n*Te) etc.
- Les s(n*Te) sont des échantillons (c'est le nom qu'on leurs donne dans le jargon).
- La fréquence d'échantillonnage est l'inverse de cette période Te : Fe = 1/Te.
- Connaissant Fe ou Te, on a l'habitude de laisser tomber le "Te" dans les notations de la série de valeurs : s(0) ; s(1), s(2), ... s(n).

Jusque là, les s(n) peuvent prendre n'importe quelle valeur, continument. C'est là qu'arrive le seconde étape.

2nde étape : La quantification.
- On crée une échelle de valeurs finie. L'écart entre deux valeurs consécutives s'appelle le pas de quantification. En 16bits, on forme des mots binaires (de 16 bits) qui peuvent représenter 2^16 valeurs différentes (pas une de plus).
- Pour chaque s(n), on trouve la valeur de notre échelle la plus proche et on arrondi la valeur s(n) pour la faire coïncider avec.
- Lors de la quantification on introduit une erreur entre la valeur réelle "s(n)" et sa représentation arrondie sur notre échelle "x(n)" : err(n) = s(n) - x(n), ou encore s(n) = x(n) + err(n).

Si l'on s'intéresse d'un peu plus près à err(n), on constate que si elle est assez petit cette erreur se comporte de façon très similaire à un processus aléatoire, un bruit de densité spectrale uniforme : c'est un bruit blanc.


Pour une image nous avons un "rectangle" dans lequel on se balade, et pour chaque point de ce rectangle nous avons une niveau de luminosité (je ne parle que d'une image "en niveau de gris" pour l'instant) ; c'est une fonction de deux variables p(x,y) où x et y sont les coordonnées d'un point du rectangle et p le niveau de luminosité sur ce point.
p(x,y) est similaire à s(t) sauf que nous sommes en "2d" : au lieu d'évoluer au cours du temps "t", nous évoluons suivant deux directions "(x,y)".


1ère étape : Échantillonnage.
- Là où l'on regardait la valeur prise par s(t) toutes les Te secondes, ici nous piochons des valeurs de p(x,y) sur des points espacés régulièrement, à une distance de xe entre 2 colonnes et ye entre 2 lignes.
Pour la 1ère ligne : p(0,0) ; p(1*xe,0) ; p(2*xe,0) ; ... ; p(i*xe,0)
Pour la 2ème ligne : p(0,1*ye) ; p(1*xe,1*ye) ; p(2*xe,1*ye) ; ... ; p(i*xe,1*ye)
...
Pour la jème ligne : p(0,j*ye) ; p(1*xe,j*ye) ; p(2*xe,j*ye) ; ... ; p(i*xe,j*ye)

- Comme pour les échantillons s(n*Te), lorsque l'on connait xe et ye constants on les laisse tomber pour alléger les notations : on obtient un ensemble de valeurs p(0,0), p(0,1), ..., p(i,j).
Ce sont des échantillons pris sur l'image, et dans le jargon on les appelles... les pixels.
- Il y a 2 fréquences d'échantillonnages spatiales (dans les deux directions) : 1/xe et 1/ye.

Pour info, aujourd'hui on dispose de capteurs matricielles qui prélèvent tous les pixels (échantillons) en même temps, mais à une époque pas si lointaine il n'y avait qu'un seul "pixel" qui balayait un secteur angulaire (un peu comme un radar) et on les prenait 1 par 1 ; le parallèle avec s(t) qui évolue au cours du temps est alors peut-être plus évident (et dans les années 80 on trouvait encore beaucoup de capteurs "barrettes" qui prenaient une colonne entière et qui balayait un secteur angulaire pour former les lignes, un peu comme un pinceau).

2nde étape : Quantification.
- Comme pour les valeur d'amplitude de s(n*Te), les valeurs de luminosité de p(i*xe,i*ye) peuvent encore varier continument.
- Ces valeurs sont quantifiées (généralement sur 8bits, soit 256 niveaux de luminosités) et on arrondit les p(x,y) comme on arrondit les s(t).
- Comme pour la quantification du signal audio, l'arrondi introduit une erreur qui est comparable à un bruit blanc (2d). C'est les images de neige que l'on peut voir sur un télé qui ne reçoit pas d'image.



Citation :
la fréquence serait le nombre de pixels

Grosso modo, c'est ça. Une caméra a un angle d'ouverture fixe (qui dépend de l'optique), augmenter la fréquence d'échantillonnage revient à augmenter le nombre de pixels dans l'image.

Citation :
les bits, la palette de couleurs

Pour les images couleurs, le processus est réalisé 3 fois pour le rouge, le vert et le bleu (il y a 3 "cartes" de luminosités superposées).
Les bits donnent le nombre de valeurs possibles de la luminosité en rouge, vert et bleu (indépendamment).

Pour afficher un pixel vert vif, on trouve une luminosité de 0% pour le rouge et de bleu et de 100% pour le vert.
Pour du noir tous à 0%, pour du blanc tous à 100%. Et pour passer d'une couleur à un autre on ne peut le faire qu'en utilisant l'échelle de luminosité quantifiées.

Visuellement, une soixantaine de niveaux suffirait pour être indiscernable à l’œil. Si on prend 8bits c'est parce que l'informatique ne fait pas plus petit comme mot binaire... alors du coup on dispose de beaucoup plus de niveaux que nécessaire.


Citation :
les bits la localisation de l'échantillon.

La localisation du pixel dans l'image c'est ce qui est échantillonné, mais je pense que si tu as lu ce qui précède tu as dû piger ;)
23
Citation :
la résolution définis le nombre de paliers disponible pour quantifier la valeur de l'échantillon
Ah oui, c'est un mot de vocabulaire qui peut porter à confusion.

En métrologie, la résolution est la capacité d'un appareil à discerner deux valeurs différentes. Quand elles sont trop proches il peut les confondre, c'est la limite que l'on appelle la résolution.

En théorie du signal (et de l'image), lorsque l'on parle de la résolution d'un signal discret c'est la quantification qui est évoquée. Dans l'image c'est le plus petit écart niveau de luminosité.

Dans le grand public, on parle de "résolution spatiale" pour évoquer le nombre de pixels par cm², alors que dans le jargon technique et scientifique ceci et bien lié à l'échantillonnage et pas à la quantification. On évite soigneusement de parler de "résolution spatiale" pour éviter les confusion.
On préfère parler d'ifov (instantaneous field of view) qui est le plus petit élément "d'angle solide" représenté sur l'image.

[ Dernière édition du message le 23/05/2013 à 10:57:04 ]