UNE FOIS POUR TOUTE !
- 61 réponses
- 16 participants
- 7 257 vues
- 23 followers
mrfat
Hello,
A force de lire, d'entendre tout et son contraire je souhaite une fois pour toute que l'on résolve ces deux questions :
- Freq / bits pour configurer son projet dans cubase
- niveaux à l'enregistrement RMS et Peak
Freq / BITS : on est tous d'accord pour dire que configurer un projet en 16 bit / 44,1khz n'est plus trop d'actualité ! Surtout avec la mort du cd , nos "oeuvres" finiront plus sur iTunes que dans les Fnac ...
J'ai pu lire pour la fréquence, qu' il faut soit rester en 44,1khz ou soit la doubler donc 88,2khz (quand c'est pour l'audio / sinon pour la video c 'est 48khz)
Quand est il vraiment ?
Pour le 16 bits , tout le monde s'accorde de mettre au minimum 24bits . Quel est la difference des bits pour l'enregistrement et du fameux 32bits flottant à partir duquel cubase fonctionne ...?
En gros sous cubase 7 , avec une RME UC quel est la meilleur résolution à choisir pour le projet ?
Quel est l incidence sur la latence et l optimisation des calculs interne ?
RMS / PEAK : J'ai lu l'article sur les niveaux d'enregistrement . Bien compris qu'il fallait enregistrer la source à -18db RMS . On m'a dis aussi qu'en plus de ces -18 db il faut que les peak soit max à -6db pour avoir une marge .
Quel est donc le bon niveaux à la prise ?
Ensuite pour la mesure , pourquoi il y a une difference de vumètre (RMS et Peak) entre celui de cubase et par ex celui du Braiworx meter ou ceui d'ozone insight ? il ne sont pas qualibré de la même façon ?
Ce qui est étrange c'est que tout les indicateurs de Peak/RMS que j'ai indiquent tous à peu près les mêmes niveaux mais du coup tous déferrent de celui de cubase ....
Merci
Minimoog => Radial JDI => Phoenix Audio DRS-Q4 => RME UC => Focal Solo 6
Guaige
Tu vois alors (j'espère ne pas t'avoir perdu en détails inutiles) que l'interpolation linéaire n'est pas ce qu'il faut faire : une interpolation linéaire entre deux échantillons revient à utiliser un filtre moyenneur, qui est bien un filtre passe-bas mais qui est loin d'être proche de l'optimal recherché.
Non, tu ne m'a pas perdu en détails inutiles bien que je serai incapable de refaire ces calculs. Je comprend bien ce que tu écris, mais ces méthodes difficiles à mettre en place et coûteuses ne concerne surement que le haut de gamme de la conversion. Malheureusement aujourd'hui beaucoup de productions sont enregistrées avec des cartes son moyenne à bas de gamme. J'ai pas fais le test, mais c'est plus que possible qu'à l'écoute je préfère un 44.1khz bien réalisé qu'un 88.2khz d'une carte son bas de gamme. En tout cas merci pour ces précisions.
Pour les transitoires maintenant (et enfin) :
On essaie d'utiliser des formes de fenêtres qui limitent les rebonds, mais l'étalement ne peut pas être contré : conséquence du théorème d'incertitude.
Et bien c'est aussi vrai dans l'autre sens : si l'on réduit la bande de fréquence d'un signal, on l'étale dans le temps.
Un transitoire très bref présente un spectre étalé ; si l'on le fait passer dans un filtre qui réduit son support spectral (ce que l'on doit faire pour l'antialiasing) on l'étale inévitablement dans le temps.
Du coup, en montant en fréquence d'échantillonnage on restitue mieux un transitoire très bref, c'est vrai. Mais il faudrait que la cible elle-même reste à cette fréquence d'échantillonnage élevée.
Si l'on termine sur une cible avec une fréquence d'échantillonnage plus basse, les transitoires seront de toutes manières étalés.
Oui, mais je ne pense pas que ce soit le même résultat de faire ça sur 50 fichiers sources que sur le mix final une seule fois surtout que ça a plus de chances d'être réalisé avec une bonne machine au mastering.
On peut alors objecter qu'en travaillant à une fréquence plus élevée on peut mieux "shapper" les transitoires et leur dynamique.
Le problème (parce qu'il y en a toujours, décidément) c'est que le phénomène de Gibbs vient semer la pagaille.
https://fr.wikipedia.org/wiki/Ph%C3%A9nom%C3%A8ne_de_Gibbs
Si l'on a réalisé un master @88Hz, que le niveau crête a été travaillé pour taper juste en dessous du 0dB et que l'on sous-échantillonne tout ça @44Hz, on peut avoir la belle surprise de constater que le signal repasse au-dessus de 0dB : master à reprendre à cause des transitoires
Je connais ce phénomène, d'ailleurs toute personne qui fait du mastering devrait savoir ça. Mais je n'ai jamais eu autant de précisions. Du coup en connaissant ce problème de crêtes, c'est quand même mieux pour les transitoires de travailler en 88.2khz, c'est surement ça que je doit entendre. C'est très intéressant tout ça. Encore une fois merci.
Anonyme
Anonyme
EraTom
Je ne connaissais pas le "true peak" ; je vais me pencher sur le bidule.
Spacionot (ex Cola Verde)
Autant il me parait évident d'utiliser le sur-échantillonage+filtrage lors de la conversion N/A ( "créneaux" plus petits et donc aliasing plus haut en fréquence ) autant je ne vois aucune raison d'utiliser cette technique pour un signal qui va se retrouver stocké sur un disque dur et surtout se retrouver inévitablement avec l'effet de "crénelage" inhérent au format d'échantillonage choisi pour l'enregistrement.
En quoi les bits issus de la moulinette "sur-échantillonage+filtrage" seront ils une représentation plus précise du son capté que si on avait pris la valeur "brut" ???
EraTom
La chaîne c'est sur-échantillonnage, filtrage, sous-échantillonage.
Grossièrement l'idée est que pour un échantillon en bout de chaine, on a réalisé plusieurs mesures avec une erreur (sur-échantillonnage) dont on fait une "moyenne" (effet du filtrage). En moyennant toutes ces mesures on arrive a avoir une estimation plus précise de la valeur réelle.
Si tu veux je peux rentrer plus dans le détail et expliquer pourquoi l'on place la fameuse "modulation delta-sigma" dans ces acquisitions, mais là il est tard et je vais me pieuter. En plus ce weekend j'ai prévu une méga-bringue... il faudra attendre la semaine prochaine. hu hu hu
Spacionot (ex Cola Verde)
Grossièrement l'idée est que pour un échantillon en bout de chaine, on a réalisé plusieurs mesures avec une erreur (sur-échantillonnage) dont on fait une "moyenne" (effet du filtrage). En moyennant toutes ces mesures on arrive a avoir une estimation plus précise de la valeur réelle.
Merci Eratom. Je pensais bien que c'était une question de "moyenne" ré&lisée à partir des valeurs sur-échantillonnées mais je ne savais pas que les CAN embarquaient des fonctions mathématiques....Il faut additionner et diviser pour faire une moyenne, non ??
Tu indiques que le filtrage réalise cette moyenne et là je ne comprends pas...
Bon week end ;=)
ps : merci de continuer l'explication sans utiliser trop de math....
[ Dernière édition du message le 25/10/2013 à 11:54:08 ]
EraTom
Pour réaliser un filtrage numérique il faut calculer un produit de convolution ou calculer une "équation aux différences" et donc faire des calculs, mais ça ne veut pas dire que l'on va placer un DSP dans chaque CAN de ce genre : il existe d'autre techno comme les FPGA et les ASIC qui permettent de tout faire en "logique câblée".
Diviser par une valeur constante n'est pas plus compliqué que multiplier : diviser par 5 revient à multiplier par 1/5 = 0.2, par exemple.
Le calcul d'une moyenne sur un nombre d'échantillons glissant (les N derniers échantillons disponibles) revient à appliquer un filtre passe-bas, mais quand j'évoque une "moyenne" c'est une simplification (qui permet tout de même de comprendre un peu ce qui se passe) : on estime la valeur d'un échantillon à partir de plusieurs mesures.
L'erreur de quantification se comporte comme un bruit blanc de moyenne nulle : la puissance de ce bruit est répartie uniformément sur tout le spectre ; le même niveau.
La puissance totale du bruit ne dépend que de la taille du pas de quantification (donnée par le nombre de bits) du coup si l'on élargie la bande passante en sur-échantillonnant, le niveau du bruit à chaque fréquence baisse. Pour le dire autrement, la puissance liée à l'erreur de quantification est équirépartie sur une bande de fréquences plus large.
En sur-échantillonnant à une fréquence plus élevée que "nécessaire", la puissance du bruit de quantification dans la bande utile baisse (le reste de sa puissance se trouve dans le reste du spectre, qui ne contient pas le signal qui nous intéresse).
En appliquant un filtre passe-bas pour récupérer uniquement le contenu de la bande utile puis en sous-échantillonnant, on améliore la précision puisque la puissance du bruit de quantification a baissé.
Spacionot (ex Cola Verde)
Sans math... à partir d'un niveau de détail c'est impossible. Il y aura certains points qu'il faudra que tu admettes.
Oui, bien sur, c'est au moins le principe qui m'intéresse et je sais bien bien que les math sont une science exacte donc pas de discussion sur ce point.
Merci pour ta réponse, c'était clair.
Par contre au niveau qualitatif, on est bien d'accord que l'effet de ce procédé (sur-échantillonage+filtrage) pour un CAN est beaucoup moins perceptible que pour un CNA (n'est ce pas ? )
Je vais peut-être étonner certaines personnes mais je désactive systématiquement le sur-échantillonage sur les plugins proposant cette option car, certes, le son est plus "lisse", plus propre, mais j'ai toujours l'impression qu'il perd quelque chose dans le processus. (pratiqué en test A/B aveugle)
Pour un convertisseur, le test A/B est impossible, à moins de l'avoir conçu avec un switch proposant les 2 technologies.....
[ Dernière édition du message le 25/10/2013 à 22:30:03 ]
Hohman
Je vais peut-être étonner certaines personnes mais je désactive systématiquement le sur-échantillonage sur les plugins proposant cette option car, certes, le son est plus "lisse", plus propre, mais j'ai toujours l'impression qu'il perd quelque chose dans le processus. (pratiqué en test A/B aveugle)
Ça me semble un peu hors sujet, c'est pour dire que je ne suis pas étonné.
Lors d'une phase de bêta test un développeur nous a proposé de tester un plugin avec différent niveaux de sur-échantillonnage dans le but de trouver le meilleur compromis entre la qualité de son et la consommation processeur. Après un choix de niveaux de sur-échantillonnage dépendant de la moyenne des bêta testeurs nous avons eu une nouvelle version avec un sur-échantillonnage fixe, la suite du boulot était d'améliorer le son et la consommation. Je sais pas si j'ai juste mais je déduis par cette expérience que la meilleur optimisation d'un plu-gin doit être faite de manière fixe.
[ Dernière édition du message le 25/10/2013 à 23:01:25 ]
- < Liste des sujets
- Charte