Se connecter
Se connecter

ou
Créer un compte

ou

Sujet UNE FOIS POUR TOUTE !

  • 61 réponses
  • 16 participants
  • 7 180 vues
  • 23 followers
Sujet de la discussion UNE FOIS POUR TOUTE !

Hello,

 

A force de lire, d'entendre tout et son contraire je souhaite une fois pour toute que l'on résolve ces deux questions :

- Freq / bits pour configurer son projet dans cubase

- niveaux à l'enregistrement RMS et Peak

 

Freq / BITS : on est tous d'accord pour dire que configurer un projet en 16 bit / 44,1khz n'est plus trop d'actualité ! Surtout avec la mort du cd , nos "oeuvres" finiront plus sur iTunes que dans les Fnac ...

J'ai pu lire pour la fréquence, qu' il faut soit rester en 44,1khz ou soit la doubler donc 88,2khz (quand c'est pour l'audio / sinon pour la video c 'est 48khz)

Quand est il vraiment ?

Pour le 16 bits , tout le monde s'accorde de mettre au minimum 24bits . Quel est la difference des bits pour l'enregistrement et du fameux 32bits flottant à partir duquel cubase fonctionne ...?

 

En gros sous cubase 7 , avec une RME UC quel est la meilleur résolution à choisir pour le projet ?

Quel est l incidence sur la latence et l optimisation des calculs interne ?

 

RMS / PEAK : J'ai lu l'article sur les niveaux d'enregistrement . Bien compris qu'il fallait enregistrer la source à -18db RMS . On m'a dis aussi qu'en plus de ces -18 db il faut que les peak soit max à -6db pour avoir une marge .

 

Quel est donc le bon niveaux à la prise ?

Ensuite pour la mesure , pourquoi il y a une difference de vumètre (RMS et Peak) entre celui de cubase et par ex celui du Braiworx meter  ou ceui d'ozone insight ? il ne sont pas qualibré de la même façon ?

Ce qui est étrange c'est que tout les indicateurs de Peak/RMS que j'ai indiquent tous à peu près les mêmes niveaux mais du coup tous déferrent de celui de cubase ....

 

Merci

 

Minimoog => Radial JDI => Phoenix Audio DRS-Q4 => RME UC => Focal Solo 6

Afficher le sujet de la discussion
31
Citation de EraTom :

Tu vois alors (j'espère ne pas t'avoir perdu en détails inutiles) que l'interpolation linéaire n'est pas ce qu'il faut faire : une interpolation linéaire entre deux échantillons revient à utiliser un filtre moyenneur, qui est bien un filtre passe-bas mais qui est loin d'être proche de l'optimal recherché.


Non, tu ne m'a pas perdu en détails inutiles bien que je serai incapable de refaire ces calculs. Je comprend bien ce que tu écris, mais ces méthodes difficiles à mettre en place et coûteuses ne concerne surement que le haut de gamme de la conversion. Malheureusement aujourd'hui beaucoup de productions sont enregistrées avec des cartes son moyenne à bas de gamme. J'ai pas fais le test, mais c'est plus que possible qu'à l'écoute je préfère un 44.1khz bien réalisé qu'un 88.2khz d'une carte son bas de gamme. En tout cas merci pour ces précisions.


Citation de EraTom :

Pour les transitoires maintenant (et enfin) :

On essaie d'utiliser des formes de fenêtres qui limitent les rebonds, mais l'étalement ne peut pas être contré : conséquence du théorème d'incertitude.


Et bien c'est aussi vrai dans l'autre sens : si l'on réduit la bande de fréquence d'un signal, on l'étale dans le temps.
Un transitoire très bref présente un spectre étalé ; si l'on le fait passer dans un filtre qui réduit son support spectral (ce que l'on doit faire pour l'antialiasing) on l'étale inévitablement dans le temps.

Du coup, en montant en fréquence d'échantillonnage on restitue mieux un transitoire très bref, c'est vrai. Mais il faudrait que la cible elle-même reste à cette fréquence d'échantillonnage élevée.


Si l'on termine sur une cible avec une fréquence d'échantillonnage plus basse, les transitoires seront de toutes manières étalés.

Oui, mais je ne pense pas que ce soit le même résultat de faire ça sur 50 fichiers sources que sur le mix final une seule fois surtout que ça a plus de chances d'être réalisé avec une bonne machine au mastering.

Citation de EraTom :

On peut alors objecter qu'en travaillant à une fréquence plus élevée on peut mieux "shapper" les transitoires et leur dynamique.
Le problème (parce qu'il y en a toujours, décidément) c'est que le phénomène de Gibbs vient semer la pagaille.
https://fr.wikipedia.org/wiki/Ph%C3%A9nom%C3%A8ne_de_Gibbs

Si l'on a réalisé un master @88Hz, que le niveau crête a été travaillé pour taper juste en dessous du 0dB et que l'on sous-échantillonne tout ça @44Hz, on peut avoir la belle surprise de constater que le signal repasse au-dessus de 0dB : master à reprendre à cause des transitoires :|


Je connais ce phénomène, d'ailleurs toute personne qui fait du mastering devrait savoir ça. Mais je n'ai jamais eu autant de précisions. Du coup en connaissant ce problème de crêtes, c'est quand même mieux pour les transitoires de travailler en 88.2khz, c'est surement ça que je doit entendre. C'est très intéressant tout ça. Encore une fois merci.

 

32
Je flague, sujet intéressant mais qui demande un peu de temps de réflexion après l'exposé d'Eratom, un qui n'a pas fait l'école buissonière le jour de la distribution des cerveaux ! Je comprends d'ailleurs et en passant ton ambition de faire le lien entre deux mondes. Je suis un exploitant dont les bases théoriques étaient sérieuses avant l'invention du numérique, et correctes je crois encore de nos jours, sans rivaliser avec des ténors de ton acabit. Mais il est tout à fait vrai que l'absence de bases sérieuses n'est pas un frein au fait d'ouvrir sa bouche pour affirmer n'importe nawak dans notre petite industrie, particulièrement dans le domaine numérique. C'est pourquoi je suis bien heureux de pouvoir me cultiver sur des filières comme celle-ci. Rien n'est pire que l'affirmation de théories fumeuses basées sur des légendes souvent colportées dans le seul but d'asseoir une crédibilité sur du vent de sable. Merci pour ça Eratom. C'était mon quart d'heure brosse à reluire !
33
Apropps du phénomène de Gibbs, l'invention des contrôles "true peak" devrait pouvoir résoudre le problème de la visualisation, et donc de la prise en compte du problème.
34
Merci pour le coup de brosse à reluire (grand moment du "Petit Rapporteur" que je désespère de retrouver sur Youtube).

Je ne connaissais pas le "true peak" ; je vais me pencher sur le bidule.
35
oui Eratom, tu es très calé en math-physique mais sauras tu m'expliquer avec des mots simples pourquoi on utilise le sur-échantillonage et le filtrage pour la conversion Analogique/numérique ???

Autant il me parait évident d'utiliser le sur-échantillonage+filtrage lors de la conversion N/A ( "créneaux" plus petits et donc aliasing plus haut en fréquence ) autant je ne vois aucune raison d'utiliser cette technique pour un signal qui va se retrouver stocké sur un disque dur et surtout se retrouver inévitablement avec l'effet de "crénelage" inhérent au format d'échantillonage choisi pour l'enregistrement.

En quoi les bits issus de la moulinette "sur-échantillonage+filtrage" seront ils une représentation plus précise du son capté que si on avait pris la valeur "brut" ???


36
Mon stage de 2nde année en école d'ing c'était la réalisation d'un tel CAN dans un labo de recherche en TSI ;)

La chaîne c'est sur-échantillonnage, filtrage, sous-échantillonage.

Grossièrement l'idée est que pour un échantillon en bout de chaine, on a réalisé plusieurs mesures avec une erreur (sur-échantillonnage) dont on fait une "moyenne" (effet du filtrage). En moyennant toutes ces mesures on arrive a avoir une estimation plus précise de la valeur réelle.

Si tu veux je peux rentrer plus dans le détail et expliquer pourquoi l'on place la fameuse "modulation delta-sigma" dans ces acquisitions, mais là il est tard et je vais me pieuter. En plus ce weekend j'ai prévu une méga-bringue... il faudra attendre la semaine prochaine. hu hu hu :mdr:
37
Citation :
Grossièrement l'idée est que pour un échantillon en bout de chaine, on a réalisé plusieurs mesures avec une erreur (sur-échantillonnage) dont on fait une "moyenne" (effet du filtrage). En moyennant toutes ces mesures on arrive a avoir une estimation plus précise de la valeur réelle.

Merci Eratom. Je pensais bien que c'était une question de "moyenne" ré&lisée à partir des valeurs sur-échantillonnées mais je ne savais pas que les CAN embarquaient des fonctions mathématiques....Il faut additionner et diviser pour faire une moyenne, non ??

Tu indiques que le filtrage réalise cette moyenne et là je ne comprends pas...

Bon week end ;=)

ps : merci de continuer l'explication sans utiliser trop de math....

[ Dernière édition du message le 25/10/2013 à 11:54:08 ]

38
Sans math... à partir d'un niveau de détail c'est impossible. Il y aura certains points qu'il faudra que tu admettes.

Pour réaliser un filtrage numérique il faut calculer un produit de convolution ou calculer une "équation aux différences" et donc faire des calculs, mais ça ne veut pas dire que l'on va placer un DSP dans chaque CAN de ce genre : il existe d'autre techno comme les FPGA et les ASIC qui permettent de tout faire en "logique câblée".
Diviser par une valeur constante n'est pas plus compliqué que multiplier : diviser par 5 revient à multiplier par 1/5 = 0.2, par exemple.

Le calcul d'une moyenne sur un nombre d'échantillons glissant (les N derniers échantillons disponibles) revient à appliquer un filtre passe-bas, mais quand j'évoque une "moyenne" c'est une simplification (qui permet tout de même de comprendre un peu ce qui se passe) : on estime la valeur d'un échantillon à partir de plusieurs mesures.


L'erreur de quantification se comporte comme un bruit blanc de moyenne nulle : la puissance de ce bruit est répartie uniformément sur tout le spectre ; le même niveau.
La puissance totale du bruit ne dépend que de la taille du pas de quantification (donnée par le nombre de bits) du coup si l'on élargie la bande passante en sur-échantillonnant, le niveau du bruit à chaque fréquence baisse. Pour le dire autrement, la puissance liée à l'erreur de quantification est équirépartie sur une bande de fréquences plus large.


En sur-échantillonnant à une fréquence plus élevée que "nécessaire", la puissance du bruit de quantification dans la bande utile baisse (le reste de sa puissance se trouve dans le reste du spectre, qui ne contient pas le signal qui nous intéresse).
En appliquant un filtre passe-bas pour récupérer uniquement le contenu de la bande utile puis en sous-échantillonnant, on améliore la précision puisque la puissance du bruit de quantification a baissé.
39
Citation :
Sans math... à partir d'un niveau de détail c'est impossible. Il y aura certains points qu'il faudra que tu admettes.


Oui, bien sur, c'est au moins le principe qui m'intéresse et je sais bien bien que les math sont une science exacte donc pas de discussion sur ce point.

Merci pour ta réponse, c'était clair.

Par contre au niveau qualitatif, on est bien d'accord que l'effet de ce procédé (sur-échantillonage+filtrage) pour un CAN est beaucoup moins perceptible que pour un CNA (n'est ce pas ? )

Je vais peut-être étonner certaines personnes mais je désactive systématiquement le sur-échantillonage sur les plugins proposant cette option car, certes, le son est plus "lisse", plus propre, mais j'ai toujours l'impression qu'il perd quelque chose dans le processus. (pratiqué en test A/B aveugle)

Pour un convertisseur, le test A/B est impossible, à moins de l'avoir conçu avec un switch proposant les 2 technologies.....

[ Dernière édition du message le 25/10/2013 à 22:30:03 ]

40
Citation de Cola :
Je vais peut-être étonner certaines personnes mais je désactive systématiquement le sur-échantillonage sur les plugins proposant cette option car, certes, le son est plus "lisse", plus propre, mais j'ai toujours l'impression qu'il perd quelque chose dans le processus. (pratiqué en test A/B aveugle)


Ça me semble un peu hors sujet, c'est pour dire que je ne suis pas étonné.
Lors d'une phase de bêta test un développeur nous a proposé de tester un plugin avec différent niveaux de sur-échantillonnage dans le but de trouver le meilleur compromis entre la qualité de son et la consommation processeur. Après un choix de niveaux de sur-échantillonnage dépendant de la moyenne des bêta testeurs nous avons eu une nouvelle version avec un sur-échantillonnage fixe, la suite du boulot était d'améliorer le son et la consommation. Je sais pas si j'ai juste mais je déduis par cette expérience que la meilleur optimisation d'un plu-gin doit être faite de manière fixe.

[ Dernière édition du message le 25/10/2013 à 23:01:25 ]