UNE FOIS POUR TOUTE !
- 61 réponses
- 16 participants
- 7 222 vues
- 23 followers
mrfat
Hello,
A force de lire, d'entendre tout et son contraire je souhaite une fois pour toute que l'on résolve ces deux questions :
- Freq / bits pour configurer son projet dans cubase
- niveaux à l'enregistrement RMS et Peak
Freq / BITS : on est tous d'accord pour dire que configurer un projet en 16 bit / 44,1khz n'est plus trop d'actualité ! Surtout avec la mort du cd , nos "oeuvres" finiront plus sur iTunes que dans les Fnac ...
J'ai pu lire pour la fréquence, qu' il faut soit rester en 44,1khz ou soit la doubler donc 88,2khz (quand c'est pour l'audio / sinon pour la video c 'est 48khz)
Quand est il vraiment ?
Pour le 16 bits , tout le monde s'accorde de mettre au minimum 24bits . Quel est la difference des bits pour l'enregistrement et du fameux 32bits flottant à partir duquel cubase fonctionne ...?
En gros sous cubase 7 , avec une RME UC quel est la meilleur résolution à choisir pour le projet ?
Quel est l incidence sur la latence et l optimisation des calculs interne ?
RMS / PEAK : J'ai lu l'article sur les niveaux d'enregistrement . Bien compris qu'il fallait enregistrer la source à -18db RMS . On m'a dis aussi qu'en plus de ces -18 db il faut que les peak soit max à -6db pour avoir une marge .
Quel est donc le bon niveaux à la prise ?
Ensuite pour la mesure , pourquoi il y a une difference de vumètre (RMS et Peak) entre celui de cubase et par ex celui du Braiworx meter ou ceui d'ozone insight ? il ne sont pas qualibré de la même façon ?
Ce qui est étrange c'est que tout les indicateurs de Peak/RMS que j'ai indiquent tous à peu près les mêmes niveaux mais du coup tous déferrent de celui de cubase ....
Merci
Minimoog => Radial JDI => Phoenix Audio DRS-Q4 => RME UC => Focal Solo 6
Guaige
FAB_caluire
J'avais pour ma part appris que l'intérêt du 48khz ou plus n'était effectivement pas tant un gain de qualité immédiatement audible pour nos oreilles (ou le 44k final et sa bande passante fe/2 sera suffisante pour nos oreilles) mais plus pour les traitements successifs par nos plugins numériques. Par exemple, un eq type high shelf sera exploiter ce "surplus" de sample.
C'est un peu l'histoire du photographe qui gomme mieux des petits défauts avec photoshop sur une image haute résolution 4000x3000 (via grossissement) plutôt que sur l'image finale qui sera peut être jpg 800x600... Mais la comparaison des 2 photos brutes avant retouche à l'oeil en terme de qualité... il y en a pas vraiment. (Le pire, c'est que nos 'oeuvres' terminent souvent sur youtube... ! mais bon, on va pas travailler pour autant sur des mp3 128k)
Pour info (mais c'est pas forcément une ref !), je récupère des sessions enregistrées aux US, le tout en 88.2 24b. Je suppose que ce choix se justifie car 2x44.1 parait parfait pour réduire en 44.1.
Tout cela doit être assez sensible.
Sinon, pour les 32bits de Cubase, cela permet il me semble d'éviter toute saturation entre les différents étages (indépendamment du traitement interne des plugins qui sont effectivement >= 32b).
(L'intérêt de l'enregistrement 24b plutôt que 16 est quant-à lui beaucoup moins sujet à controverse grâce à la possibilité d'enregistrer moins fort.).
Voila, vous pouvez me corriger !
EraTom
Par exemple, un eq type high shelf sera exploiter ce "surplus" de sample.
Premièrement c'est pas parce qu'on entend pas les fréquence au dessus de 20khz q'elles n'ont pas une influence sur leurs voisines.(audibles) Ensuite on travail régulièrement avec plus de 50 pistes avec traitements, sommations... Dans ce cas là la différence est bien audible.
En ce qui concerne la sommation en elle-même, le sur-échantillonnage n'apporte strictement rien.
Sur ces deux points il ne s'agit pas d'écoute ou d'éléments subjectifs : mathématiquement on montre que l'on obtient rigoureusement la même chose.
il faut enregistrer et travailler à des résolution plus élevé que le support final. Même avec les bandes analogique c'était comme ça.
Effectivement il vaut mieux que la quantification de travail soit plus petite (i.e. que la résolution soit plus grande) que celle de la cible... Encore que l'on peut se donner un limite liée au bruit "analogique" des prises qui présente une puissance généralement bien supérieure au bruit de quantification.
Pour ce qui est des bandes magnétiques... j'espère que tu ne parles pas des DAT qui n'ont rien d'analogiques.
Pour un enregistrement analogique parler de résolution n'a pas de sens, on parle uniquement de SNR, et les bruits de chaque prises peuvent s'ajouter et devenir franchement audibles à la fin : il faut que le SNR de chaque prise soit assez élevé.
[ Dernière édition du message le 22/10/2013 à 00:27:42 ]
johnfaustus
FAB_caluire
globule_655
Oui, mais si on fait de la musique pour chauves-souris, le 192k ne suffit pas
Selon moi, l'augmentation de la fréquence d'échantillonnage va plus loin qu'une simple augmentation de la bande passante. On augmente aussi en quelque sorte la rapidité du système, ce qui lui donne donc une meilleure réponse impulsionnelle ==> meilleure reproduction des transitoires par exemple.
Je peux me tromper sur la théorie mais c'est ce que j'entends et cette explication me parait logique.
Cela dit, je répète que l'augmentation de la consommation en ressources ne justifie pas, pour moi, d'aller au delà du 48kHz dans la plupart des cas...
Peace
Glob
L'abeille coule, l'abeille coule, l'abeille coule, l'abeille coule, l'abeille coule, l'abeille coule....
[ Dernière édition du message le 22/10/2013 à 09:52:43 ]
Guaige
Premièrement c'est pas parce qu'on entend pas les fréquence au dessus de 20khz q'elles n'ont pas une influence sur leurs voisines.(audibles) Ensuite on travail régulièrement avec plus de 50 pistes avec traitements, sommations... Dans ce cas là la différence est bien audible.
Dans le cas particulier d'une distorsion numérique ça peut être le cas si les sur-échantillonnages en interne ne sont pas fait correctement... ce qui ne doit être le cas dans aucun traitement sérieux.
En ce qui concerne la sommation en elle-même, le sur-échantillonnage n'apporte strictement rien.
Sur ces deux points il ne s'agit pas d'écoute ou d'éléments subjectifs : mathématiquement on montre que l'on obtient rigoureusement la même chose.
Je te crois sur parole, la sommation en elle même n'apporte rien de plus en 88.2khz, mais chaque fichier enregistrés ne sera pas le même qu'en 44.1khz, ce qui peu faire une différence quand ceux-ci sont mixé ensemble, traités parfois de manière violente dans les zones sensibles du spectre, voir reconverti pour du traitement analogique. En gros c'est pas le traitement numérique qui est différent, mais la source. Le théorème de Nyquist nous dit que pour qu'un signal ne soit pas perturbé par l'échantillonnage, la fréquence d'échantillonnage doit être supérieure au double de la plus haute fréquence contenue dans le signal. Cette fréquence limite s'appelle la fréquence de Nyquist.
Mais par perturbation, il parle uniquement de l'effet d'alias. il ne tien pas compte de tous les autres phénomènes qui interviennent. Il y a un déphasage de groupe induit au abords (larges) de la fréquence de Nyquist/2. Deux phénomènes apparaissent:
1 distorsion de la composition fréquentielle traduite par une atténuation aléatoire des hautes fréquences.
2 distorsion de phase la aussi aléatoire s’aggravant a l'approche de la fréquence de Nyquist/2
Ces deux phénomènes induisent un detimbrage et cela échappe totalement a la plupart des gens qui comprennent mal le théorème de Nyquist. Si j'écris: "il est possible de capturer parfaitement une sinusoïde de fréquence Fs par un échantillonnage a la fréquence Fe=Fs*2" c'est vrais, mais uniquement dans un cas limite que j'ai décrit précédemment.
La réciproque "pour capturer parfaitement un signal sinusoïdal de fréquence Fs, il suffit de échantillonner a la fréquence Fe=Fs*2" est archi-fausse.En tout cas d'après ce qu'on m'a appris.[/quote]
il faut enregistrer et travailler à des résolution plus élevé que le support final. Même avec les bandes analogique c'était comme ça.
La fréquence d'échantillonnage c'est le nombre d'échantillons (samples) par seconde ; la résolution est le nombre de bits (la quantification) de chaque échantillon.
Effectivement il vaut mieux que la quantification de travail soit plus petite (i.e. que la résolution soit plus grande) que celle de la cible... Encore que l'on peut se donner un limite liée au bruit "analogique" des prises qui présente une puissance généralement bien supérieure au bruit de quantification.
En effet, j'ai fais un abus de langage avec le mot résolution, autant pour moi. Je voulais simplement parler de qualité général. Mais l'intérêt d'une grande résolution n'est pas seulement de repousser le bruit.
Pour ce qui est des bandes magnétiques... j'espère que tu ne parles pas des DAT qui n'ont rien d'analogiques.
Pour un enregistrement analogique parler de résolution n'a pas de sens, on parle uniquement de SNR, et les bruits de chaque prises peuvent s'ajouter et devenir franchement audibles à la fin : il faut que le SNR de chaque prise soit assez élevé.
Non je ne parle pas des DAT, entre un magnéto analogique à 38cm/s (30kHz de BP) et 76cm/s (60kHz de BP), qui peut dire qu'il n'entends pas la différence ?
Personnellement, je suis d'accord qu'au dessus de 88.2/96k, cela devient beaucoup trop.
Bien-sur, je suis ouvert à toute explication supplémentaire, je suis surement moins calé que toi Eratom.
[ Dernière édition du message le 22/10/2013 à 16:47:46 ]
EraTom
Le but c'est que tout le monde partage ses connaissances théoriques et pratiques.
Pour ma part j'ai un déficit d'expérience pratique.
Perso, ce qui m'intéresse c'est d'arriver à faire le lien entre les "deux mondes" que certains choisissent d’opposer. On évite les théories fumeuses qui n'apportent rien au schmilblick et aussi les pratiques douteuses qu'aucune "théorisation" n'est capable d'expliquer même de façon partielle.
Parfois on a même la surprise de constater qu'une pratique répandu n'est pas du tout bonne lorsqu'elle produit théoriquement l'inverse de ce qu'elle est censée réaliser : là on peut se demander si l'on n'a pas à faire à un charlatan.
Par exemple, sans chercher à lui balancer un scud sur la tête, j'ai pu lire des choses totalement aberrantes sur le site d'un passionné de la sonorisation qui jouit tout de même d'une certaine notoriété sur les forums audiophiles parce qu'il a l'apparat de la rigueur et qu'il s'est construit un site très fourni où il a copié/collé des trucs sans vraiment y comprendre quelque chose... Personnage qui ne supporte aucune contradiction (ce qui lui a valu de se faire bannir du forum d'Audax, par exemple).
Les problèmes de retard de groupe, etc. que tu évoques sont plutôt imputables au filtre d'antialising "sous-optimal" des CAN qu'au processus de discrétisation en lui-même.
"pour capturer parfaitement un signal sinusoïdal de fréquence Fs, il suffit de échantillonner a la fréquence Fe=Fs*2" est archi-fausse.
Guaige
xHors sujet :Le but c'est que tout le monde partage ses connaissances théoriques et pratiques.
Pour ma part j'ai un déficit d'expérience pratique.
Perso, ce qui m'intéresse c'est d'arriver à faire le lien entre les "deux mondes" que certains choisissent d’opposer. On évite les théories fumeuses qui n'apportent rien au schmilblick et aussi les pratiques douteuses qu'aucune "théorisation" n'est capable d'expliquer même de façon partielle.
+1
Les problèmes de retard de groupe, etc. que tu évoques sont plutôt imputables au filtre d'antialising "sous-optimal" des CAN qu'au processus de discrétisation en lui-même.
Citation :Et bien non, c'est archi-vrai parce qu'il n'est pas nécessaire de réaliser le filtrage : on sait que cette sinusoïde seule est dans la bande"pour capturer parfaitement un signal sinusoïdal de fréquence Fs, il suffit de échantillonner a la fréquence Fe=Fs*2" est archi-fausse.
[ Dernière édition du message le 22/10/2013 à 22:23:28 ]
EraTom
Le problème de la restitution des transitoires ne vient pas de l'interpolation (bon, sauf si elle a des défauts et dans la pratique elle en a, bien sûr) mais surtout du fait que l'on réduise la taille de la bande de fréquence du signal.
La théorie et la pratique sont en réalité plus simples et plus compliquées à la fois (voilà une belle phrase qui veut tout et rien dire ! )
Pour l'échantillonnage (je viendrai sur les transitoires ensuite) :
Plus compliquée parce que la théorie demande d'introduire un outil mathématique un peu particulier : les distributions et l'impulsion de Dirac.
Plus simple parce que les conclusions de la théorie se ramènent, finalement, à des notions qui sont bien connues et qui ne posent pas de problème à quelqu'un qui a une bonne culture en audio.
Une distribution c'est un "bidule" qui permet d'extraire un échantillon d'un signal continu. L'impulsion de Dirac est une distribution ; on la note δ(t) comme une fonction du temps, mais ce n'est pas réellement une fonction telle qu'on l'entend normalement en mathématique (il existe une distinction réelle).
De façon abusive, on la représente comme une espèce de fonction, parce que c'est plus simple que de faire un cours de la théorie de la mesure et de l'intégration au sens de Lebesgue (qui fait bien souffrir les élèves de math spé) :
δ(t) = 1 si t = 0
δ(t) = 0 si t ≠ 0
Quand on calcule l'intégrale du produit d'un signal s(t) et de δ(t) pour un t allant de -oo à +oo on obtient :
∫ s(t)*δ(t) dt = s(0)
Pour obtenir un échantillon à un instant différent τ, on "translate" δ(t) sur l'axe du temps en utilisant δ(t-τ) :
δ(t-τ) = 1 si t = τ (puisque alors t-τ=0)
δ(t-τ) = 0 si t ≠ τ
∫ s(t)*δ(t-τ) dt = s(τ)
Pour représenter un signal échantillonné et le manipuler mathématiquement, on utilise alors le "peigne de Dirac" qui est la somme de plusieurs impulsions espacées régulièrement dans le temps. Pour une fréquence d'échantillonnage de Fe = 1/Te, le n-ième échantillon est donné par l'impulsion translatée de n*Te.
Le peigne est la somme des δ(t-n*Te) :
ϣ(t) = Σ δ(t-n*Te) pour n allant de -oo à +oo.
Le signal échantillonné est le produit du signal continue par le peigne de Dirac :
s(t)*ϣ(t) = s(t)* Σ δ(t-n*Te)
On peut alors calculer la transformée de Fourier du signal échantillonné :
S(f) = ∫ ( s(t)* Σ δ(t-n*Te) ) * exp(-i*2π*f*t) * dt (je mets de côté certains termes de normalisation qui n'ont pas d'intérêt ici)
Le théorème de Shannon-Nyquist consiste en une manipulation assez simple : je bouge les parenthèses qui ne servent à rien, je sors la somme de l'intégrale :
S(f) = ∫ s(t)* ( Σ δ(t-n*Te) * exp(-i*2π*f*t) ) * dt
S(f) = Σ ∫ s(t)* ( δ(t-n*Te) * exp(-i*2π*f*t) ) * dt
Je passe rapidement la suite (parce que je n'ai pas envie de partir dans des lignes de calculs pénibles à la lecture... et aussi à l'écriture !), pour aller directement au résultat final : le spectre du signal échantillonné que l'on obtient est le spectre du signal s(t) dupliqué régulièrement tous les n*Fe. C'est ça qui produit le repliement spectral.
Si s(t) ne contient que des fréquences dans [0 ; Fe/2], le haut du spectre dupliqué ne se recouvrent pas.
Si ce n'est pas la cas, on n'a pas le choix : il faut faire passer le signal dans un filtre qui va virer tout ce qui déborde avant l'échantillonnage. C'est le filtre passe-bas d’antialiasing qui coupe tout ce qu'il y a au-dessus Fe/2.
Pour récupérer s(t) à partir de sa version échantillonnée sans erreur liée à l'échantillonnage, il suffit d'extraire du spectre dupliqué la partie dans [0 ; Fe/2] et d'ignorer (ou d'annuler) tout ce qui est en dehors de cet intervalle.
En clair, il suffit de faire passer le signal échantillonné dans un filtre passe-bas parfait de fréquence de coupure égale à Fe/2... Exactement le même que celui dont on a besoin pour l'antialiasing.
"Il suffit" et "parfait" dans la même phrase peut faire sourire : un filtre parfait ça n'existe pas dans la vraie vie. Mais au moins on sait ce qu'il faut améliorer pour minimiser l'erreur et tendre vers l'optimalité.
Tu vois alors (j'espère ne pas t'avoir perdu en détails inutiles) que l'interpolation linéaire n'est pas ce qu'il faut faire : une interpolation linéaire entre deux échantillons revient à utiliser un filtre moyenneur, qui est bien un filtre passe-bas mais qui est loin d'être proche de l'optimal recherché.
Le filtre moyenneur présente une réponse fréquentielle qui est... un sinus cardinal (dans l'espace des fréquences !)
http://uuu.enseirb.fr/~dondon/puissance/ampliclasseD/filtrenum.html (la page ne traite d'un autre sujet mais des filtres moyenneurs sont présentés)
C'est la pire des solutions : On ne peut pas faire un filtre moins sélectif avec un nombre donné d'échantillons (enfin, à moins de faire un filtre qui n'est pas un filtre passe-bas volontairement).
Son seul intérêt est d'être très léger en terme de coût calculatoire (ou nombre de composants pour son implémentation "analogique"), et c'est tout ce qui peut justifier qu'il soit utilisé dans un tel contexte.
Le "bon filtre" est encore une fois le filtre brickwall (dont la réponse temporelle est un sinus cardinal) https://en.wikipedia.org/wiki/Sinc_filter
Tu peux tomber sur des convertisseurs numérique-analogique qui proposent un sur-échantillonnage numérique, en interne, avant de produire la sortie analogique.
En fait la réalisation d'un filtre analogique sélectif proche du brickwall est une vraie difficulté, du moins ça coûte cher et demande beaucoup de mise au point.
En numérique c'est moins difficile.
Le sur-échantillonnage en sortie permet de réaliser le gros de l'interpolation en numérique, le signal sur-échantillonné est alors moins exigeant pour le filtre analogique en sortie : entre la fréquence d'échantillonnage initiale et la fréquence de sur-échantillonnage la bande de spectre est vide, et le filtre analogique peut donc être moins sélectif.
Autrement dit, ça permet tout simplement de reporter le problème du filtre d'interpolation du monde analogique vers le monde numérique.
Pour les transitoires maintenant (et enfin) :
Effectivement le théorème de Shannon-Nyquist n'en dit rien, et pour une bonne raison : Comme je te le disais, ce problème n'est pas directement lié à l'échantillonnage mais au filtrage passe-bas.
Ceci vient du théorème d'incertitude de Heisenberg-Gabor :
https://fr.wikipedia.org/wiki/Principe_d%27incertitude
(oui oui, comme en mécanique quantique, mais il y a une application particulière au traitement du signal cf. le § Difficulté d'interprétation qui donne un exemple dans le domaine de l'audio).
Pour faire simple, un signal ne peut pas être "précisément localisé" conjointement dans le domaine temporelle et fréquentiel. Il y a une limite infranchissable :
Δf * Δt > 2π
Cette inégalité montre que si l'on prend Δt très petit, alors Δf ne peut pas être aussi petit que l'on veut :
Δf > 2π/Δt
En passant aux limites : si Δt tends vers 0, 2π/Δt tend vers +oo...
Inversement, si l'on veut avoir Δf très petit, il faut que Δt tende vers l'infini.
Ça à l'air "abstrait" pourtant ça trouve une application très concrète qui montre la limite de résolution d'une analyse spectrale : Lorsque l'on mesure ou estime le spectre d'un signal, on ne peut pas le faire en utilisant un enregistrement de durée infinie !
Donc on prend un bout du signal, de quelques périodes : c'est le fenêtrage.
Le procédé implique un étalement du spectre : au lieu de visualiser de jolis pics sur chaque fréquence on observe des formes de cloches. Si deux pics sont très proches, ils sont confondus et rassembler dans une seule "grosse cloche".
https://en.wikipedia.org/wiki/Window_function
On essaie d'utiliser des formes de fenêtres qui limitent les rebonds, mais l'étalement ne peut pas être contré : conséquence du théorème d'incertitude.
Et bien c'est aussi vrai dans l'autre sens : si l'on réduit la bande de fréquence d'un signal, on l'étale dans le temps.
Un transitoire très bref présente un spectre étalé ; si l'on le fait passer dans un filtre qui réduit son support spectral (ce que l'on doit faire pour l'antialiasing) on l'étale inévitablement dans le temps.
Du coup, en montant en fréquence d'échantillonnage on restitue mieux un transitoire très bref, c'est vrai. Mais il faudrait que la cible elle-même reste à cette fréquence d'échantillonnage élevée.
Si l'on termine sur une cible avec une fréquence d'échantillonnage plus basse, les transitoires seront de toutes manières étalés.
On peut alors objecter qu'en travaillant à une fréquence plus élevée on peut mieux "shapper" les transitoires et leur dynamique.
Le problème (parce qu'il y en a toujours, décidément) c'est que le phénomène de Gibbs vient semer la pagaille.
https://fr.wikipedia.org/wiki/Ph%C3%A9nom%C3%A8ne_de_Gibbs
Si l'on a réalisé un master @88Hz, que le niveau crête a été travaillé pour taper juste en dessous du 0dB et que l'on sous-échantillonne tout ça @44Hz, on peut avoir la belle surprise de constater que le signal repasse au-dessus de 0dB : master à reprendre à cause des transitoires
[ Dernière édition du message le 23/10/2013 à 02:32:28 ]
- < Liste des sujets
- Charte