Se connecter
Se connecter

ou
Créer un compte

ou
FR
EN
Techniques du Son

UNE FOIS POUR TOUTE !

  • 61 réponses
  • 16 participants
  • 7 547 vues
  • 23 followers
Sujet de la discussion UNE FOIS POUR TOUTE !

Hello,

 

A force de lire, d'entendre tout et son contraire je souhaite une fois pour toute que l'on résolve ces deux questions :

- Freq / bits pour configurer son projet dans cubase

- niveaux à l'enregistrement RMS et Peak

 

Freq / BITS : on est tous d'accord pour dire que configurer un projet en 16 bit / 44,1khz n'est plus trop d'actualité ! Surtout avec la mort du cd , nos "oeuvres" finiront plus sur iTunes que dans les Fnac ...

J'ai pu lire pour la fréquence, qu' il faut soit rester en 44,1khz ou soit la doubler donc 88,2khz (quand c'est pour l'audio / sinon pour la video c 'est 48khz)

Quand est il vraiment ?

Pour le 16 bits , tout le monde s'accorde de mettre au minimum 24bits . Quel est la difference des bits pour l'enregistrement et du fameux 32bits flottant à partir duquel cubase fonctionne ...?

 

En gros sous cubase 7 , avec une RME UC quel est la meilleur résolution à choisir pour le projet ?

Quel est l incidence sur la latence et l optimisation des calculs interne ?

 

RMS / PEAK : J'ai lu l'article sur les niveaux d'enregistrement . Bien compris qu'il fallait enregistrer la source à -18db RMS . On m'a dis aussi qu'en plus de ces -18 db il faut que les peak soit max à -6db pour avoir une marge .

 

Quel est donc le bon niveaux à la prise ?

Ensuite pour la mesure , pourquoi il y a une difference de vumètre (RMS et Peak) entre celui de cubase et par ex celui du Braiworx meter  ou ceui d'ozone insight ? il ne sont pas qualibré de la même façon ?

Ce qui est étrange c'est que tout les indicateurs de Peak/RMS que j'ai indiquent tous à peu près les mêmes niveaux mais du coup tous déferrent de celui de cubase ....

 

Merci

 

Minimoog => Radial JDI => Phoenix Audio DRS-Q4 => RME UC => Focal Solo 6

Afficher le sujet de la discussion
26
Citation de FAB_caluire :
Oui, mais si on fait de la musique pour chauves-souris, le 192k ne suffit pas :((


Selon moi, l'augmentation de la fréquence d'échantillonnage va plus loin qu'une simple augmentation de la bande passante. On augmente aussi en quelque sorte la rapidité du système, ce qui lui donne donc une meilleure réponse impulsionnelle ==> meilleure reproduction des transitoires par exemple.
Je peux me tromper sur la théorie mais c'est ce que j'entends et cette explication me parait logique.

Cela dit, je répète que l'augmentation de la consommation en ressources ne justifie pas, pour moi, d'aller au delà du 48kHz dans la plupart des cas...

Peace
Glob

L'abeille coule, l'abeille coule, l'abeille coule, l'abeille coule, l'abeille coule, l'abeille coule....

Bla bla bla

[ Dernière édition du message le 22/10/2013 à 09:52:43 ]

27
Citation de Evostud :
Premièrement c'est pas parce qu'on entend pas les fréquence au dessus de 20khz q'elles n'ont pas une influence sur leurs voisines.(audibles) Ensuite on travail régulièrement avec plus de 50 pistes avec traitements, sommations... Dans ce cas là la différence est bien audible.


Citation de EraTom :
Dans le cas particulier d'une distorsion numérique ça peut être le cas si les sur-échantillonnages en interne ne sont pas fait correctement... ce qui ne doit être le cas dans aucun traitement sérieux.

En ce qui concerne la sommation en elle-même, le sur-échantillonnage n'apporte strictement rien.
Sur ces deux points il ne s'agit pas d'écoute ou d'éléments subjectifs : mathématiquement on montre que l'on obtient rigoureusement la même chose.



Je te crois sur parole, la sommation en elle même n'apporte rien de plus en 88.2khz, mais chaque fichier enregistrés ne sera pas le même qu'en 44.1khz, ce qui peu faire une différence quand ceux-ci sont mixé ensemble, traités parfois de manière violente dans les zones sensibles du spectre, voir reconverti pour du traitement analogique. En gros c'est pas le traitement numérique qui est différent, mais la source. Le théorème de Nyquist nous dit que pour qu'un signal ne soit pas perturbé par l'échantillonnage, la fréquence d'échantillonnage doit être supérieure au double de la plus haute fréquence contenue dans le signal. Cette fréquence limite s'appelle la fréquence de Nyquist.

Mais par perturbation, il parle uniquement de l'effet d'alias. il ne tien pas compte de tous les autres phénomènes qui interviennent. Il y a un déphasage de groupe induit au abords (larges) de la fréquence de Nyquist/2. Deux phénomènes apparaissent:
1 distorsion de la composition fréquentielle traduite par une atténuation aléatoire des hautes fréquences.
2 distorsion de phase la aussi aléatoire s’aggravant a l'approche de la fréquence de Nyquist/2
Ces deux phénomènes induisent un detimbrage et cela échappe totalement a la plupart des gens qui comprennent mal le théorème de Nyquist. Si j'écris: "il est possible de capturer parfaitement une sinusoïde de fréquence Fs par un échantillonnage a la fréquence Fe=Fs*2" c'est vrais, mais uniquement dans un cas limite que j'ai décrit précédemment.
La réciproque "pour capturer parfaitement un signal sinusoïdal de fréquence Fs, il suffit de échantillonner a la fréquence Fe=Fs*2" est archi-fausse.En tout cas d'après ce qu'on m'a appris.[/quote]



Citation de Evostud :
il faut enregistrer et travailler à des résolution plus élevé que le support final. Même avec les bandes analogique c'était comme ça.

Citation de EraTom :

La fréquence d'échantillonnage c'est le nombre d'échantillons (samples) par seconde ; la résolution est le nombre de bits (la quantification) de chaque échantillon.
Effectivement il vaut mieux que la quantification de travail soit plus petite (i.e. que la résolution soit plus grande) que celle de la cible... Encore que l'on peut se donner un limite liée au bruit "analogique" des prises qui présente une puissance généralement bien supérieure au bruit de quantification.


En effet, j'ai fais un abus de langage avec le mot résolution, autant pour moi. Je voulais simplement parler de qualité général. Mais l'intérêt d'une grande résolution n'est pas seulement de repousser le bruit.
Citation de EraTom :

Pour ce qui est des bandes magnétiques... j'espère que tu ne parles pas des DAT qui n'ont rien d'analogiques.
Pour un enregistrement analogique parler de résolution n'a pas de sens, on parle uniquement de SNR, et les bruits de chaque prises peuvent s'ajouter et devenir franchement audibles à la fin : il faut que le SNR de chaque prise soit assez élevé.


Non je ne parle pas des DAT, entre un magnéto analogique à 38cm/s (30kHz de BP) et 76cm/s (60kHz de BP), qui peut dire qu'il n'entends pas la différence ?
Personnellement, je suis d'accord qu'au dessus de 88.2/96k, cela devient beaucoup trop.
Bien-sur, je suis ouvert à toute explication supplémentaire, je suis surement moins calé que toi Eratom.

 

[ Dernière édition du message le 22/10/2013 à 16:47:46 ]

28
x
Hors sujet :
Le but c'est que tout le monde partage ses connaissances théoriques et pratiques. :)
Pour ma part j'ai un déficit d'expérience pratique.

Perso, ce qui m'intéresse c'est d'arriver à faire le lien entre les "deux mondes" que certains choisissent d’opposer. On évite les théories fumeuses qui n'apportent rien au schmilblick et aussi les pratiques douteuses qu'aucune "théorisation" n'est capable d'expliquer même de façon partielle.

Parfois on a même la surprise de constater qu'une pratique répandu n'est pas du tout bonne lorsqu'elle produit théoriquement l'inverse de ce qu'elle est censée réaliser : là on peut se demander si l'on n'a pas à faire à un charlatan.
Par exemple, sans chercher à lui balancer un scud sur la tête, j'ai pu lire des choses totalement aberrantes sur le site d'un passionné de la sonorisation qui jouit tout de même d'une certaine notoriété sur les forums audiophiles parce qu'il a l'apparat de la rigueur et qu'il s'est construit un site très fourni où il a copié/collé des trucs sans vraiment y comprendre quelque chose... Personnage qui ne supporte aucune contradiction (ce qui lui a valu de se faire bannir du forum d'Audax, par exemple).



Les problèmes de retard de groupe, etc. que tu évoques sont plutôt imputables au filtre d'antialising "sous-optimal" des CAN qu'au processus de discrétisation en lui-même.

Citation :
"pour capturer parfaitement un signal sinusoïdal de fréquence Fs, il suffit de échantillonner a la fréquence Fe=Fs*2" est archi-fausse.
Et bien non, c'est archi-vrai :) parce qu'il n'est pas nécessaire de réaliser le filtrage : on sait que cette sinusoïde seule est dans la bande
29
Citation de EraTom :
x
Hors sujet :
Le but c'est que tout le monde partage ses connaissances théoriques et pratiques. :)
Pour ma part j'ai un déficit d'expérience pratique.

Perso, ce qui m'intéresse c'est d'arriver à faire le lien entre les "deux mondes" que certains choisissent d’opposer. On évite les théories fumeuses qui n'apportent rien au schmilblick et aussi les pratiques douteuses qu'aucune "théorisation" n'est capable d'expliquer même de façon partielle.


+1

Les problèmes de retard de groupe, etc. que tu évoques sont plutôt imputables au filtre d'antialising "sous-optimal" des CAN qu'au processus de discrétisation en lui-même.

Citation :
"pour capturer parfaitement un signal sinusoïdal de fréquence Fs, il suffit de échantillonner a la fréquence Fe=Fs*2" est archi-fausse.
Et bien non, c'est archi-vrai :) parce qu'il n'est pas nécessaire de réaliser le filtrage : on sait que cette sinusoïde seule est dans la bande

 

[ Dernière édition du message le 22/10/2013 à 22:23:28 ]

30
L'interpolation linéaire n'est pas la bonne méthode pour reconstituer le signal : l'interpolation doit être réalisée par un filtre passe-bas.
Le problème de la restitution des transitoires ne vient pas de l'interpolation (bon, sauf si elle a des défauts et dans la pratique elle en a, bien sûr) mais surtout du fait que l'on réduise la taille de la bande de fréquence du signal.

La théorie et la pratique sont en réalité plus simples et plus compliquées à la fois (voilà une belle phrase qui veut tout et rien dire ! :mdr: )


Pour l'échantillonnage (je viendrai sur les transitoires ensuite) :

Plus compliquée parce que la théorie demande d'introduire un outil mathématique un peu particulier : les distributions et l'impulsion de Dirac.
Plus simple parce que les conclusions de la théorie se ramènent, finalement, à des notions qui sont bien connues et qui ne posent pas de problème à quelqu'un qui a une bonne culture en audio.

Une distribution c'est un "bidule" qui permet d'extraire un échantillon d'un signal continu. L'impulsion de Dirac est une distribution ; on la note δ(t) comme une fonction du temps, mais ce n'est pas réellement une fonction telle qu'on l'entend normalement en mathématique (il existe une distinction réelle).

De façon abusive, on la représente comme une espèce de fonction, parce que c'est plus simple que de faire un cours de la théorie de la mesure et de l'intégration au sens de Lebesgue (qui fait bien souffrir les élèves de math spé) :
δ(t) = 1 si t = 0
δ(t) = 0 si t ≠ 0

Quand on calcule l'intégrale du produit d'un signal s(t) et de δ(t) pour un t allant de -oo à +oo on obtient :
∫ s(t)*δ(t) dt = s(0)

Pour obtenir un échantillon à un instant différent τ, on "translate" δ(t) sur l'axe du temps en utilisant δ(t-τ) :
δ(t-τ) = 1 si t = τ (puisque alors t-τ=0)
δ(t-τ) = 0 si t ≠ τ

∫ s(t)*δ(t-τ) dt = s(τ)


Pour représenter un signal échantillonné et le manipuler mathématiquement, on utilise alors le "peigne de Dirac" qui est la somme de plusieurs impulsions espacées régulièrement dans le temps. Pour une fréquence d'échantillonnage de Fe = 1/Te, le n-ième échantillon est donné par l'impulsion translatée de n*Te.

Le peigne est la somme des δ(t-n*Te) :
ϣ(t) = Σ δ(t-n*Te) pour n allant de -oo à +oo.

Le signal échantillonné est le produit du signal continue par le peigne de Dirac :
s(t)*ϣ(t) = s(t)* Σ δ(t-n*Te)


On peut alors calculer la transformée de Fourier du signal échantillonné :
S(f) = ∫ ( s(t)* Σ δ(t-n*Te) ) * exp(-i*2π*f*t) * dt (je mets de côté certains termes de normalisation qui n'ont pas d'intérêt ici)

Le théorème de Shannon-Nyquist consiste en une manipulation assez simple : je bouge les parenthèses qui ne servent à rien, je sors la somme de l'intégrale :
S(f) = ∫ s(t)* ( Σ δ(t-n*Te) * exp(-i*2π*f*t) ) * dt
S(f) = Σ ∫ s(t)* ( δ(t-n*Te) * exp(-i*2π*f*t) ) * dt

Je passe rapidement la suite (parce que je n'ai pas envie de partir dans des lignes de calculs pénibles à la lecture... et aussi à l'écriture !), pour aller directement au résultat final : le spectre du signal échantillonné que l'on obtient est le spectre du signal s(t) dupliqué régulièrement tous les n*Fe. C'est ça qui produit le repliement spectral.


Si s(t) ne contient que des fréquences dans [0 ; Fe/2], le haut du spectre dupliqué ne se recouvrent pas.
Si ce n'est pas la cas, on n'a pas le choix : il faut faire passer le signal dans un filtre qui va virer tout ce qui déborde avant l'échantillonnage. C'est le filtre passe-bas d’antialiasing qui coupe tout ce qu'il y a au-dessus Fe/2.

Pour récupérer s(t) à partir de sa version échantillonnée sans erreur liée à l'échantillonnage, il suffit d'extraire du spectre dupliqué la partie dans [0 ; Fe/2] et d'ignorer (ou d'annuler) tout ce qui est en dehors de cet intervalle.
En clair, il suffit de faire passer le signal échantillonné dans un filtre passe-bas parfait de fréquence de coupure égale à Fe/2... Exactement le même que celui dont on a besoin pour l'antialiasing.

"Il suffit" et "parfait" dans la même phrase peut faire sourire : un filtre parfait ça n'existe pas dans la vraie vie. Mais au moins on sait ce qu'il faut améliorer pour minimiser l'erreur et tendre vers l'optimalité.

Tu vois alors (j'espère ne pas t'avoir perdu en détails inutiles) que l'interpolation linéaire n'est pas ce qu'il faut faire : une interpolation linéaire entre deux échantillons revient à utiliser un filtre moyenneur, qui est bien un filtre passe-bas mais qui est loin d'être proche de l'optimal recherché.

Le filtre moyenneur présente une réponse fréquentielle qui est... un sinus cardinal (dans l'espace des fréquences !)
http://uuu.enseirb.fr/~dondon/puissance/ampliclasseD/filtrenum.html (la page ne traite d'un autre sujet mais des filtres moyenneurs sont présentés)
C'est la pire des solutions : On ne peut pas faire un filtre moins sélectif avec un nombre donné d'échantillons (enfin, à moins de faire un filtre qui n'est pas un filtre passe-bas volontairement).
Son seul intérêt est d'être très léger en terme de coût calculatoire (ou nombre de composants pour son implémentation "analogique"), et c'est tout ce qui peut justifier qu'il soit utilisé dans un tel contexte.

Le "bon filtre" est encore une fois le filtre brickwall (dont la réponse temporelle est un sinus cardinal) https://en.wikipedia.org/wiki/Sinc_filter


Tu peux tomber sur des convertisseurs numérique-analogique qui proposent un sur-échantillonnage numérique, en interne, avant de produire la sortie analogique.

En fait la réalisation d'un filtre analogique sélectif proche du brickwall est une vraie difficulté, du moins ça coûte cher et demande beaucoup de mise au point.
En numérique c'est moins difficile.

Le sur-échantillonnage en sortie permet de réaliser le gros de l'interpolation en numérique, le signal sur-échantillonné est alors moins exigeant pour le filtre analogique en sortie : entre la fréquence d'échantillonnage initiale et la fréquence de sur-échantillonnage la bande de spectre est vide, et le filtre analogique peut donc être moins sélectif.
Autrement dit, ça permet tout simplement de reporter le problème du filtre d'interpolation du monde analogique vers le monde numérique.


Pour les transitoires maintenant (et enfin) :

Effectivement le théorème de Shannon-Nyquist n'en dit rien, et pour une bonne raison : Comme je te le disais, ce problème n'est pas directement lié à l'échantillonnage mais au filtrage passe-bas.

Ceci vient du théorème d'incertitude de Heisenberg-Gabor :
https://fr.wikipedia.org/wiki/Principe_d%27incertitude
(oui oui, comme en mécanique quantique, mais il y a une application particulière au traitement du signal cf. le § Difficulté d'interprétation qui donne un exemple dans le domaine de l'audio).

Pour faire simple, un signal ne peut pas être "précisément localisé" conjointement dans le domaine temporelle et fréquentiel. Il y a une limite infranchissable :
Δf * Δt > 2π

Cette inégalité montre que si l'on prend Δt très petit, alors Δf ne peut pas être aussi petit que l'on veut :
Δf > 2π/Δt
En passant aux limites : si Δt tends vers 0, 2π/Δt tend vers +oo...
Inversement, si l'on veut avoir Δf très petit, il faut que Δt tende vers l'infini.

Ça à l'air "abstrait" pourtant ça trouve une application très concrète qui montre la limite de résolution d'une analyse spectrale : Lorsque l'on mesure ou estime le spectre d'un signal, on ne peut pas le faire en utilisant un enregistrement de durée infinie !
Donc on prend un bout du signal, de quelques périodes : c'est le fenêtrage.

Le procédé implique un étalement du spectre : au lieu de visualiser de jolis pics sur chaque fréquence on observe des formes de cloches. Si deux pics sont très proches, ils sont confondus et rassembler dans une seule "grosse cloche".
https://en.wikipedia.org/wiki/Window_function

On essaie d'utiliser des formes de fenêtres qui limitent les rebonds, mais l'étalement ne peut pas être contré : conséquence du théorème d'incertitude.


Et bien c'est aussi vrai dans l'autre sens : si l'on réduit la bande de fréquence d'un signal, on l'étale dans le temps.
Un transitoire très bref présente un spectre étalé ; si l'on le fait passer dans un filtre qui réduit son support spectral (ce que l'on doit faire pour l'antialiasing) on l'étale inévitablement dans le temps.

Du coup, en montant en fréquence d'échantillonnage on restitue mieux un transitoire très bref, c'est vrai. Mais il faudrait que la cible elle-même reste à cette fréquence d'échantillonnage élevée.

Si l'on termine sur une cible avec une fréquence d'échantillonnage plus basse, les transitoires seront de toutes manières étalés.

On peut alors objecter qu'en travaillant à une fréquence plus élevée on peut mieux "shapper" les transitoires et leur dynamique.
Le problème (parce qu'il y en a toujours, décidément) c'est que le phénomène de Gibbs vient semer la pagaille.
https://fr.wikipedia.org/wiki/Ph%C3%A9nom%C3%A8ne_de_Gibbs

Si l'on a réalisé un master @88Hz, que le niveau crête a été travaillé pour taper juste en dessous du 0dB et que l'on sous-échantillonne tout ça @44Hz, on peut avoir la belle surprise de constater que le signal repasse au-dessus de 0dB : master à reprendre à cause des transitoires :|

[ Dernière édition du message le 23/10/2013 à 02:32:28 ]

31
Citation de EraTom :

Tu vois alors (j'espère ne pas t'avoir perdu en détails inutiles) que l'interpolation linéaire n'est pas ce qu'il faut faire : une interpolation linéaire entre deux échantillons revient à utiliser un filtre moyenneur, qui est bien un filtre passe-bas mais qui est loin d'être proche de l'optimal recherché.


Non, tu ne m'a pas perdu en détails inutiles bien que je serai incapable de refaire ces calculs. Je comprend bien ce que tu écris, mais ces méthodes difficiles à mettre en place et coûteuses ne concerne surement que le haut de gamme de la conversion. Malheureusement aujourd'hui beaucoup de productions sont enregistrées avec des cartes son moyenne à bas de gamme. J'ai pas fais le test, mais c'est plus que possible qu'à l'écoute je préfère un 44.1khz bien réalisé qu'un 88.2khz d'une carte son bas de gamme. En tout cas merci pour ces précisions.


Citation de EraTom :

Pour les transitoires maintenant (et enfin) :

On essaie d'utiliser des formes de fenêtres qui limitent les rebonds, mais l'étalement ne peut pas être contré : conséquence du théorème d'incertitude.


Et bien c'est aussi vrai dans l'autre sens : si l'on réduit la bande de fréquence d'un signal, on l'étale dans le temps.
Un transitoire très bref présente un spectre étalé ; si l'on le fait passer dans un filtre qui réduit son support spectral (ce que l'on doit faire pour l'antialiasing) on l'étale inévitablement dans le temps.

Du coup, en montant en fréquence d'échantillonnage on restitue mieux un transitoire très bref, c'est vrai. Mais il faudrait que la cible elle-même reste à cette fréquence d'échantillonnage élevée.


Si l'on termine sur une cible avec une fréquence d'échantillonnage plus basse, les transitoires seront de toutes manières étalés.

Oui, mais je ne pense pas que ce soit le même résultat de faire ça sur 50 fichiers sources que sur le mix final une seule fois surtout que ça a plus de chances d'être réalisé avec une bonne machine au mastering.

Citation de EraTom :

On peut alors objecter qu'en travaillant à une fréquence plus élevée on peut mieux "shapper" les transitoires et leur dynamique.
Le problème (parce qu'il y en a toujours, décidément) c'est que le phénomène de Gibbs vient semer la pagaille.
https://fr.wikipedia.org/wiki/Ph%C3%A9nom%C3%A8ne_de_Gibbs

Si l'on a réalisé un master @88Hz, que le niveau crête a été travaillé pour taper juste en dessous du 0dB et que l'on sous-échantillonne tout ça @44Hz, on peut avoir la belle surprise de constater que le signal repasse au-dessus de 0dB : master à reprendre à cause des transitoires :|


Je connais ce phénomène, d'ailleurs toute personne qui fait du mastering devrait savoir ça. Mais je n'ai jamais eu autant de précisions. Du coup en connaissant ce problème de crêtes, c'est quand même mieux pour les transitoires de travailler en 88.2khz, c'est surement ça que je doit entendre. C'est très intéressant tout ça. Encore une fois merci.

 

32
Je flague, sujet intéressant mais qui demande un peu de temps de réflexion après l'exposé d'Eratom, un qui n'a pas fait l'école buissonière le jour de la distribution des cerveaux ! Je comprends d'ailleurs et en passant ton ambition de faire le lien entre deux mondes. Je suis un exploitant dont les bases théoriques étaient sérieuses avant l'invention du numérique, et correctes je crois encore de nos jours, sans rivaliser avec des ténors de ton acabit. Mais il est tout à fait vrai que l'absence de bases sérieuses n'est pas un frein au fait d'ouvrir sa bouche pour affirmer n'importe nawak dans notre petite industrie, particulièrement dans le domaine numérique. C'est pourquoi je suis bien heureux de pouvoir me cultiver sur des filières comme celle-ci. Rien n'est pire que l'affirmation de théories fumeuses basées sur des légendes souvent colportées dans le seul but d'asseoir une crédibilité sur du vent de sable. Merci pour ça Eratom. C'était mon quart d'heure brosse à reluire !
33
Apropps du phénomène de Gibbs, l'invention des contrôles "true peak" devrait pouvoir résoudre le problème de la visualisation, et donc de la prise en compte du problème.
34
Merci pour le coup de brosse à reluire (grand moment du "Petit Rapporteur" que je désespère de retrouver sur Youtube).

Je ne connaissais pas le "true peak" ; je vais me pencher sur le bidule.
35
oui Eratom, tu es très calé en math-physique mais sauras tu m'expliquer avec des mots simples pourquoi on utilise le sur-échantillonage et le filtrage pour la conversion Analogique/numérique ???

Autant il me parait évident d'utiliser le sur-échantillonage+filtrage lors de la conversion N/A ( "créneaux" plus petits et donc aliasing plus haut en fréquence ) autant je ne vois aucune raison d'utiliser cette technique pour un signal qui va se retrouver stocké sur un disque dur et surtout se retrouver inévitablement avec l'effet de "crénelage" inhérent au format d'échantillonage choisi pour l'enregistrement.

En quoi les bits issus de la moulinette "sur-échantillonage+filtrage" seront ils une représentation plus précise du son capté que si on avait pris la valeur "brut" ???


36
Mon stage de 2nde année en école d'ing c'était la réalisation d'un tel CAN dans un labo de recherche en TSI ;)

La chaîne c'est sur-échantillonnage, filtrage, sous-échantillonage.

Grossièrement l'idée est que pour un échantillon en bout de chaine, on a réalisé plusieurs mesures avec une erreur (sur-échantillonnage) dont on fait une "moyenne" (effet du filtrage). En moyennant toutes ces mesures on arrive a avoir une estimation plus précise de la valeur réelle.

Si tu veux je peux rentrer plus dans le détail et expliquer pourquoi l'on place la fameuse "modulation delta-sigma" dans ces acquisitions, mais là il est tard et je vais me pieuter. En plus ce weekend j'ai prévu une méga-bringue... il faudra attendre la semaine prochaine. hu hu hu :mdr:
37
Citation :
Grossièrement l'idée est que pour un échantillon en bout de chaine, on a réalisé plusieurs mesures avec une erreur (sur-échantillonnage) dont on fait une "moyenne" (effet du filtrage). En moyennant toutes ces mesures on arrive a avoir une estimation plus précise de la valeur réelle.

Merci Eratom. Je pensais bien que c'était une question de "moyenne" ré&lisée à partir des valeurs sur-échantillonnées mais je ne savais pas que les CAN embarquaient des fonctions mathématiques....Il faut additionner et diviser pour faire une moyenne, non ??

Tu indiques que le filtrage réalise cette moyenne et là je ne comprends pas...

Bon week end ;=)

ps : merci de continuer l'explication sans utiliser trop de math....

[ Dernière édition du message le 25/10/2013 à 11:54:08 ]

38
Sans math... à partir d'un niveau de détail c'est impossible. Il y aura certains points qu'il faudra que tu admettes.

Pour réaliser un filtrage numérique il faut calculer un produit de convolution ou calculer une "équation aux différences" et donc faire des calculs, mais ça ne veut pas dire que l'on va placer un DSP dans chaque CAN de ce genre : il existe d'autre techno comme les FPGA et les ASIC qui permettent de tout faire en "logique câblée".
Diviser par une valeur constante n'est pas plus compliqué que multiplier : diviser par 5 revient à multiplier par 1/5 = 0.2, par exemple.

Le calcul d'une moyenne sur un nombre d'échantillons glissant (les N derniers échantillons disponibles) revient à appliquer un filtre passe-bas, mais quand j'évoque une "moyenne" c'est une simplification (qui permet tout de même de comprendre un peu ce qui se passe) : on estime la valeur d'un échantillon à partir de plusieurs mesures.


L'erreur de quantification se comporte comme un bruit blanc de moyenne nulle : la puissance de ce bruit est répartie uniformément sur tout le spectre ; le même niveau.
La puissance totale du bruit ne dépend que de la taille du pas de quantification (donnée par le nombre de bits) du coup si l'on élargie la bande passante en sur-échantillonnant, le niveau du bruit à chaque fréquence baisse. Pour le dire autrement, la puissance liée à l'erreur de quantification est équirépartie sur une bande de fréquences plus large.


En sur-échantillonnant à une fréquence plus élevée que "nécessaire", la puissance du bruit de quantification dans la bande utile baisse (le reste de sa puissance se trouve dans le reste du spectre, qui ne contient pas le signal qui nous intéresse).
En appliquant un filtre passe-bas pour récupérer uniquement le contenu de la bande utile puis en sous-échantillonnant, on améliore la précision puisque la puissance du bruit de quantification a baissé.
39
Citation :
Sans math... à partir d'un niveau de détail c'est impossible. Il y aura certains points qu'il faudra que tu admettes.


Oui, bien sur, c'est au moins le principe qui m'intéresse et je sais bien bien que les math sont une science exacte donc pas de discussion sur ce point.

Merci pour ta réponse, c'était clair.

Par contre au niveau qualitatif, on est bien d'accord que l'effet de ce procédé (sur-échantillonage+filtrage) pour un CAN est beaucoup moins perceptible que pour un CNA (n'est ce pas ? )

Je vais peut-être étonner certaines personnes mais je désactive systématiquement le sur-échantillonage sur les plugins proposant cette option car, certes, le son est plus "lisse", plus propre, mais j'ai toujours l'impression qu'il perd quelque chose dans le processus. (pratiqué en test A/B aveugle)

Pour un convertisseur, le test A/B est impossible, à moins de l'avoir conçu avec un switch proposant les 2 technologies.....

[ Dernière édition du message le 25/10/2013 à 22:30:03 ]

40
Citation de Cola :
Je vais peut-être étonner certaines personnes mais je désactive systématiquement le sur-échantillonage sur les plugins proposant cette option car, certes, le son est plus "lisse", plus propre, mais j'ai toujours l'impression qu'il perd quelque chose dans le processus. (pratiqué en test A/B aveugle)


Ça me semble un peu hors sujet, c'est pour dire que je ne suis pas étonné.
Lors d'une phase de bêta test un développeur nous a proposé de tester un plugin avec différent niveaux de sur-échantillonnage dans le but de trouver le meilleur compromis entre la qualité de son et la consommation processeur. Après un choix de niveaux de sur-échantillonnage dépendant de la moyenne des bêta testeurs nous avons eu une nouvelle version avec un sur-échantillonnage fixe, la suite du boulot était d'améliorer le son et la consommation. Je sais pas si j'ai juste mais je déduis par cette expérience que la meilleur optimisation d'un plu-gin doit être faite de manière fixe.

[ Dernière édition du message le 25/10/2013 à 23:01:25 ]

41
Citation :
Ça me semble un peu hors sujet, c'est pour dire que je ne suis pas étonné.

Il vaut mieux faire un peu de hors sujet sur le thème bit/fréquence qui a déjà été traité 1 million de fois sinon on va s'ennuyer....

Citation :
Je sais pas si j'ai juste mais je déduis par cette expérience que la meilleur optimisation d'un plu-gin doit être faite de manière fixe.

c'est une hypothèse valable....pour info tu peux nous dire quelle valeur a été retenue ? (et les autres valeurs proposées)
était ce un plug de traitement ou un générateur (synthé) ??

[ Dernière édition du message le 25/10/2013 à 23:22:13 ]

42
De mémoire des versions allant de deux à huit, la valeur retenu est de quatre fois.
http://www.sknote.it/C165a.htm

Je ne sais pas vraiment l'impacte que peu avoir le sur-échantillonnage, ce que je comprend c'est que l'on entend une différence ou pas suivant le type de traitement d'un plug essentiellement pour un limiteur, la saturation, le clipping,... les synthés... Il y a aussi la question de la fréquence d'un projet, une bonne moyenne était en 44 ou 48...

[ Dernière édition du message le 25/10/2013 à 23:59:17 ]

43
Il faut aussi tenir compte d'une part de marketing lors des bêta test :-D
Est ce que le son des plu-gins devrait être optimisé pour chaque niveaux de sur-échantillonnage ou fréquences d'un projet? Je ne sais pas si on peut se poser la question...

[ Dernière édition du message le 25/10/2013 à 23:57:17 ]

44
Ben le sur-échantillonnage on l'utilise dès qu'il y a une raison d'augmenter la bande passante... Et c'est normalement raccroché à des choix techniques.

Dans le cas d'un CAN, c'est fait pour augmenter le nombre de bits final. L'introduction de la modulation delta-sigma permet même de faire encore mieux : le bruit de quantification n'est plus blanc et il présente une puissance plus importante dans le haut du spectre que dans le bas (pour une puissance totale qui reste inchangée). Du coup sa puissance dans la bande utile est encore plus basse et l'effet du sur-échantillonnage encore plus marqué.
On trouve alors des CAN delta-sigma 1bit : l'électronique est un simple comparateur qui dit si le signal est sous un seuil (0) ou au-dessus (1). Un tel truc ne coûte pas un rond et peu monter très haut en fréquences : On sur-échantllonne à mort, on applique une modulation delta-sigma, on filtre, on sous-échantillonne... Et à la fin on a un signal avec une précision de l'ordre de 24bits.

Pour un CNA, plus on sur-échantillonne la sortie, moins le filtre analogique en sortie à besoin d'être sélectif (a priori, en supposant que le filtre numérique est réalisé correctement). On peut imaginer une sortie avec un montage d'AOP et 2 condensateurs qui forment un filtre du 2nd ordre largement suffisant.
En fait la question est de savoir, en terme de coût, si pour tenir une performance qualitative il vaut mieux reporter l'effort sur le numérique (qui demande de monter en fréquence, et donc d'avoir des composants pour le calcul performants) au sur l'analogique (qui prend de la place, demande une réalisation soignée et des composants coûteux, tombe plus souvent en panne).

Le sur-échantillonnage n'est pas un gage de qualité en soi (pas plus que le recours massif à l'analogique) et il peut même être parfaitement inutile : il faut regarder la perfo finale de l'ensemble de la chaîne.


Dans un plugin c'est un peu pareil : on sur-échantillonne si c'est nécessaire. On a déjà eu un topic qui est parti sur le sujet, il n'y a pas très longtemps : https://fr.audiofanzine.com/synthese-sonore-acoustique/forums/t.545257,pour-qu-elle-raison-une-distorsion-numerique-n-a-pas-la-qualite-d-une-distorsion-analogique.html

Commercialement, je me dis que l'on n'a pas non plus intérêt à faire un plug qui bouffe toutes les ressources CPU.

[ Dernière édition du message le 26/10/2013 à 09:25:33 ]

45
Citation :
Ben le sur-échantillonnage on l'utilise dès qu'il y a une raison d'augmenter la bande passante... Et c'est normalement raccroché à des choix techniques.

Dans le cas d'un CAN, c'est fait pour augmenter le nombre de bits final.


Augmenter le nombre de bits par rapport à quoi ??

Si je conçois un CAN à base de comparateurs (sans sur-échantillonage), je peux très bien sortir en 48 bits.

[ Dernière édition du message le 26/10/2013 à 12:54:42 ]

46
Bonjour,
Citation :
"pour capturer parfaitement un signal sinusoïdal de fréquence Fs, il suffit de échantillonner a la fréquence Fe=Fs*2" est archi-fausse.
Et bien non, c'est archi-vrai parce qu'il n'est pas nécessaire de réaliser le filtrage : on sait que cette sinusoïde seule est dans la bande

Passer pour un idiot aux yeux d'un imbécile est une volupté de fin gourmet. (G. Courteline)

47
x
Hors sujet :
Les convertisseurs N/A Mytek utilisent le sur-échantillonnage : si on bosse en 44. ou 48 kHz, il convertit d'abord en 96 kHz puis fait la conversion vers l'analogique
48
Citation :
Et pour une fréquence un peu plus basse on observera un battement avec la fréquence image, les filtres réels n'étant pas parfaits.
Pour une sinusoïde seule, il n'y a pas besoin d'un filtrage mais uniquement de savoir quelle bande veut être reproduite.
49
x
Hors sujet :
J'ai fait l'essai à 44.k et suréch 96k en sortie de FFUC avec Cubase, récupération du signal sur oscillo numérique. Je constate que les fréquences images sont coupées plus rapidement quand le signal est suréchantillonné, ce qui devrait améliorer les choses (mais est-ce audible ?).
Il serait intéressant de regarder ce qui se passe en sortie de Mytek (mais je n'en possède pas).

Passer pour un idiot aux yeux d'un imbécile est une volupté de fin gourmet. (G. Courteline)

50
Citation :
Pour une sinusoïde seule, il n'y a pas besoin d'un filtrage mais uniquement de savoir quelle bande veut être reproduite.
Je ne crois pas que l'on se soit compris.
Si je joue (N/A) une sinusoïde échantillonnée, seule ou non, je retrouverai son image (autour de Fe/2) avec un niveau fonction de la qualité de l'anticrénelage. Et lorsque l'on est très proche de Fe/2, le filtre imparfait fait que l'image est peu atténuée d'où un battement. La manip est simple à faire.
Edit : cf. https://img.audiofanzine.com/image.php?lang=fr&identifier=image&size=normal&module=user&userPhoto_id=263695

Passer pour un idiot aux yeux d'un imbécile est une volupté de fin gourmet. (G. Courteline)

[ Dernière édition du message le 27/10/2013 à 16:12:41 ]