Se connecter
Se connecter

ou
Créer un compte

ou

Sujet Une conversion de fréquence d'échantillonnage augmente le niveau crête ?

  • 146 réponses
  • 18 participants
  • 14 968 vues
  • 25 followers
Sujet de la discussion Une conversion de fréquence d'échantillonnage augmente le niveau crête ?
Il m est arriver une histoire a dormir debout :

Ce soir je finalisais des masters pour les mettre sur cd.
Mon projet est a 88,2 kHz, 24 bit, a l export du mastering, je sélectionne donc 44,1 et 16 bit.

Mes masters lors de la lecture dans Logic 9 modulent a -0,2 dB crête. Cependant logic en exportant en 44,1 16 bit me colle a 0 dB, ca clippe !!

Je fais le même export en 88,2 et ca marche, je retrouve bien mon signal modulant a -0,2 dB. Je n ai coche aucune option de normalisation ou quoi que ce soit ....

Logic ne sait pas passer de 88,2 a 44,1 .... C est pitoyable, je suis sur le cul

C est quoi ce bug !!!!!!

Afficher le sujet de la discussion
131
Je n'ai pas dit qu'il n'en parle pas, regarde mon post précédent. ;)

Citation :
donc certains problèmes ne concernent pas le sujet qui nous occupe

ne veut pas dire :
"ce mémoire n'a aucun rapport avec le sujet qui nous occupe"

[ Dernière édition du message le 17/08/2011 à 14:32:51 ]

132

Tu n'aurais pas édité ton message petit coquinou ? icon_mrgreen.gif ou j'ai gégainé plus vite icon_boire.gif

[ Dernière édition du message le 17/08/2011 à 14:37:02 ]

133
J'ai ajouté les citations de Christophe, mais ça :
Citation :
Le mémoire est orienté hardware, donc certains problèmes ( "il est fréquent que la fréquence d'échantillonnage en sortie de SRC ne puisse pas être verrouillée sur celle entrante"...) ne concernent pas le sujet qui nous occupe.

n'a pas bougé. Donc oui, tu as un peu lucky-luké sur ce coup !
134
Bon, j'essayais de trouver quels sont les algos utilisés dans Audacity (flitre FIR ou pas, quel algo de filtre, quel algo d'interpolation/décimation), mais je n'ai pas encore vraiment trouvé.

Voici les pistes que j'ai pour l'instant:
Audacity utilise cette librairie : https://wiki.audacityteam.org/wiki/Libresample
dont les algos sont les mêmes que Secret Rabbit Code (= SRC, ste blague! ), également testé sur http://src.infinitewave.ca/ .
Sur la page web de SRC les algos utilisés ne sont pas non plus indiqués, ce n'est pas non plus écrit en gros dans les commentaires du code source (pas plus regardé) ! Par contre il y est dit que la meilleure méthode donne 96% de bande passante et 145dB de rapport signal/bruit.

Ces deux librairies sont basées là-dessus :
https://ccrma.stanford.edu/~jos/resample/ (version pdf complète de ces pages web)
Une solution est donc de lire posément le contenu de ces pages (je les ai juste survolées).


Une bonne page de référence globale :
http://wiki.hydrogenaudio.org/index.php?title=Resampling


Sinon dans cette discussion ils évoquent une page qui semble très intéressante, d'autant qu'elle est en français:
http://ldesoras.free.fr/prod.html
Lire tranquillement le document "À La Recherche Du Rééchantillonneur Parfait" doit fournir pas mal de réponses...
135
Quelqu'un qui aurait pu poster directement dans le sujet, me signale :

Dans la liste de src.infinitewave.ca je vois qu'il y a Zita-resampler qui est aussi un logiciel libre. Peut-être que cette page pourra t'aider dans tes recherches sur les algos utilisés pour les conversions :
http://kokkinizita.linuxaudio.org/linuxaudio/zita-resampler/resampler.html

L'algorithme est le même que celui de libsamplerate (=Secret Rabbit et donc Audacity), mais allégé pour engendrer moins de charge CPU. La page de présentation est un peu plus claire et mentionne notamment que l'algorithme est équivalent à :
- upsampling jusqu'à une fréquence commune aux 2 FE
- filtrage passe-bas
- sélection des samples de la fréquence de destination
(même si ce n'est pas programmé comme ça)

Les filtres sont des FIR.
A la fréquence de Nyquist, le filtre de Zita est à -60dB, tandis que côté Audacity c'est -100dB.

[ Dernière édition du message le 17/08/2011 à 17:54:02 ]

136
Je me pose une question, comme ça, sur les effets psycho-acoustiques.

Ne serait-il pas possible que des excitations de la bande haute-fréquence, rejetée par le processus de sous-échantillonnage, aient des interactions dans la bande basse-fréquence conservée perçues par des effets psycho-acoustiques ?

Par exemple, l'oreille (de l'orifice jusqu'au nerf) est un système qui possède quelques fréquences de résonances. Si j'applique une excitation à une fréquence multiples de l'une de ces fréquences de résonance, il est possible que je la perçoive (pas à la bonne fréquence, mais je la perçois quand-même).


"Mathématiquement" on cherche le filtre passe-bas parfait, en forme de porte dans le domaine fréquentiel, mais est-ce que l'introduction de certaines variations (ou une ré-injection pondérée de la bande rejetée après un décalage de fréquences, qui pourrait d'ailleurs être réalisée en jouant sur le recouvrement spectral qui intervient avec la décimation) ne permettrait pas d'améliorer la conversion en terme de qualité sonore perçue ?

Il me semble avoir lu quelques (rares) publications sur cette idée ; ça dit quelque chose à l'un d'entre-vous ?

[ Dernière édition du message le 17/08/2011 à 18:50:36 ]

137
Citation :
"Mathématiquement" on cherche le filtre passe-bas parfait, en forme de porte dans le domaine fréquentiel, mais est-ce que l'introduction de certaines variations (ou une ré-injection pondérée de la bande rejetée après un décalage de fréquences, qui pourrait d'ailleurs être réalisée en jouant sur le recouvrement spectral qui intervient avec la décimation) ne permettrait pas d'améliorer la conversion en terme de qualité sonore perçue ?

Il me semble avoir lu quelques (rares) publications sur cette idée ; ça dit quelque chose à l'un d'entre-vous ?

:8O: ha non, rien du tout.


J'ai un peu parcouru : http://ldesoras.free.fr/prod.html (À La Recherche Du Rééchantillonneur Parfait) mais son objectif est la lecture de samples pour sampler/synthétiseur, donc c'est un peu différent. Toutefois il semble tempérer l'intérêt des interpolations polynomiales :
Citation :
Pour augmenter la qualité, il est nécessaire d'augmenter l'ordre du polynôme et le nombre de points utilisés. Malheureusement, les calculs nécessaires croissent beaucoup plus rapidement que les gains en qualité, ce qui limite l'intérêt de l'interpolation polynomiale.

Nous disposons également des convolutions par filtre FIR. Il s'agit de l'application directe du théorème d'échantillonnage, auquel on ajoute une fonction fenêtre pour limiter le terme sinc théoriquement infini.


Concernant le filtre, il écrit aussi :
Citation :
Méthode de conception du filtre. Elle dépend des outils dont vous disposez ! Si vous
ne pouvez pas utiliser l'algorithme de Parks-McClellan, essayez un sinc fenêtré. Les
fenêtres classiques comme celles de Hanning ou de Blackman-Harris ont généralement
des lobes latéraux trop élevés. Préférez les fenêtres que vous pouvez paramétrer, comme
celle de Dolph-Chebyshev ou de Kaiser.



J'ai ensuite commencé à lire : http://ccrma-www.stanford.edu/~jos/resample/resample.pdf
l'algo semble basé sur le sinc, voir §3.3. D'après la page 11, il semble aussi que le filtrage se fasse par FIR.

Dans la discussion mentionnée plus haut, c'est aussi leur compréhension, et il y a un schéma pour l’illustrer.

Enfin, il semble que leur sinc ne soit pas calculé (j'aurais pensé qu'on commençait par le calculer en fonction des 2 FE et remplir une table avec les valeurs calculées) mais interpolé depuis une table statique.

Cela dit, comme c'est un peu dense, je peux avoir compris des trucs de travers. :-D
138
Je pensais à des études de ce type http://www.aes.org/e-lib/browse.cfm?elib=14528
139
Je ne suis pas inscrit à l'AES !

Mais la conclusion du résumé est rassurante :
Citation :
Many options currently exist for sample rate conversion. With sample rate reduction playing an integral part in the modern production world, downsampling algorithm quality is more important than ever. This paper presents data exploring the differences in sample rate reduction algorithms. While certain tests clearly display differences in the quality of the algorithms, listening test data shows the average listener is unable to repeatedly discern the difference in sample rate reduction methods.

:-D
140
J'ai pas eu le courage de lire le sujet en entier (je suis arrivé ici grâce à une citation d'"Alerte Jargon" :-D), mais au cas où ça n'aurait pas déjà été évoqué, le fait que le niveau crête change lors d'une conversion de fréquence d'échantillonnage n'est pas un bug. C'est mathématique, un exemple classique est le phénomène de Gibbs.

Ça dépend effectivement de la réponse du filtre utilisé lors du réenchantillonnage.

[ Dernière édition du message le 18/08/2011 à 00:42:16 ]