Hertz et bits: comment travailler et convertir le son?
- 220 réponses
- 21 participants
- 13 775 vues
- 23 followers
clinik
Je vais essayer d'etre clair.
Je fait de la musique electronique avec cubase, dans un style assez minimaliste et épuré.
Il y a donc peu de sons, beaucoup de vide, et, en conséquences, j'ai besoin d'une qualité de son vraiment top, voire chirurgical!...
J'aurais donc aimé avoir quelques conseils et informations au niveau de la résolution et des fréquences d'échantillonages au moment de composer, ainsi que (et surtout!), sur le format d'encodage audio après export.
Par exemple, j'ai composé en 96000/24, fait un export, puis encodé avec wavelab en mp3, aac, flac, etc... : c'est dégeulasse.
Pourriez-vous me filer un p'tit coup de main?
ps: ma config: cubase + m-audio410 +d ynaudio bm5a
Anonyme
Wolfen
Sinon vos histoires de dynamique, j'ai l'impression qu'elles sont basées sur le fait que vous utilisez pas la même définition de ce mot. La dynamique, d'un point de vue théorique et objectif, c'est l'écart entre le plus haut et le plus bas niveau. En 24 bits on a du 144 dB maximum et 96 dB en 16 bits (6 dB par bit). Donc effectivement c'est sans appel, la fréquence d'échantillonnage n'a rien à voir là dedans.
J'ai l'impression que la définition de karlos de la "dynamique" c'est dans le sens "patate", bref un truc plus ou moins subjectif... Genre "ah ouais y a de la dynamique sur ton enregistrement avec tes super convertisseurs Neutrik alors que sur ma carte son pourrie ça fait tout plat".
Développeur de Musical Entropy | Nouveau plug-in freeware, The Great Escape | Soundcloud
karlos73
Donc pour resumer, si j'entend (psychologiquement selon mes oreilles de chauves souris mutantes) une difference entre du 24/44 et du 24/88 ou 96, c'est que l'aliasing me chatouille le cerveaux et le tympan au point de prefrerer repousser les limites frequentielles grace a la bande passante elevee.
Maintenant est-ce que cet aliasing, au dela d'etre repousse frequentiellement par la bande passante, n'est pas diminue aussi, comme dans le cas d'un aliasing sur une image, grace a la demultiplication des valeurs disponibles a partir de la quantification (en bits), ainsi l'aliasing ne serait-il pas moins audible en 24 bit plutot qu'en 8 bit?
Tous ca pour dire que le repliement est autant lie a la quantification qu'a la bande passante. Pour s'en rendre compte un bit crusher/digitizer (pour ceux qui on des Nord Modular) dans lequel on peut reduire indepedemment la quantification et le sample rate permet de s'en rendre compte aisement. On constate qu'une reduction de la quantification augmente la distorsion harmonique (normal puisqu'on reduit le nombre de valeurs disponible pour restituer l'information sonore), et que celle-ci est plus ou moins modifie selon que l'on repousse la plage de frequence du sample rate.
Le fond du probleme est donc de savoir, pour ceux qui entendent une difference entre le 24/44 et le 24/96, pourquoi ils entendent cette difference au dela de l'effet purement psychologique qu'invoque les detracteurs. Certains evoque a ce propos l'effet de la frequence de battement sur la perception cerveaux/tympan d'un ensemble de "frottement" d'harmoniques, ceux-ci sembleraient donc manifestement plus sensible (ou mytho) que d'autres.
Wolfen
Citation : Maintenant est-ce que cet aliasing, au dela d'etre repousse frequentiellement par la bande passante, n'est pas diminue aussi, comme dans le cas d'un aliasing sur une image, grace a la demultiplication des valeurs disponibles a partir de la quantification (en bits), ainsi l'aliasing ne serait-il pas moins audible en 24 bit plutot qu'en 8 bit?
Tous ca pour dire que le repliement est autant lie a la quantification qu'a la bande passante.
Oula tu mélanges tout. Exemple d'aliasing tout bête, un synthé qui génère un signal carré, sans qu'il y ait de filtrage anti aliasing. Le signal carré peut être vu comme une somme de sinusoïdes, avec des fréquences multiples les unes des autres. Sans l'anti-aliasing, il y a disons une seule de ces sinusoïdes, qui au lieu de se retrouver à 25 kHz va se retrouver à 17 kHz, avec 17 qui n'est pas un multiple de la fondamentale. Comme cette composante est inharmonique, et disons d'une amplitude de -20 dB par rapport à la fondamentale, on va l'entendre, ça va faire mal aux oreilles.
Maintenant si on change la quantification, cette sinusoïde aura toujours le même niveau, et forcément ça va altérer sa reproduction, tout comme celle de toutes les autres. Je ne vois pas pourquoi ça serait spécifiquement lié à l'aliasing, si on dégrade la qualité d'un signal, ça va tout dégrader, les qualités et les défauts, donc un truc déjà déguelasse le sera encore plus. Et inversement, si on veut se débarrasser de ça, qu'on passe en 24 bits ça va rien changer, on aura juste une composante merdique plus "parfaite", il faut juste se préoccuper de la fréquence d'échantillonnage...
Citation : Le fond du probleme est donc de savoir, pour ceux qui entendent une difference entre le 24/44 et le 24/96, pourquoi ils entendent cette difference au dela de l'effet purement psychologique qu'invoque les detracteurs. Certains evoque a ce propos l'effet de la frequence de battement sur la perception cerveaux/tympan d'un ensemble de "frottement" d'harmoniques, ceux-ci sembleraient donc manifestement plus sensible (ou mytho) que d'autres.
Bullshit. Des gens qui disent entendre des différences hors phénomènes d'aliasing il y'en a des paquets. Comme quoi les fréquences aigues elles seraient mieux définies en 96 kHz, alors qu'elles sont dans la bande passante en échantillonnage 44.1 kHz. Qui entendent la différence sur un blind test j'en ai jamais vu un seul. Souvent parce qu'ils ont la flemme de faire le test et que ceux qui les remettent en question sont des ignares. Par contre j'ai vu des trucs monstrueux racontés par des sujets dans des tests psychoacoustiques. L'oreille humaine joue énormément de tours, et il faut toujours garder ça en considération quand on fait des tests sérieux. Quand c'est pas fait, je n'accorde pas beaucoup d'intérêt au test.
Et pour observer ce phénomène d'aliasing, pas besoin d'oreille, un bête analyseur de spectre montre qu'il y a des fréquences supplémentaires dans les aigus en 44.1 kHz. A condition qu'on soit dans une configuration avec effectivement génération d'aliasing, c'est à dire en sortie de master avec plein d'effets partout qui génèrent des harmoniques (saturation, modélisation analogique, compresseur et limiteurs...). Mais souvent, le débat porte sur un enregistrement fait en 44.1 kHz, et en 96 kHz, sans traitements numériques derrière, et là on est clairement dans le domaine du charlatanisme.
Quand à l'effet de battement dont tu parles, le fait que l'oreille humaine interprète deux sinusoïdes de fréquence proche comme étant une seule avec une modulation d'amplitude à partir d'un certain écart de fréquence, je ne vois pas du tout ce que ça vient faire là.
Développeur de Musical Entropy | Nouveau plug-in freeware, The Great Escape | Soundcloud
Anonyme
Citation : une difference sur, par exemple, une queue de reverbe dans le haut du spectre en 24/44 puis en 24/96.
ba perso j'entends pas cette différence, par contre pour la même queue de réverbe j'entend une légère différence entre un fichier en 44/32 et un fichier en 44/24.
Wolfen
Citation : une difference sur, par exemple, une queue de reverbe dans le haut du spectre en 24/44 puis en 24/96.
Si il y a une disto ou un compresseur dans la chaine, on peut effectivement entendre une différence en théorie. En pratique, faut aussi savoir que les effets numériques filtrent assez bien l'aliasing aujourd'hui, et que le phénomène peut être ramené à -60 dB voire moins en sortie d'un effet. Après, si on chaîne plusieurs effets mal foutus c'est autre chose...
Autre truc aussi, qui concerne les réverbs en particulier, tous les effets qui génèrent des délais se basent sur des lignes de retard, avec un retard donné. Si les algorithmes sont foutus d'une certaine manière, cette valeur est fixée en nombre d'échantillons, et non en temps. Conclusion, les délais seront plus courts en 96kHz qu'en 44.1kHz, et le contenu fréquentiel d'une réverbération sera complètement différent dans les deux cas...
Développeur de Musical Entropy | Nouveau plug-in freeware, The Great Escape | Soundcloud
karlos73
Citation : le son est calcule par le dsp qui s'exprime en bit/db, db parceque plus le dsp calcule d'information sonore, plus la dynamique augmente puisque le son le plus fort et le plus faible sera mieux definie par la precision de calcul, il est ensuite restitue accoustiquement jusqu'a notre oreille selon la frequence d'echantillonnage qui definie la plage de frequence dans laquelle la dynamique sera percus par l'oreille/cerveaux...
Citation : Je ne vois pas pourquoi ça serait spécifiquement lié à l'aliasing, si on dégrade la qualité d'un signal, ça va tout dégrader, les qualités et les défauts, donc un truc déjà déguelasse le sera encore plus. Et inversement, si on veut se débarrasser de ça, qu'on passe en 24 bits ça va rien changer, on aura juste une composante merdique plus "parfaite", il faut juste se préoccuper de la fréquence d'échantillonnage...
Effectivement si le signal est pourris au depart c'est pas l'augmentation de la quantification ou de la bande passante qui va ameliorer les choses......(soupir).
J'ai toujours pense que le repliement etait due a la quantification, et que la bande passante agissait comme un conducteur accoustique de la quantification, si ce conducteur n'etait pas assez large alors des composants inharmoniques se faisait entendre, de meme que lorsque la quantification est trop faible par rapport a la bande pasante, le repliement s'entend...
Ok pour les queues de reverb ceci explique peut-etre cela, mais le haut du spectre dans une modelisation analo d'un moog per exemple me semble meilleur en 96 pourquoi?
Wolfen
Citation : db parceque plus le dsp calcule d'information sonore, plus la dynamique augmente puisque le son le plus fort et le plus faible sera mieux definie par la precision de calcul
Plus il calcule d'information ça veut dire quoi ? Plus de bits par échantillon ? Plus d'échantillons par seconde ? La dynamique du signal est pour moi mieux "définie" dans le premier cas, parce qu'on a plus de valeurs discrètes pour exprimer une grandeur qui peut prendre une infinité de valeurs (analogique). Après, qu'on échantillonne plus ou moins, du moment qu'on a une bande passante équivalente à celle de l'oreille, je ne vois pas pourquoi ça influencerait la précision dans le calcul valeur plus haute - valeure plus basse. A moins que le signal d'origine ait des fréquences au dessus de 20 kHz, mais de toutes façons on ne les entends pas...
Citation : il est ensuite restitue accoustiquement jusqu'a notre oreille selon la frequence d'echantillonnage qui definie la plage de frequence dans laquelle la dynamique sera percus par l'oreille/cerveaux...
OK. Mais là encore, qu'est-ce que ça a à voir la dynamique avec la bande passante ? Comment la dynamique d'un signal compris entre 20 Hz et 20 kHz, ce qu'on entend donc, pourrait être influencée par le fait de prendre une bande passante supérieure ? C'est à dire comment des composantes fréquentielles contenues dans la bande de fréquence qu'on entend pas, pourraient influencer la dynamique du signal dans le domaine qu'on entend ?
Citation : Effectivement si le signal est pourris au depart c'est pas l'augmentation de la quantification ou de la bande passante qui va ameliorer les choses......(soupir).
Ce que je veux dire c'est qu'un signal nickel avec un peu d'aliasing, et un signal nickel sans aliasing, qu'ils soient quantifiés en 8 bits ou en 24 bits, ils garderont toujours les mêmes propriétés, à part concernant les aléas de la conversion. Donc je ne vois pas trop ce qui relie la quantification à l'aliasing...
Citation : J'ai toujours pense que le repliement etait due a la quantification, et que la bande passante agissait comme un conducteur accoustique de la quantification, si ce conducteur n'etait pas assez large alors des composants inharmoniques se faisait entendre, de meme que lorsque la quantification est trop faible par rapport a la bande pasante, le repliement s'entend...
Le repliement n'a strictement rien à voir avec la quantification. La demi fréquence d'échantillonnage agit comme un miroir, et lorsqu'une composante fréquentielle veut passer au travers, au lieu de continuer pour aller à sa fréquence réelle elle avance à reculons. Si tu créés par synthèse une sinusoide de 30 kHz avec du 48 kHz de fréquence d'échantillonnage, tu vas en fait la retrouver à 24-6 = 18 kHz (car 48/2 = 24 et 30 - 24 = 6). Ca n'a donc strictement rien à voir avec la quantification. Ca ne s'entend que si la fréquence de repliement est suffisamment basse, et le niveau du signal replié suffisamment fort. Un 0.1 comme valeur pour un échantillon (on est entre -1 et 1 en 32 bits flottants), il aura le même volume sonore en 8 bits, 16 bits et 24 bits. Enfin "la quantification est trop faible par rapport a la bande pasante" ça a autant de sens que "l'image est trop claire par rapport à la pression de l'air environnant".
Développeur de Musical Entropy | Nouveau plug-in freeware, The Great Escape | Soundcloud
Anonyme
Citation : comment des composantes fréquentielles contenues dans la bande de fréquence qu'on entend pas, pourraient influencer la dynamique du signal dans le domaine qu'on entend ?
même question
Phil443
Je pense qu'un petit blind-test serait instructif pour Karlos73... Il n'y a pas de défi dans ce que je dis : j'ai moi-même été bluffé il y a peu sur une écoute comparative portant sur un tout autre sujet, mais je me suis fait eu comme un bleu. Et ça m'a permis de faire sauter un préjugé...
Malgré tous les progrès scientifiques, force est d'admettre que le pet reste quelque chose qui nous échappe...
- < Liste des sujets
- Charte