Se connecter
Se connecter

ou
Créer un compte

ou
FR
EN

[FAQ] Toutes les réponses à vos questions existentielles sur le 24 bits et le 96 kHz

  • 562 réponses
  • 93 participants
  • 194 752 vues
  • 127 followers
Sujet de la discussion [FAQ] Toutes les réponses à vos questions existentielles sur le 24 bits et le 96 kHz
Ce thread a pour but de centraliser les informations sur l'intérêt des résolutions élevées en audio, par exemple 24 bits/96 kHz. Je commence par un auto-quote :


La quantification

Le 24 bits est plutôt quelque chose d'intéressant, puisque la hausse de résolution dans ce cas augmente la dynamique sur les enregistrements, ce qui peut être très utile lorsqu'on enregistre avec des préamplis qui ont un niveau de sortie en dessous de 0 dB... C'est complètement inutile par contre sur des instruments virtuels ou du tout numérique, entre autres puisque les séquenceurs (et donc les plug-ins) fonctionnent en interne avec du 32 bits à vigule flottante...


Les fréquences d'échantillonnage

Pour la question de la fréquence d'échantillonnage, l'intérêt pratique d'aller à 88.2 ou 96 kHz, bien qu'il existe, est beaucoup plus faible que celui du 24 bits, ce qui explique que des professionnels recommandent peu souvent à des home-studistes de lâcher le 44.1 kHz, mais demandent toujours du 24 bits.

Ensuite sur un enregistrement seul, à moins d'avoir une oreille d'extra-terrestre, il est impossible d'entendre ou même de visualiser sur un spectrogramme une différence notable dans le domaine de l'audible entre quelque chose d'enregistré avec un microphone et un bon préampli/une bonne carte son en 44.1 kHz et en 96 kHz. Si différence il y a, c'est que la qualité des convertisseurs n'est pas la même.

Quel est donc l'intérêt de ces fréquences d'échantillonnage élevées alors ? Dans une chaine de traitements numériques, bien que les ingénieurs/développeurs mettent des filtres anti-aliasing dans leurs produits (repliement au dessus de la demi-fréquence d'échantillonnage, voir théorème de Shannon/Nyquist), il y a toujours un peu de repliement qui se fait, surtout si certains rigolos n'ont pas mis du tout de dispositifs anti-aliasing, comme sur certains synthétiseurs numériques (ce qui peut être parfois intéressant au niveau sonore, mais très grave sur une simulation d'amplificateur guitare). Augmenter la fréquence d'échantillonnage permet de repousser la limite en fréquence du repliement, et donc de rendre les traitements plus propres. Mais là encore, il est probable que vous ne puissiez pas entendre de différence flagrante...

Enfin, le 48 et le 96 kHz sont des fréquences utilisées plutôt en vidéo. La conversion de fréquence d'échantillonnage étant moins complexe du 88.2 au 44.1 que du 96 au 44.1, il est généralement conseillé de bosser en 88.2, sauf si vous avez vraiment confiance en votre logiciel de conversion. Travailler en 48 par contre est une grosse connerie, parce que ça apporte presque rien au niveau théorique, et que la conversion 48 vers 44.1 peut être source de bordel supplémentaire par rapport au 44.1 direct...


96 kHz et 24 bits dans un home-studio ???

Pour terminer ce monologue, une remarque très importante, discuter des fréquences d'échantillonnage et de la quantification optimales c'est bien, mais il faut déjà avoir du matos derrière, et réaliser des mixages à la hauteur, pour que l'intérêt des résolutions supérieures soit pertinent dans vos projets personnels ! Ne pas savoir mixer correctement ses morceaux et bosser avec du 24 bits/96 kHz me semble être une aberration...

Petite astuce aussi pour savoir si se prendre la tête dans votre cas vaut le coup : faites un enregistrement + mixage avec du 96 kHz/24 bits. Exportez le résultat en WAV, puis convertissez le en 44.1K/16 bits. Modifiez la fréquence d'échantillonage sur tous vos enregistrements et à l'intérieur du projet, puis faites à nouveau un export. Comparez les deux sur votre système d'écoute habituel. Si vous n'entendez pas de différences notables et intéressantes, arrêtez de vous prendre la tête :mrg: Ou allez acheter du meilleur matos... Autre cas : si "les deux sonnent aussi mal", retournez bosser le mixage, en 44.1K/16 bits bien sûr :oops2:

Développeur de Musical Entropy | Nouveau plug-in freeware, The Great Escape | Soundcloud

Afficher le sujet de la discussion
326

Citation : vu que le niveau du bruit engendré par la décimation est égal à un pas de quantification


1/2 pas :clin:
327
Je pinaille: ça va dépendre de où est le trigger...
En gros, on est dans des tensions HYPER faibles. C'est dire si le bruit ne sera pas forcément audible... Et encore moins la qualité supérieure du bruit de dispersion.
328

Citation : Mais je cherche depuis pas mal de temps des infos concrètes sur ces histoires de dithering, sans succès, et ce suite à l'intervention d'un ingé sur un autre thread (dont Jan se souvien peut être) qui sous entendait très clairement que sans ces systèmes de dithering hardware propres aux uad et PT HD, il n'aurait jamais le son qu'il a.



Tu as le lien?
329
330

Hors sujet : Un qui n'avait pas volé son pseudo ;)



JM
331

Citation : Je ne pense pas qu'il y ai un rapport.
Mais je cherche depuis pas mal de temps des infos concrètes sur ces histoires de dithering, sans succès, et ce suite à l'intervention d'un ingé sur un autre thread (dont Jan se souvien peut être) qui sous entendait très clairement que sans ces systèmes de dithering hardware propres aux uad et PT HD, il n'aurait jamais le son qu'il a.

CLIP WOOZ-LA RUE CHANTE RENAUD
Cut-Boost Détail de la configuration informatique

Chef Sioux du Son Chef Sioux du Son

689 messages
Signaler un abus
325 Posté le 01/03/2009 à 16:48
A part à masquer le bruit aléatoire engendré par la décimation, je ne vois pas ce qu'il y a d'autre à trouver comme explication.
Après, est-ce que tel ou tel procédé est mieux que celui de la concurrence... là, je sèche. Et je ne suis pas persuadé que c'est forcément grâce à un super dithering hardware que je vais avoir "ce" son.
Sur des échelles de quantification de 64 ou 32 bits, il faut commencer à avoir l'oreille particulièrement chatouilleuse pour avoir une préférence (vu que le niveau du bruit engendré par la décimation est égal à un pas de quantification...).



Franchement, pour les réponses à toutes ces questions le bouquin de Katz m'a pas mal suffit quand même.
Après je sais pas vous, manque t il des infos ?

Pour les UAD et consors, vu le prix des becanes, et la iberté de choix des processeurs, forcément autant se permettre le luxe du 64 bits et des dithers retours même sur des ordres de grandeurs > à -10 décimales.
Ca ne peut qu'être mieux.

De même, je ne pense pas que les considérations perceptives ("ca s'entends pas") vont arrêter là la course aux résolutions et aux Fe.
Forcément pas, pour des raisons commerciales comme scientifique.
Le signal n'a peut être pas tout dit. Des fois qu'on découvre qqchose de plus fort que les transitoires et des Fe élevées seront nécessaires, qui sait...



Mais de ces dernières pages, peut être qu'il faut noter que la maturité c'est aussi de savoir travailler avec le matos qu'on a sous la main, et peut être que faire du dither 32->24 sur du matériel moyen, ce n'est pas la peine.

Citation : qui sous entendait très clairement que sans ces systèmes de dithering hardware propres aux uad et PT HD, il n'aurait jamais le son qu'il a.


Les noise-shape des dither sont d'après moi LES SEULES explications aux sonorités différentes des matos softwares.
332
Dire que le noise shape est la seule raison d'une sonorité différente d'un plug à l'autre ça va super loin là quand même, non ? Donc en gros pour toi il existe UN algo pour chaque type de traitement et après c'est le noise shape du dithering qui fait tout ? On se serait fait mener en barque pendant des années et des années ?

Docks / jan > ce genre de mec il ne faut même pas leur répondre, hop dans la boite troll / gros con et on referme.
333
Yope hoummous, non je ne pense pas du tout que le noise shape fasse tout !
Loin de là. :oo:
Simplement si tu prends 2 séquenceurs, à nu (effets en bypass ou "transparents") tu entends +/- déjà un truc qui a pas la même patte non ?
Il y a quand même des effets où les algos sont très standards...

Ceci dit, je prends ableton et cubase par ex, je plug les mêmes plugIns, idem, je rentre les mêmes sources. Et la patte est différente. Le NoiseShape joue. Ca ne fait pas tout mais c'est un dénominateur commun, je creuse encore la question.

Citation : et le dithering fait tout ? on se fait mener en barque depuis des années ?

Lol. Mais non. Ca fait rien, mais ca joue. c'est tout. Enfin je dis ca, avec deux OSC de base dans Reason et Ableton, j'ai pas le même son, alors évidemment c'est pas à cause du shaping... mais c'est quoi alors ? l'un utilise du double dans ses math::sin() et l'autre du float() ?... Après je cherche à mieux comprendre, hein. Si tu sais, tell me.
334
Ha d'accord, tu parlais des séqenceurs soft. Oui là effectivement c'est une piste qui me parait quand même techniquement plus convaincante que le mythique "moteur audio" :P:
335
Ah ok, je parlais pas du fait qu'un triton et un microkorg sonne pas pareil non non non... :clin:
336
Ok, j'ai eu un coup au coeur là :mdr:
337
Tu m'étonnes... :8)
338
Chouette le débat des séquenceurs qui sonnent différemment, ça faisait longtemps.
Et surtout pas de comparaison autre qu'à l'oreille et sans test à l'aveugle.
En oenologie ça s'appelle des buveurs d'étiquette.

339
Loooooooool.
Et l'oreille ma frite, ca compte aussi.

Ah non je suis bete, je devrais livrer mes prods aux DJ avec un analyseur, et leur demander d'oublier leur oreille et de tester tous les skeuds pour savoir ce qui sonne le mieux !
Pfffff...

Ceci dit, tu as raison implacablement, je n'ai pas de mesure sous la main pour confirmer mes avances.
Peut être que tu en as ? Qui infirment ou confirment ?
340
Et pour connaître bien les deux bouts de la chaîne : écoute et code, (et moins l'intermédiaire de la technique du son), j'avance sans complexe que 2 programmes peuvent avoir toutes les raisons du monde de sonner différemment avec pourtant les mêmes objectifs.

Ajouté à ca l'incrémentation des plugs et voire l'analo, je pense pas que ce soit de la branlette de mouche de prendre en compte celle du séquenceur lui même.
C'est la transparence du numérique qui est une lubie de mecs qui croient qu'on fait les meilleurs vins en France.
341
Il y a un thread là dessus, il est très instructif.

Citation : /mao/forums/t.179681,tordre-le-cou-au-moteur-audio.html


342

Hors sujet : ma mère est plus real que la tienne



Vais voir ca, mais le titre me fait déjà tiquer "tordre le coup au moteur audio"... boarf... le moteur audio ne fait que motoriser, pas traiter...

http://developer.apple.com/audio/overview.html




Mais j'entends bien qu'on parle du "moteur du séquenceur"... mais un moteur, ce n'est pas un dither hein !

Citation :
Citation :
you know what, you could simply prove it. Post 2 32bit wave files, and show the world how that 3.99999999999996 sample instead of 4.0 is audible. Once done, you can keep arguing about calculators, etc, for your whole life because computers aren't gonna handle 'infinite precision' so soon.


au passage, petite pique pour pro tools:
Citation :
If you really feel the need to nag about that kind of thing, then choose pro-tools. There's just NO audio app today that still mixes in integer except pro-tools (granted, it's 24bit, but whatever it is, as long as it's integer you'll have to check for clipping).



On va pas refaire ce forum, mais la premiere citation est un exemple d'école, et le second est celui de Bob Katz dans son "mastering book".



Citation d'Ableton :

Citation : the whole "audio engine" thread is a myth.

Ben ... oui, un "moteur audio" ca ne veut rien dire, en tous cas ca n'a pas de réalité pour le développeur. Tu ne fais que des sommes de traitements ET/OU du streaming (ou de la lecture). Donc un problème de qualité de traitement et de qualité d'horloge. Il n'y a pas cet espèce de "masse noire" où le son est remué en permanence comme dans la marmitte à mamie.
343

Hors sujet : en tous cas thread flaggé, merci

344

Citation : Vais voir ca, mais le titre me fait déjà tiquer "tordre le coup au moteur audio"... boarf... le moteur audio ne fait que motoriser, pas traiter...


Ce que l'on appelle "moteur audio" d'un séquenceur, c'est tous ses traitements internes, donc hors plug-in. Ca comprend : routage des pistes (donc bus, et donc leur format : 32 bits float, 24 ou 48 bits fixe, dithering...), gain, pan, automations, compensation des délais...

Citation : Simplement si tu prends 2 séquenceurs, à nu (effets en bypass ou "transparents" tu entends +/- déjà un truc qui a pas la même patte non ?


Ce que tu dis correspond bien à la définition du moteur audio (des séquenceurs <- mais ça c'est évident et c'est sous-entendu). Peut-être as-tu fait erreur sur la définition de "moteur audio".


Je ne vois pas pourquoi tu insères un schéma des couches internes de l'audio (core audio, audio-units, core midi...) dans Mac OS X : quel rapport ?

Citation : Citation d'Ableton :Citation :
the whole "audio engine" thread is a myth.
Ben ... oui, un "moteur audio" ca ne veut rien dire, en tous cas ca n'a pas de réalité pour le développeur.


C'est pas ce que dit le gars d'Ableton ! C'EST la réalité du développeur (en gros : le séquenceur moins l'interface graphique et les plug-ins). Par contre, sauf bug, ça n'a quasiment pas de son propre. En tout cas rien d'audible, et encore moins de responsable du "gros son".

Citation : Tu ne fais que des sommes de traitements ET/OU du streaming (ou de la lecture). Donc un problème de qualité de traitement et de qualité d'horloge.


Traitement : oui. Horloge : non. Ca ne joue pas au niveau du séquenceur. Ca joue dans l'interface audio, au niveau des conversions A/N et N/A.



Citation : Ceci dit, je prends ableton et cubase par ex, je plug les mêmes plugIns, idem, je rentre les mêmes sources. Et la patte est différente. Le NoiseShape joue. Ca ne fait pas tout mais c'est un dénominateur commun, je creuse encore la question.


Tu peux creuser profond, parce-que en 32 bits (format interne de ces séquenceurs), le niveau de noise shaping/dithrering se situe vers -140dB ; donc ça doit pas sauter aux oreilles.

Citation : Ca fait rien, mais ca joue. c'est tout. Enfin je dis ca, avec deux OSC de base dans Reason et Ableton, j'ai pas le même son, alors évidemment c'est pas à cause du shaping... mais c'est quoi alors ? l'un utilise du double dans ses math::sin() et l'autre du float() ?


Je ne pense pas que ce soit math::sin() qui soit utilisé : trop peu performant en "live"... De plus les OSC dont tu perles sont ceux d'instrus virtuels différents ?

Si c'est le cas, je miserai très fort sur le fait que les différences viennent de là. Déjà ça m'étonnerait que tout le calcul interne des 2 softs soient identiques car leurs fonctionnalités ne sont certainement pas les mêmes. De plus, même si tu mets pas de cut-off (disons que tu le règles sur le plus aigu possible), il est probable que le signal traverse les équations du filtre (avec sa fréquence très élevée).

Or on sait bien que de simples filtres numériques peuvent sonner très différemment. Prends les Sonnox oxford, les Flux, les SSL... compares les avec les filtres "de base" des séquenceurs, tu verras.

Bref, je pense que tes tests ont beaucoup trop de variables différentes. Donc tu ne peux pas imputer les différences à un truc aussi subtil que le dithering. Et sur des différences ultrasubtiles, il faut être très prudent, on se fait vite berner par ses propres convictions. D'où la remarque de frites sur les tests à l'aveugle.


Sinon docks, jan et d'autres avaient fait des tests minutieux sur la sommation des séquenceurs. Je ne retrouve pas le lien, mais la conclusion était : quasi pas de différence, car elles étaient du genre en-dessous de -130dB, donc pas audibles.

Après si tu as des tests bien précis que d'autres peuvent refaire et qui donnent des résultats troublants, indique les, ça sera intéressant. Par contre pour plus de clarté je t'invite à créer un autre thread et à indiquer le lien, car celui-ci est déjà très long.
345

Citation :

Je ne vois pas pourquoi tu insères un schéma des couches internes de l'audio (core audio, audio-units, core midi...) dans Mac OS X : quel rapport ?



Rappoer qu'on peut aussi se mélanger les pinceaux avec le moteur audio de la machine...

Citation :
Traitement : oui. Horloge : non. Ca ne joue pas au niveau du séquenceur. Ca joue dans l'interface audio, au niveau des conversions A/N et N/A.

je voyais les choses beaucoup plus humblement... synchro des séquences parallèles, horloges de contrôle midi ou OSC...

Citation :
Tu peux creuser profond, parce-que en 32 bits (format interne de ces séquenceurs), le niveau de noise shaping/dithrering se situe vers -140dB ; donc ça doit pas sauter aux oreilles.

Ma pelle est un peu usé héhé... en effet.



Citation :
Je ne pense pas que ce soit math::sin() qui soit utilisé : trop peu performant en "live"...

Oui ce sont des tables...

Citation : De plus les OSC dont tu perles sont ceux d'instrus virtuels différents ?

Si c'est le cas, je miserai très fort sur le fait que les différences viennent de là. Déjà ça m'étonnerait que tout le calcul interne des 2 softs soient identiques car leurs fonctionnalités ne sont certainement pas les mêmes.

Si je m'en tiens à ca, tu admets que des facteurs "passifs" influent sur le son. Le terme "passif" porte toutes ses amibuités, mais.

Citation :
Or on sait bien que de simples filtres numériques peuvent sonner très différemment. Prends les Sonnox oxford, les Flux, les SSL... compares les avec les filtres "de base" des séquenceurs, tu verras.

c'est fait. On connait la joie des filtres... Je travaille sur du non-FFT à ce propos...



Citation : Bref, je pense que tes tests ont beaucoup trop de variables différentes. Donc tu ne peux pas imputer les différences à un truc aussi subtil que le dithering. Et sur des différences ultrasubtiles, il faut être très prudent, on se fait vite berner par ses propres convictions. D'où la remarque de frites sur les tests à l'aveugle.

Sa remarque est tout à fait respectable, et je la respecte.
Ce que je note agréablement c'est qu'on admet finalement que les facteurs sont nombreux donc à faire sonner deux softs "nu" très différemment.

Très intéressant.
Je proposerai volontier un thread-test quand le temps me le permettra.

PS :

Citation : C'EST la réalité du développeur

et donc la mienne également. Voilà pourquoi je n'ai pas compris la première sortie du terme "le mythe du moteur audio" dans le débat.

Je suis un peu géné cependant qu'on rapport le dither à son effet sur les bas niveaux... et pas sur l'effet "interpolatif" (arggh) qu'il a sur toute la sonie... (ca y est je suis au centre de la terre loool)
346

Citation : Ce que je note agréablement c'est qu'on admet finalement que les facteurs sont nombreux donc à faire sonner deux softs "nu" très différemment.


Tu sembles parler de 2 synthés virtuels différents. Là oui je vois 36 raisons pour qu'ils aient de grandes chances de sonner différemment. Par contre pour le séquenceur (donc hors effet et instru virtuel), c'est là que le développeur d'Ableton et quantité d'autres gens parlent de différences qui relèvent du mythe.

:noidea:


Citation : synchro des séquences parallèles


Tu parles de pistes audio dans le séquenceur ? Cette partie là est très simple, c'est comme un tableau excel avec les samples dans les cases. Les lignes sont les pistes, les colonnes sont les instants. Le séquenceur mixe tout ce qui est sur la même colonne. Evidemment avec la compensation de délai des effets, ça se corse un peu. Mais le principe est là. Du coup, pas de raison qu'un séquenceur sonne différemment d'un autre.
347
Bob Katz a écrit quelques conneries dans le passé, il l'a d'ailleurs reconnu un peu plus tard (genre sur le Jitter).

Sinon, je poste juste pour rajouter une pierre à l'édifice. Je disais que le 96 kHZ était souhaitable dans un projet audio car ça diminue les possibilités d'apparition d'aliasing, surtout quand on sait que les effets numériques ne gèrent pas ça d'une manière parfaite. J'ai toujours été sceptique quand certains sont venus me parler de différences entre le 44.1 et le 96 kHz dans le haut du spectre sur des traitements linéaires.

Par contre, pour info, les filtres, égaliseurs et autres, ont des "performances" qui chutent au voisinage de la demi fréquence d'échantillonnage. Ceci est une conséquence inéluctable de la discrétisation de manière générale. Typiquement, si on modélise un filtre analogique passe-bas du premier ordre, celui-ci a une chute de -20 dB par décade (fréquentiellement). Par contre, dans le domaine numérique, avec la plupart des schémas de discrétisation, plus on va se rapprocher de Fs/2 et plus cette pente va changer. Conséquence : le rendu d'un filtre linéaire tout bête va avoir un impact différent sur le son en 44.1 et en 96 kHz. Ce phénomène peut être généralisé à TOUS les effets VST qui existent, sur la réponse en amplitude ou en phase sauf cas très particuliers, à partir du moment où ils modifient la réponse fréquentielle.

Le seul moyen de bypasser ce phénomène serait de faire de l'oversampling dans tous les plug-ins. On sait que ce n'est pas toujours le cas :clin:

Développeur de Musical Entropy | Nouveau plug-in freeware, The Great Escape | Soundcloud

348
+ 4000 (après suréchantillonnage bien sûr)
349

Citation : Le seul moyen de bypasser ce phénomène serait de faire de l'oversampling dans tous les plug-ins.



Et quand on connait les effets destructeurs du src (qui dans le cas de l'oversampling est effectué à la volée et 2 fois, en upsampling puis en downsampling), on se dit qu'il vaut mieux convertir les fichiers dès le départ en 2 Fe ou 4 Fe avec un bon algorithme et ainsi avoir un plus grand contrôle sur ce qui se passe. ;)
350

Citation : Et quand on connait les effets destructeurs du src


Ça dépend comment c'est fait aussi :oops2:

Développeur de Musical Entropy | Nouveau plug-in freeware, The Great Escape | Soundcloud