Se connecter
Se connecter

ou
Créer un compte

ou

[FAQ] Toutes les réponses à vos questions existentielles sur le 24 bits et le 96 kHz

  • 562 réponses
  • 93 participants
  • 190 192 vues
  • 128 followers
Sujet de la discussion [FAQ] Toutes les réponses à vos questions existentielles sur le 24 bits et le 96 kHz
Ce thread a pour but de centraliser les informations sur l'intérêt des résolutions élevées en audio, par exemple 24 bits/96 kHz. Je commence par un auto-quote :


La quantification

Le 24 bits est plutôt quelque chose d'intéressant, puisque la hausse de résolution dans ce cas augmente la dynamique sur les enregistrements, ce qui peut être très utile lorsqu'on enregistre avec des préamplis qui ont un niveau de sortie en dessous de 0 dB... C'est complètement inutile par contre sur des instruments virtuels ou du tout numérique, entre autres puisque les séquenceurs (et donc les plug-ins) fonctionnent en interne avec du 32 bits à vigule flottante...


Les fréquences d'échantillonnage

Pour la question de la fréquence d'échantillonnage, l'intérêt pratique d'aller à 88.2 ou 96 kHz, bien qu'il existe, est beaucoup plus faible que celui du 24 bits, ce qui explique que des professionnels recommandent peu souvent à des home-studistes de lâcher le 44.1 kHz, mais demandent toujours du 24 bits.

Ensuite sur un enregistrement seul, à moins d'avoir une oreille d'extra-terrestre, il est impossible d'entendre ou même de visualiser sur un spectrogramme une différence notable dans le domaine de l'audible entre quelque chose d'enregistré avec un microphone et un bon préampli/une bonne carte son en 44.1 kHz et en 96 kHz. Si différence il y a, c'est que la qualité des convertisseurs n'est pas la même.

Quel est donc l'intérêt de ces fréquences d'échantillonnage élevées alors ? Dans une chaine de traitements numériques, bien que les ingénieurs/développeurs mettent des filtres anti-aliasing dans leurs produits (repliement au dessus de la demi-fréquence d'échantillonnage, voir théorème de Shannon/Nyquist), il y a toujours un peu de repliement qui se fait, surtout si certains rigolos n'ont pas mis du tout de dispositifs anti-aliasing, comme sur certains synthétiseurs numériques (ce qui peut être parfois intéressant au niveau sonore, mais très grave sur une simulation d'amplificateur guitare). Augmenter la fréquence d'échantillonnage permet de repousser la limite en fréquence du repliement, et donc de rendre les traitements plus propres. Mais là encore, il est probable que vous ne puissiez pas entendre de différence flagrante...

Enfin, le 48 et le 96 kHz sont des fréquences utilisées plutôt en vidéo. La conversion de fréquence d'échantillonnage étant moins complexe du 88.2 au 44.1 que du 96 au 44.1, il est généralement conseillé de bosser en 88.2, sauf si vous avez vraiment confiance en votre logiciel de conversion. Travailler en 48 par contre est une grosse connerie, parce que ça apporte presque rien au niveau théorique, et que la conversion 48 vers 44.1 peut être source de bordel supplémentaire par rapport au 44.1 direct...


96 kHz et 24 bits dans un home-studio ???

Pour terminer ce monologue, une remarque très importante, discuter des fréquences d'échantillonnage et de la quantification optimales c'est bien, mais il faut déjà avoir du matos derrière, et réaliser des mixages à la hauteur, pour que l'intérêt des résolutions supérieures soit pertinent dans vos projets personnels ! Ne pas savoir mixer correctement ses morceaux et bosser avec du 24 bits/96 kHz me semble être une aberration...

Petite astuce aussi pour savoir si se prendre la tête dans votre cas vaut le coup : faites un enregistrement + mixage avec du 96 kHz/24 bits. Exportez le résultat en WAV, puis convertissez le en 44.1K/16 bits. Modifiez la fréquence d'échantillonage sur tous vos enregistrements et à l'intérieur du projet, puis faites à nouveau un export. Comparez les deux sur votre système d'écoute habituel. Si vous n'entendez pas de différences notables et intéressantes, arrêtez de vous prendre la tête :mrg: Ou allez acheter du meilleur matos... Autre cas : si "les deux sonnent aussi mal", retournez bosser le mixage, en 44.1K/16 bits bien sûr :oops2:

Développeur de Musical Entropy | Nouveau plug-in freeware, The Great Escape | Soundcloud

Afficher le sujet de la discussion
341
Il y a un thread là dessus, il est très instructif.

Citation : /mao/forums/t.179681,tordre-le-cou-au-moteur-audio.html


342

Hors sujet : ma mère est plus real que la tienne



Vais voir ca, mais le titre me fait déjà tiquer "tordre le coup au moteur audio"... boarf... le moteur audio ne fait que motoriser, pas traiter...

http://developer.apple.com/audio/overview.html




Mais j'entends bien qu'on parle du "moteur du séquenceur"... mais un moteur, ce n'est pas un dither hein !

Citation :
Citation :
you know what, you could simply prove it. Post 2 32bit wave files, and show the world how that 3.99999999999996 sample instead of 4.0 is audible. Once done, you can keep arguing about calculators, etc, for your whole life because computers aren't gonna handle 'infinite precision' so soon.


au passage, petite pique pour pro tools:
Citation :
If you really feel the need to nag about that kind of thing, then choose pro-tools. There's just NO audio app today that still mixes in integer except pro-tools (granted, it's 24bit, but whatever it is, as long as it's integer you'll have to check for clipping).



On va pas refaire ce forum, mais la premiere citation est un exemple d'école, et le second est celui de Bob Katz dans son "mastering book".



Citation d'Ableton :

Citation : the whole "audio engine" thread is a myth.

Ben ... oui, un "moteur audio" ca ne veut rien dire, en tous cas ca n'a pas de réalité pour le développeur. Tu ne fais que des sommes de traitements ET/OU du streaming (ou de la lecture). Donc un problème de qualité de traitement et de qualité d'horloge. Il n'y a pas cet espèce de "masse noire" où le son est remué en permanence comme dans la marmitte à mamie.
343

Hors sujet : en tous cas thread flaggé, merci

344

Citation : Vais voir ca, mais le titre me fait déjà tiquer "tordre le coup au moteur audio"... boarf... le moteur audio ne fait que motoriser, pas traiter...


Ce que l'on appelle "moteur audio" d'un séquenceur, c'est tous ses traitements internes, donc hors plug-in. Ca comprend : routage des pistes (donc bus, et donc leur format : 32 bits float, 24 ou 48 bits fixe, dithering...), gain, pan, automations, compensation des délais...

Citation : Simplement si tu prends 2 séquenceurs, à nu (effets en bypass ou "transparents" tu entends +/- déjà un truc qui a pas la même patte non ?


Ce que tu dis correspond bien à la définition du moteur audio (des séquenceurs <- mais ça c'est évident et c'est sous-entendu). Peut-être as-tu fait erreur sur la définition de "moteur audio".


Je ne vois pas pourquoi tu insères un schéma des couches internes de l'audio (core audio, audio-units, core midi...) dans Mac OS X : quel rapport ?

Citation : Citation d'Ableton :Citation :
the whole "audio engine" thread is a myth.
Ben ... oui, un "moteur audio" ca ne veut rien dire, en tous cas ca n'a pas de réalité pour le développeur.


C'est pas ce que dit le gars d'Ableton ! C'EST la réalité du développeur (en gros : le séquenceur moins l'interface graphique et les plug-ins). Par contre, sauf bug, ça n'a quasiment pas de son propre. En tout cas rien d'audible, et encore moins de responsable du "gros son".

Citation : Tu ne fais que des sommes de traitements ET/OU du streaming (ou de la lecture). Donc un problème de qualité de traitement et de qualité d'horloge.


Traitement : oui. Horloge : non. Ca ne joue pas au niveau du séquenceur. Ca joue dans l'interface audio, au niveau des conversions A/N et N/A.



Citation : Ceci dit, je prends ableton et cubase par ex, je plug les mêmes plugIns, idem, je rentre les mêmes sources. Et la patte est différente. Le NoiseShape joue. Ca ne fait pas tout mais c'est un dénominateur commun, je creuse encore la question.


Tu peux creuser profond, parce-que en 32 bits (format interne de ces séquenceurs), le niveau de noise shaping/dithrering se situe vers -140dB ; donc ça doit pas sauter aux oreilles.

Citation : Ca fait rien, mais ca joue. c'est tout. Enfin je dis ca, avec deux OSC de base dans Reason et Ableton, j'ai pas le même son, alors évidemment c'est pas à cause du shaping... mais c'est quoi alors ? l'un utilise du double dans ses math::sin() et l'autre du float() ?


Je ne pense pas que ce soit math::sin() qui soit utilisé : trop peu performant en "live"... De plus les OSC dont tu perles sont ceux d'instrus virtuels différents ?

Si c'est le cas, je miserai très fort sur le fait que les différences viennent de là. Déjà ça m'étonnerait que tout le calcul interne des 2 softs soient identiques car leurs fonctionnalités ne sont certainement pas les mêmes. De plus, même si tu mets pas de cut-off (disons que tu le règles sur le plus aigu possible), il est probable que le signal traverse les équations du filtre (avec sa fréquence très élevée).

Or on sait bien que de simples filtres numériques peuvent sonner très différemment. Prends les Sonnox oxford, les Flux, les SSL... compares les avec les filtres "de base" des séquenceurs, tu verras.

Bref, je pense que tes tests ont beaucoup trop de variables différentes. Donc tu ne peux pas imputer les différences à un truc aussi subtil que le dithering. Et sur des différences ultrasubtiles, il faut être très prudent, on se fait vite berner par ses propres convictions. D'où la remarque de frites sur les tests à l'aveugle.


Sinon docks, jan et d'autres avaient fait des tests minutieux sur la sommation des séquenceurs. Je ne retrouve pas le lien, mais la conclusion était : quasi pas de différence, car elles étaient du genre en-dessous de -130dB, donc pas audibles.

Après si tu as des tests bien précis que d'autres peuvent refaire et qui donnent des résultats troublants, indique les, ça sera intéressant. Par contre pour plus de clarté je t'invite à créer un autre thread et à indiquer le lien, car celui-ci est déjà très long.
345

Citation :

Je ne vois pas pourquoi tu insères un schéma des couches internes de l'audio (core audio, audio-units, core midi...) dans Mac OS X : quel rapport ?



Rappoer qu'on peut aussi se mélanger les pinceaux avec le moteur audio de la machine...

Citation :
Traitement : oui. Horloge : non. Ca ne joue pas au niveau du séquenceur. Ca joue dans l'interface audio, au niveau des conversions A/N et N/A.

je voyais les choses beaucoup plus humblement... synchro des séquences parallèles, horloges de contrôle midi ou OSC...

Citation :
Tu peux creuser profond, parce-que en 32 bits (format interne de ces séquenceurs), le niveau de noise shaping/dithrering se situe vers -140dB ; donc ça doit pas sauter aux oreilles.

Ma pelle est un peu usé héhé... en effet.



Citation :
Je ne pense pas que ce soit math::sin() qui soit utilisé : trop peu performant en "live"...

Oui ce sont des tables...

Citation : De plus les OSC dont tu perles sont ceux d'instrus virtuels différents ?

Si c'est le cas, je miserai très fort sur le fait que les différences viennent de là. Déjà ça m'étonnerait que tout le calcul interne des 2 softs soient identiques car leurs fonctionnalités ne sont certainement pas les mêmes.

Si je m'en tiens à ca, tu admets que des facteurs "passifs" influent sur le son. Le terme "passif" porte toutes ses amibuités, mais.

Citation :
Or on sait bien que de simples filtres numériques peuvent sonner très différemment. Prends les Sonnox oxford, les Flux, les SSL... compares les avec les filtres "de base" des séquenceurs, tu verras.

c'est fait. On connait la joie des filtres... Je travaille sur du non-FFT à ce propos...



Citation : Bref, je pense que tes tests ont beaucoup trop de variables différentes. Donc tu ne peux pas imputer les différences à un truc aussi subtil que le dithering. Et sur des différences ultrasubtiles, il faut être très prudent, on se fait vite berner par ses propres convictions. D'où la remarque de frites sur les tests à l'aveugle.

Sa remarque est tout à fait respectable, et je la respecte.
Ce que je note agréablement c'est qu'on admet finalement que les facteurs sont nombreux donc à faire sonner deux softs "nu" très différemment.

Très intéressant.
Je proposerai volontier un thread-test quand le temps me le permettra.

PS :

Citation : C'EST la réalité du développeur

et donc la mienne également. Voilà pourquoi je n'ai pas compris la première sortie du terme "le mythe du moteur audio" dans le débat.

Je suis un peu géné cependant qu'on rapport le dither à son effet sur les bas niveaux... et pas sur l'effet "interpolatif" (arggh) qu'il a sur toute la sonie... (ca y est je suis au centre de la terre loool)
346

Citation : Ce que je note agréablement c'est qu'on admet finalement que les facteurs sont nombreux donc à faire sonner deux softs "nu" très différemment.


Tu sembles parler de 2 synthés virtuels différents. Là oui je vois 36 raisons pour qu'ils aient de grandes chances de sonner différemment. Par contre pour le séquenceur (donc hors effet et instru virtuel), c'est là que le développeur d'Ableton et quantité d'autres gens parlent de différences qui relèvent du mythe.

:noidea:


Citation : synchro des séquences parallèles


Tu parles de pistes audio dans le séquenceur ? Cette partie là est très simple, c'est comme un tableau excel avec les samples dans les cases. Les lignes sont les pistes, les colonnes sont les instants. Le séquenceur mixe tout ce qui est sur la même colonne. Evidemment avec la compensation de délai des effets, ça se corse un peu. Mais le principe est là. Du coup, pas de raison qu'un séquenceur sonne différemment d'un autre.
347
Bob Katz a écrit quelques conneries dans le passé, il l'a d'ailleurs reconnu un peu plus tard (genre sur le Jitter).

Sinon, je poste juste pour rajouter une pierre à l'édifice. Je disais que le 96 kHZ était souhaitable dans un projet audio car ça diminue les possibilités d'apparition d'aliasing, surtout quand on sait que les effets numériques ne gèrent pas ça d'une manière parfaite. J'ai toujours été sceptique quand certains sont venus me parler de différences entre le 44.1 et le 96 kHz dans le haut du spectre sur des traitements linéaires.

Par contre, pour info, les filtres, égaliseurs et autres, ont des "performances" qui chutent au voisinage de la demi fréquence d'échantillonnage. Ceci est une conséquence inéluctable de la discrétisation de manière générale. Typiquement, si on modélise un filtre analogique passe-bas du premier ordre, celui-ci a une chute de -20 dB par décade (fréquentiellement). Par contre, dans le domaine numérique, avec la plupart des schémas de discrétisation, plus on va se rapprocher de Fs/2 et plus cette pente va changer. Conséquence : le rendu d'un filtre linéaire tout bête va avoir un impact différent sur le son en 44.1 et en 96 kHz. Ce phénomène peut être généralisé à TOUS les effets VST qui existent, sur la réponse en amplitude ou en phase sauf cas très particuliers, à partir du moment où ils modifient la réponse fréquentielle.

Le seul moyen de bypasser ce phénomène serait de faire de l'oversampling dans tous les plug-ins. On sait que ce n'est pas toujours le cas :clin:

Développeur de Musical Entropy | Nouveau plug-in freeware, The Great Escape | Soundcloud

348
+ 4000 (après suréchantillonnage bien sûr)
349

Citation : Le seul moyen de bypasser ce phénomène serait de faire de l'oversampling dans tous les plug-ins.



Et quand on connait les effets destructeurs du src (qui dans le cas de l'oversampling est effectué à la volée et 2 fois, en upsampling puis en downsampling), on se dit qu'il vaut mieux convertir les fichiers dès le départ en 2 Fe ou 4 Fe avec un bon algorithme et ainsi avoir un plus grand contrôle sur ce qui se passe. ;)
350

Citation : Et quand on connait les effets destructeurs du src


Ça dépend comment c'est fait aussi :oops2:

Développeur de Musical Entropy | Nouveau plug-in freeware, The Great Escape | Soundcloud