Se connecter
Se connecter

ou
Créer un compte

ou

Sujet [FAQ] Toutes les réponses à vos questions existentielles sur le 24 bits et le 96 kHz

  • 562 réponses
  • 93 participants
  • 186 511 vues
  • 128 followers
1 [FAQ] Toutes les réponses à vos questions existentielles sur le 24 bits et le 96 kHz
Ce thread a pour but de centraliser les informations sur l'intérêt des résolutions élevées en audio, par exemple 24 bits/96 kHz. Je commence par un auto-quote :


La quantification

Le 24 bits est plutôt quelque chose d'intéressant, puisque la hausse de résolution dans ce cas augmente la dynamique sur les enregistrements, ce qui peut être très utile lorsqu'on enregistre avec des préamplis qui ont un niveau de sortie en dessous de 0 dB... C'est complètement inutile par contre sur des instruments virtuels ou du tout numérique, entre autres puisque les séquenceurs (et donc les plug-ins) fonctionnent en interne avec du 32 bits à vigule flottante...


Les fréquences d'échantillonnage

Pour la question de la fréquence d'échantillonnage, l'intérêt pratique d'aller à 88.2 ou 96 kHz, bien qu'il existe, est beaucoup plus faible que celui du 24 bits, ce qui explique que des professionnels recommandent peu souvent à des home-studistes de lâcher le 44.1 kHz, mais demandent toujours du 24 bits.

Ensuite sur un enregistrement seul, à moins d'avoir une oreille d'extra-terrestre, il est impossible d'entendre ou même de visualiser sur un spectrogramme une différence notable dans le domaine de l'audible entre quelque chose d'enregistré avec un microphone et un bon préampli/une bonne carte son en 44.1 kHz et en 96 kHz. Si différence il y a, c'est que la qualité des convertisseurs n'est pas la même.

Quel est donc l'intérêt de ces fréquences d'échantillonnage élevées alors ? Dans une chaine de traitements numériques, bien que les ingénieurs/développeurs mettent des filtres anti-aliasing dans leurs produits (repliement au dessus de la demi-fréquence d'échantillonnage, voir théorème de Shannon/Nyquist), il y a toujours un peu de repliement qui se fait, surtout si certains rigolos n'ont pas mis du tout de dispositifs anti-aliasing, comme sur certains synthétiseurs numériques (ce qui peut être parfois intéressant au niveau sonore, mais très grave sur une simulation d'amplificateur guitare). Augmenter la fréquence d'échantillonnage permet de repousser la limite en fréquence du repliement, et donc de rendre les traitements plus propres. Mais là encore, il est probable que vous ne puissiez pas entendre de différence flagrante...

Enfin, le 48 et le 96 kHz sont des fréquences utilisées plutôt en vidéo. La conversion de fréquence d'échantillonnage étant moins complexe du 88.2 au 44.1 que du 96 au 44.1, il est généralement conseillé de bosser en 88.2, sauf si vous avez vraiment confiance en votre logiciel de conversion. Travailler en 48 par contre est une grosse connerie, parce que ça apporte presque rien au niveau théorique, et que la conversion 48 vers 44.1 peut être source de bordel supplémentaire par rapport au 44.1 direct...


96 kHz et 24 bits dans un home-studio ???

Pour terminer ce monologue, une remarque très importante, discuter des fréquences d'échantillonnage et de la quantification optimales c'est bien, mais il faut déjà avoir du matos derrière, et réaliser des mixages à la hauteur, pour que l'intérêt des résolutions supérieures soit pertinent dans vos projets personnels ! Ne pas savoir mixer correctement ses morceaux et bosser avec du 24 bits/96 kHz me semble être une aberration...

Petite astuce aussi pour savoir si se prendre la tête dans votre cas vaut le coup : faites un enregistrement + mixage avec du 96 kHz/24 bits. Exportez le résultat en WAV, puis convertissez le en 44.1K/16 bits. Modifiez la fréquence d'échantillonage sur tous vos enregistrements et à l'intérieur du projet, puis faites à nouveau un export. Comparez les deux sur votre système d'écoute habituel. Si vous n'entendez pas de différences notables et intéressantes, arrêtez de vous prendre la tête :mrg: Ou allez acheter du meilleur matos... Autre cas : si "les deux sonnent aussi mal", retournez bosser le mixage, en 44.1K/16 bits bien sûr :oops2:

Développeur de Musical Entropy | Nouveau plug-in freeware, The Great Escape

Afficher le premier post
191
Il semble que ce que j'ai écrit est un peu compréhensible de travers, alors voici quelques précisions.

La présence de bruit de quantification est corrélée à la présence de signal, le caractère du bruit lui n'est aucunement corrélé au signal d'un point de vue de l'analyse de l'oreille, c'est ce qui le fait assimiler comme un bruit de fond. Il est évidemment corrélé au signal dans la mesure ou l'erreur de quantification est la différence entre le signal idéal et le signal quantifié.

JM
192

Citation :
La présence de bruit de quantification est corrélée à la présence de signal, le caractère du bruit lui n'est aucunement corrélé au signal d'un point de vue de l'analyse de l'oreille



Si, justement. Meme en admettant ton hypothese sous jacente (presence et caractere independant, ce qui est deja un peu ose), c'est pas vraiment ca. Le bruit de quantification est forcement correle au signal entrant. La correlation est souvent negligeable quand ton signal est pres du 0 dB, mais ca l'est plus lorsque signal et bruit de quantification sont proches. Par exemple, en supposant un signal d'entree simpliste, une sinusoide, le bruit de quantification va etre lui aussi periodique, et d'autant plus audible si bruit de quantification et sinusoide sont a des niveaux comparables.

Il y a pas pire que des bruits periodiques, l'oreille a tendance a detecter tres facilement ce type de bruits, mais pour celle qui n'est pas entrainee (e.g. l'auditeur lambda).
193

Citation : Le bruit de quantification est forcement correle au signal entrant.

Oui, d'un point de vue informatique, mathématique, non du point de vue de la sensation auditive contrairement à la distorsion harmonique.

Dans ton exemple de la sinusoïde, le bruit de quantification est périodique, bien sur, et en cela tu démontre qu'il est physiquement corrélé au signal, mais pas à la manière d'un bruit analogique (puisque pas corrélé), et pas non à la manière d'une distorsion analogique dont le niveau est directement lié au niveau du signal, rendant cette distorsion plus intimement liée au signal que peut l'être un bruit de quantification.

Exemple, prend un signal audio quelconque, enregistre-le en numérique deux fois à deux niveau très proches, mais pas identiques (genre une différence de 0,2dB). Les signaux sont subjectivement égaux (les 0,2dB sont inaudibles) mais le bruit de quantification lui a totalement changé, ce qui démontre qu'il n'est pas lié au signal du point de vue de la perception subjective.

Si nous avions affaire à la même expérience en analogique, la différence ne serait pas sensible car les différences de la distorsion et du niveau de bruit seraient proportionnels à la différence de niveau, donc imperceptibles.

D'un stricte point de vue science dure, tu as raison bien sur, mais ce n'est pas ce qui m'intéresse en l'occurrence.

JM
194

Citation :
Oui, d'un point de vue informatique, mathématique, non du point de vue de la sensation auditive contrairement à la distorsion harmonique.



Ben si justement: si ton bruit de quantification a une periode, qui depend du signal entrant, c'est evident que ca va etre percu, a partir du moment ou le bruit de quantification est audible.
195
Mais je n'ai jamais dit qu'il ne serait pas perçu, seulement qu'il ne serait pas perçu comme une distorsion mais bien comme un bruit.

D'ailleurs, on l'appelle bruit alors qu'il est corrélé au signal, cela devrait te mettre la puce à l'oreille ;)

JM
196

Citation :
Mais je n'ai jamais dit qu'il ne serait pas perçu, seulement qu'il ne serait pas perçu comme une distorsion mais bien comme un bruit.



Je ne comprends pas cette difference que tu fais: distortion, bruit. La distortion est un bruit; en fait, le bruit est toujours defini comme la difference entre le signal mesure et un signal "ideal", i.e le bruit.

Citation :
D'ailleurs, on l'appelle bruit alors qu'il est corrélé au signal, cela devrait te mettre la puce à l'oreille



Je ne vois pas le rapport entre correlation et le fait d'etre un bruit.
197
Effectivement, si tu ne situe pas la différence, cela rend ma démo plus difficile à saisir.

Revenons au bon temps de l'analogique, quand tout était plus simple ;).

Ce qui était défini comme bruit c'était tout ce qui n'était pas de la distorsion ou du signal "utile". C'est à dire, la part indésirable de la modulation qui n'est pas liée à la présence du signal. On y trouvait le bruit thermique, les ronflettes en tous genre, le bruit de surface des vyniles, le souffle de bande, etc.

La distorsion était alors définie comme la part de la modulation restante lorsqu'on avait ôté le signal "utile" et le bruit. La distorsion était donc liée à la présence de modulation, et corrélée à cette modulation de manière "compréhensible" par l'oreille humaine.

On voit du coup que le bruit de quantification, bien qu'appelé "bruit" est selon ces définitions une distorsion. Pourtant, le cerveau humain "l'entend" comme un bruit. La phase encodage numérique du signal analogique empêche le cerveau de détecter un lien direct, pourtant existant, entre le signal et le bruit de quantification. Autant nous sommes habitués à analyser consciemment ou pas un écrètage analogique, et sur certains types de musiques à l'intégrer au signal, autant cette assimilation est impossible avec le bruit de quantification, même à des niveaux plus faibles, car notre cerveau est incapable de faire cette corrélation avec le signal.

C'est la raison pour laquelle on a inventé le dither qui lui est assimilé comme un bruit continu, donc moins audible. Car l'ennui avec le bruit de quantification, c'est que n'étant pas constant, il ne se fait pas oublier.

JM
198
Bonjour!

J'aimerais revenir sur quelques points.

Citation : C'est complètement inutile par contre sur des instruments virtuels ou du tout numérique, entre autres puisque les séquenceurs (et donc les plug-ins) fonctionnent en interne avec du 32 bits à vigule flottante...



Donc? Si je travaille avec des vsti, j'enregistre en 32 bits? Pourquoi c'est inutile de travailler en 24 bits?

Citation : En sachant qu'enregistrer en 32 float ne t'apporte rien. Le 24 bits t'apportera le même son (tes convertos sont 24 bits).



Je vais rajouter un petit quelque chose. Tous mes projets audio me servent à faire du montage vidéo dans Premiere CS3. J'ai travaillé très longtemps avec Premiere 6.5, et j'utilisais alors des fichiers 48/16. J'ai fait un petit test hier, dans un montage, j'ai mis quelques fichiers 96/24 juste pour voir si Premiere les jouerait correctement. Et c'est le cas! Quand je lui ai demandé les propriétés d'un fichier 96/24 dans le timeline, il me répond :

Format audio source : 96000 Hz - 24 bits - Stéréo
Format audio du projet : 48000 Hz - 32 bits en virgule flottante - Stéréo

Ce qui est sûr, c'est que je vais continuer de travailler en 96khz, je fais du time stretching, la question ne se pose même pas. Même que je pense travailler en 192khz... Mais l'idéal serait-il que d'enregistrer en 32 bits mes projets dans Cubase et Wavelab?

Je viens d'ouvrir mon dernier vidéo pour voir les paramètres, j'avais travaillé avec des fichiers 48/16 comme d'habitude, mais je vois que le projet est en 48/32. Est-ce à cause de cette "conversion" que j'entends de petits bruits (genre clic et pop)? Je dois alors déplacer mes sons de quelques millisecondes pour enlever ces bruits. Il faut dire qu'il y a plusieurs "épaisseurs" de son dans mes projets.

Merci!
199

Citation : Donc? Si je travaille avec des vsti, j'enregistre en 32 bits? Pourquoi c'est inutile de travailler en 24 bits?


Ce que je voulais dire là dessus, c'est que ça change strictement rien de travailler en 24 bits ou en 32 bits (sauf pour le format de sortie à la toute fin) quand on bosse UNIQUEMENT avec des VSTis, sans le moindre enregistrement de quoi que ce soit d'extérieur, qui passerait par des convertisseurs analogiques / numérique. Tout est déjà en fonctionnement en 32 bits en interne.

Citation : Je viens d'ouvrir mon dernier vidéo pour voir les paramètres, j'avais travaillé avec des fichiers 48/16 comme d'habitude, mais je vois que le projet est en 48/32. Est-ce à cause de cette "conversion" que j'entends de petits bruits (genre clic et pop)? Je dois alors déplacer mes sons de quelques millisecondes pour enlever ces bruits. Il faut dire qu'il y a plusieurs "épaisseurs" de son dans mes projets.


Je ne vois pas trop en quoi il y aurait un rapport entre des clics et la fréquence d'échantillonnage. Ton problème a l'air de venir d'un clip audio découpé à la hache et qui se déclenche sans fade in. Quand en sortie on a du silence complet et que d'un coup apparait un signal audio, avec l'amplitude sur le premier échantillon à 0 dB, ça fait apparaître un clic. Sinon, sans plus de précisions, je ne peux pas te dire ce qui se passe...

Développeur de Musical Entropy | Nouveau plug-in freeware, The Great Escape

200
Non, je fais toujours un petit fade-in fade-out sur mes fichiers son. Je demandais ça au hasard, au cas où le fait de passer de 16 à 32 bits créerait ces artefacts sonores.

Je n'ai jamais vraiment su d'où venait ces petits sons... Les bruits ne sont pas au début ou à la fin d'un son, c'est n'importe où! Un fade-in fade-out en enlève plusieurs (pourquoi?!?), mais pas tous. Mais je crois que je vais partir un sujet ailleurs, je ne veux pas tomber dans un hors-sujet!

Une dernière question, pour rester dans le sujet. Qu'est-ce serait l'idéal dans mon cas, peut importe le poids, ou quoique ce soit, pour mes montages vidéo? Là, ces temps-ci, je travaille avec des vsti dans cubase, que je retravaille la plupart du temps dans wavelab pour rajouter des vst par dessus mes .wav de vsti, mais je vais finir par ajouter des prises de son de ma voix, qui encore là, va être retravaillée et modifiée beaucoup par plein de trucs.

Donc, 24 ou 32 bits?