[FAQ] Toutes les réponses à vos questions existentielles sur le 24 bits et le 96 kHz
- 562 réponses
- 93 participants
- 190 434 vues
- 128 followers
Wolfen
La quantification
Le 24 bits est plutôt quelque chose d'intéressant, puisque la hausse de résolution dans ce cas augmente la dynamique sur les enregistrements, ce qui peut être très utile lorsqu'on enregistre avec des préamplis qui ont un niveau de sortie en dessous de 0 dB... C'est complètement inutile par contre sur des instruments virtuels ou du tout numérique, entre autres puisque les séquenceurs (et donc les plug-ins) fonctionnent en interne avec du 32 bits à vigule flottante...
Les fréquences d'échantillonnage
Pour la question de la fréquence d'échantillonnage, l'intérêt pratique d'aller à 88.2 ou 96 kHz, bien qu'il existe, est beaucoup plus faible que celui du 24 bits, ce qui explique que des professionnels recommandent peu souvent à des home-studistes de lâcher le 44.1 kHz, mais demandent toujours du 24 bits.
Ensuite sur un enregistrement seul, à moins d'avoir une oreille d'extra-terrestre, il est impossible d'entendre ou même de visualiser sur un spectrogramme une différence notable dans le domaine de l'audible entre quelque chose d'enregistré avec un microphone et un bon préampli/une bonne carte son en 44.1 kHz et en 96 kHz. Si différence il y a, c'est que la qualité des convertisseurs n'est pas la même.
Quel est donc l'intérêt de ces fréquences d'échantillonnage élevées alors ? Dans une chaine de traitements numériques, bien que les ingénieurs/développeurs mettent des filtres anti-aliasing dans leurs produits (repliement au dessus de la demi-fréquence d'échantillonnage, voir théorème de Shannon/Nyquist), il y a toujours un peu de repliement qui se fait, surtout si certains rigolos n'ont pas mis du tout de dispositifs anti-aliasing, comme sur certains synthétiseurs numériques (ce qui peut être parfois intéressant au niveau sonore, mais très grave sur une simulation d'amplificateur guitare). Augmenter la fréquence d'échantillonnage permet de repousser la limite en fréquence du repliement, et donc de rendre les traitements plus propres. Mais là encore, il est probable que vous ne puissiez pas entendre de différence flagrante...
Enfin, le 48 et le 96 kHz sont des fréquences utilisées plutôt en vidéo. La conversion de fréquence d'échantillonnage étant moins complexe du 88.2 au 44.1 que du 96 au 44.1, il est généralement conseillé de bosser en 88.2, sauf si vous avez vraiment confiance en votre logiciel de conversion. Travailler en 48 par contre est une grosse connerie, parce que ça apporte presque rien au niveau théorique, et que la conversion 48 vers 44.1 peut être source de bordel supplémentaire par rapport au 44.1 direct...
96 kHz et 24 bits dans un home-studio ???
Pour terminer ce monologue, une remarque très importante, discuter des fréquences d'échantillonnage et de la quantification optimales c'est bien, mais il faut déjà avoir du matos derrière, et réaliser des mixages à la hauteur, pour que l'intérêt des résolutions supérieures soit pertinent dans vos projets personnels ! Ne pas savoir mixer correctement ses morceaux et bosser avec du 24 bits/96 kHz me semble être une aberration...
Petite astuce aussi pour savoir si se prendre la tête dans votre cas vaut le coup : faites un enregistrement + mixage avec du 96 kHz/24 bits. Exportez le résultat en WAV, puis convertissez le en 44.1K/16 bits. Modifiez la fréquence d'échantillonage sur tous vos enregistrements et à l'intérieur du projet, puis faites à nouveau un export. Comparez les deux sur votre système d'écoute habituel. Si vous n'entendez pas de différences notables et intéressantes, arrêtez de vous prendre la tête Ou allez acheter du meilleur matos... Autre cas : si "les deux sonnent aussi mal", retournez bosser le mixage, en 44.1K/16 bits bien sûr
Développeur de Musical Entropy | Nouveau plug-in freeware, The Great Escape | Soundcloud
Pov Gabou
Hors sujet : Citation : Citation :
Le time-streching n'invente rien. Il ne fait que reconstruire le signal en supposant la stationnarité a court terme ou copier des grains.
Reconstruire des parties qui sont inexistantes, c'est ce que je sous entends par "inventer". Tu supposes la stationarite, mais ce n'est jamais le cas pour un signal. Tu ne peux faire de time stretching que si ton signal est donnee par une fonction continue a tout instant t, ce qui n'est jamais le cas evidemment en pratique. Et ce n'est pas le seul probleme.
Concretement, les methodes temps frequence pour le time stretching te donnent un modele de signal approchant le signal reel, et ce modele, lui, peut etre time stretche facilement. Par exemple, c'est comme ca que marchent les methodes a base de vocoder de phase: tu supposes que chaque canal n'a qu'une sinusoide, qui une fois sa frequence determinee, est triviale a "allonger" ou "retrecir".
Mais rien ne te dit que perceptuellement parlant, ton modele est toujours valide au tempo cible.
Les défauts des méthode de time-streching sont surtout dus a la plus ou moins bonne gestion des transitoires.
Pas seulement. Par exemple, comment gerer un signal a la fois avec un transitoire et une basse (ou le moindre defaut dans la frequence sera criant) ? En fait, tu veux une representation temps frequence echelle, ce qui a forcement des limites.
Mark Sprenger le dit beaucoup mieux que moi, et a priori, il s'y connait en time stretching : https://music.columbia.edu/pipermail/music-dsp/1999-March/033513.html
Tout le thread est interessant. Il y est entre autre donne des exemples ou la "bonne" chose a faire depend carrement de l'instrument.
Pov Gabou
Citation :
et puis de toutes façons, la fréquence des battements est bien inférieure aux fréquences des sons qui battent, donc bien en-deça des fréquences de coupures des convertisseurs,
Oui, tout a fait. La ou tu pourrais avoir un probleme, c'est si tu enregistrais separement chaque source sonore, disons deux sources autour de 50 khz avec du battement dans l'audible. La, en rejouant les deux sources numerisees a 44.1 khz, tu n'as plus le battement. Mais c'est capillocrapte, et je vois pas tres bien la pertinence pour de l'audio.
nonconforme
La résolution, elle, dépend du pas de quantification (le nombre de bits).
Affiliation : Dirigeant Fondateur d'Orosys - Two notes Audio Engineering
Pov Gabou
Citation :
Le raisonnement ne tient pas la route, dans la mesure où selon la théorie du signal la fréquence d'échantillonnage impacte la bande passante et en aucun cas les différentes fréquences à produire à l'intérieur de cette bande passante.
Perso, j'ai surtout pas compris son raisonnement. Le coup du demi ton a 4 khz qui necessite 80 khz, ca me fait automatiquement tilter evidemment.
nonconforme
ce qui conditionne la capacité à produire une fréquence à 4000,000000000...1 Hz, c'est uniquement la résolution, donc le nombre de bits.
Affiliation : Dirigeant Fondateur d'Orosys - Two notes Audio Engineering
fritesgrec
nonconforme
Affiliation : Dirigeant Fondateur d'Orosys - Two notes Audio Engineering
Pov Gabou
De toute facon, quand on parle synthese, faut faire vachement gaffe, parce que ca rend le truc tout de suite plus complique. Typiquement, quand je dis que je suis assez convaincu 32 bits flottant suffisent pour le mixage de son, ca veut pas dire que ca suffit quand tu veux faire certains types de synthese (typiquement, en synthese FM, il me semble que ca part vite en couille si l'accumulateur de phase est code que sur 32 bits). Pareil pour les frequence d'echantillonages: pour a peu pres tous les traitements non triviaux, 44.1 khz ne suffisent plus (filtre de synthe, par exemple).
fritesgrec
Pov Gabou
- < Liste des sujets
- Charte