réactions au dossier [Bien débuter] Quel format d’enregistrement ?
- 249 réponses
- 55 participants
- 35 324 vues
- 63 followers

Nantho Valentine

Lire l'article
Ce thread a été créé automatiquement suite à la publication d'un article. N'hésitez pas à poster vos commentaires ici !

alex.d.

Je veux dire: Imaginons que nous sommes en 1930 et que au dessus de 8 à 10 kHz les transducteurs dont on dispose causent d'horribles distortions qui perturbent le son jusque vers 2, 3 ou 5 kHz. Serait il souhaitable de bosser à améliorer les transducteurs ou bien dirions nous: Ben ya qu'à fitrer à 10 kHz avec une pente hyper raide et puis c'est réglé !!!
La différence, c'est que des transducteurs qui réussissent à reproduire les ultrasons, ça existe déjà. Celui qui a envie de faire une expérience avec une chaîne qui reproduit les ultrasons d'un bout à l'autre, c'est possible. Mais bon, autant les vendeurs d'interfaces (et de fichiers audios !) nous abreuvent de 96 et de 192kHz, autant les vendeurs d'amplis et d'enceintes sont discrets sur la question (alors qu'ils sauraient le faire, s'ils voulaient et si ça avait un intérêt).
Sinon, dans l'absolu, filtrer les fréquences que l'étage suivant ne sait pas reproduire, bah oui, c'est la base.

alphawave1



EraTom

Est il préférable de dire aux constructeurs de transducteurs d'élever leur niveau d'exigence en construisant des tweeter immunisés contre les ultrasons (ce qui largement à leur portée) ou bien devons nous utiliser votre argument des transducteurs imparfaits pour promouvoir l'arrêt de tout progrès à ce niveau en les déchargeant du problème par un filtrage adéquat ?
Si un transducteur n'est pas conçu pour délivrer certaines fréquences on les filtres. C'est la recommandation de n'importe quel fabricant (sérieux). Ça ne veut pas dire qu'il faut abaisser ses perfos.
Les problèmes de distorsion des transducteurs classiques dans les hautes fréquences sont bien connus (il y a une littérature importance sur le sujet) et c'est pour cela qu'il est pour le moins étonnant de trouver des expérimentations où l'on cherche à caractériser le bénéfice du HD à travers de tel appareils.
Avant de parler de fabrication à la chaîne et d'offre grand public, ou de décider de leurs orientations, la première chose à faire est de maquetter des expériences qui permettent d'éliminer toutes les sources d'artefacts déjà connus.
Tu évoques la politique moi je dis que c'est de la rigueur scientifique.
Un autre point que je ne m'explique pas est l'absence de moyen de contrôle de l'onde acoustique qui arrivent réellement à l'auditeur. En clair, la faiblesse des transducteurs à l'émission induit un manque de maitrise de l'onde acoustique produite puis reçu par l'auditeur : pourquoi n'est-il pas mis en place une captation qui permette de contrôler et valider (en parti) ce qui a été émis ?
Ce sont deux points qui me semblent élémentaires ; pour toi mes remarques semblent traduire de la subjectivité et de l'arrogance... En réalité je n'arrive même pas à imaginer que des scientifiques qui se déclarent experts de l'audio et de la psycho-acoustique puissent négliger de tels aspects dans leurs protocoles de tests ; ce sont tout de même des failles incroyables lorsque l'on connait ce domaine.
Alors que faire ? Et bien que ces scientifiques fassent des expériences qui tiennent la route en investissant dans les transducteurs et les moyens d'analyses existants mieux adaptés pour commencer.
Tu me demandais qu'elle était ma contribution. Je travaille sur un moyen de faire une poursuite automatique des paramètres d'un modèle des phénomènes transitoires dans les systèmes non-linéaires.
Ça pourra servir, par exemple, à tracer l'évolution de certaines grandeurs caractéristiques d'un HP lorsqu'il est soumis à un transitoire en dehors du domaine de validité du modèle linéaire.

fivesstringer

La différence, c'est que des transducteurs qui réussissent à reproduire les ultrasons, ça existe déjà. Celui qui a envie de faire une expérience avec une chaîne qui reproduit les ultrasons d'un bout à l'autre, c'est possible. Mais bon, autant les vendeurs d'interfaces (et de fichiers audios !) nous abreuvent de 96 et de 192kHz, autant les vendeurs d'amplis et d'enceintes sont discrets sur la question (alors qu'ils sauraient le faire, s'ils voulaient et si ça avait un intérêt).
Sinon, dans l'absolu, filtrer les fréquences que l'étage suivant ne sait pas reproduire, bah oui, c'est la base.
Je ne trouve pas que les tous les vendeurs d'amplis soient hyper discrets sur la chose, les meilleurs spécifient souvent des bandes passantes plus que suffisantes, genre 40 ou 50 kHz et avec un temps de montée à l'avenant . Le problème quand ça se produit c'est qu'ils se font souvent traiter d'escrocs pour idiophiles, du coup.
Pour les fabricants d'enceintes, ben on peut effectivement avoir mieux que 20 kHz en réponse, j'ai souvenir du super tweeter de Tannoy, mais je ne sais pas quel est le niveau de performance associé, distortion, etc.. y compris pour ce qui nous interesse, dans l'audio "classique".
L'interet que ça a est aussi l'interet qu'on veut bien y accorder, c'est certain que considérer au départ tout ce qui dépasse 20 kHz comme de l'idiophilie ne va pas aider les constructeurs de transducteurs pros à chercher la performance ni la distinction à ce niveau. Ou plutôt ils ne chercheront surement pas à en faire un cheval de bataille en communiquant là dessus. Par contre, ceux qui auront fait l'effort de soigner aussi cet aspect seront peut être récompensé à l'écoute sans qu'on sache d'où ça vient sur le papier.
Bref: Méfions nous des specs. C'est indicatif tout au plus mais ça ne contient pas les petits "secrets de fabrication", ni le résultat final !!!
Par exemple si je te dis "20 Hz à 20 kHz à dans +/-3 dB" tu ne sais pas si à 40kHz mon enceinte est à la rue ou à -6 dB. Faut tester pour le savoir.
Si un transducteur n'est pas conçu pour délivrer certaines fréquences on les filtres. C'est la recommandation de n'importe quel fabricant (sérieux). Ça ne veut pas dire qu'il faut abaisser ses perfos.
Pour le coup je suis d'accord avec aucun de vous deux:
Citez moi un seul exemple d'enceinte qui intègre un filtre passe bas avant le tweeter chargé de l'extrëme aigu, pour eviter que celui ci ne reçoive et traite des fréquences (trop hautes) pour lesquelles il n'est pas conçu ?
Citez moi un seul exemple de fabricant de tweeter qui recommande de procéder comme ça ?
Citez moi un seul exemple de chaine audio dans laquelle le filtrage mis en oeuvre au dessus de 20 ou 22 kHz ne l'est pas pour des raisons mathématique (Niquist..) liées à l'echantillonnage ??
Faudrait pas confondre.
En réalité je n'arrive même pas à imaginer que des scientifiques qui se déclarent experts de l'audio et de la psycho-acoustique puissent négliger de tels aspects dans leurs protocoles de tests ; ce sont tout de même des failles incroyables lorsque l'on connait ce domaine.
Ben en réalité ils ne les négligent pas puisqu'ils en parlent dans les conclusions. Ils sont donc conscients et avisés.
Pour ma part le mieux est l'ennemi du bien. C'est vrai qu'on peut se poser toutes tes questions, elles sont légitimes.
Mais alors il faudrait aussi invalider par exemple tous les tests d'écoute dans lesquels le système audio servant au test n'a pas été décortiqué jusqu'à la moelle et caractérisé à 100%, puis vérifié dans le temps tout au long du test pour s'assurer d'aucune dérive. Donc on en garde combien de tests d'écoute publiés ?
La rigueur c'est un argument sans fin mais aussi sans avenir.
Il en faut un minimum mais c'est tout. Ou placer le curseur à rigueur pour que ce soit acceptable ?
Es tu d'accord pour confirmer qu'aucun test d'écoute n'est totalement rigoureux ni totalement dénué d'effets pervers dans l'absolu ?
Quelles hypothèses fait on pour s'en sortir ?
Je pense que ces scientifiques ont fait du mieux qu'ils ont pu pour mettre en évidence le phénomène qu'ils ont mis en évidence, avec des réserves honnêtement mentionnées, et je pense aussi que s'ils avaient en plus caractérisé leur système audio et mesuré ce qui entre dans l'oreille des cobayes comme tu l'exiges, tu aurais de toute façon pu exiger le taux d'erreur et de distortion du matériel de mesure ayant permis de caractériser leur système audio, en le mettant en doute le cas échéant...Ainsi que le protocole de mesure tout entier.
Il ya bien un moment où il faut un étalon. Ces gens se sont servi de leur système audio comme étalon, donc sans s'en préoccuper plus que ça tout en étant conscients des limites du truc.
Alors que faire ? Et bien que ces scientifiques fassent des expériences qui tiennent la route en investissant dans les transducteurs et les moyens d'analyses existants mieux adaptés pour commencer.
La science poursuit son cours.
Mais je crois que les moyens d'analyse parfait n'existent pas, ils seront mieux adaptés, mais pas parfait pour autant, ainsi que les expériences qui en découlent. Tu pourras donc continuer d'objecter inlassablement sur cet argument si tu le désires, ou bien t'en laver les mains quand tu auras décidé que cela suffit, que tu es convaincu, que ces braves scientifiques ont tous suffisemment travaillé pour ne plus mériter ta poubelle...
Alors que faire ?
En rester là , assurément.


globule_655

Citez moi un seul exemple d'enceinte qui intègre un filtre passe bas avant le tweeter chargé de l'extrëme aigu, pour eviter que celui ci ne reçoive et traite des fréquences (trop hautes) pour lesquelles il n'est pas conçu ?
Il me semblait que les caractéristiques physiques du tweeter comme, entre autres, son inertie se chargeaient déjà de cela...
Peut-être que je me trompe mais ça ne me paraît pas totalement fou de penser ça.
Peace
Glob
L'abeille coule, l'abeille coule, l'abeille coule, l'abeille coule, l'abeille coule, l'abeille coule....

EraTom

Dans les moyennes / basses fréquences la membrane d'un HP est assez efficacement représentée par un piston. Ça a l'air simpliste mais c'est de cette hypothèse que découle tous les modèles avec Qts, etc. parce que l'on obtient un modèle du rayonnement (de l'énergie) acoustique qui se résume mécaniquement à un effet inertiel (comme si l'on augmentait la masse de la membrane) et une force de frottement fluide (le HP disperse bien de l'énergie).
Pour les fréquences plus hautes on ne peut plus raisonner comme ça. Il faut considérer la membrane comme une plaque vibrante.
On montre alors que pour certains modes de vibration les interférences entre les parties en "opposition de phase" sur la même membrane empêche les émissions en champs lointain...
Le problème d'utiliser un tweeter "hors spec" n'est pas simplement un problème d'atténuation : C'est son rayonnement qui est erratique.
Ajoutez les déformations non linéaire du matériau et l'on a de belles distortions / intermodulations.
Je ne trouve pas que les tous les vendeurs d'amplis soient hyper discrets sur la chose, les meilleurs spécifient souvent des bandes passantes plus que suffisantes, genre 40 ou 50 kHz et avec un temps de montée à l'avenant . Le problème quand ça se produit c'est qu'ils se font souvent traiter d'escrocs pour idiophiles, du coup.
Il n'est pas rare non plus de trouver des pseudo-mesures de temps de monté complètement farfelue (sans non plus fournir les overshoot).
Dans ces cas là, oui, c'est de l'idiophilie.
Ceci étant dit, ce n'est pas rare de trouver des bons vieux ampli à triode classe A avec des bandes passantes de 100kHz.
ne l'est pas pour des raisons mathématique (Niquist..) liées à l'echantillonnage ??
Pour le reste, je ne vais pas me lancer dans un état de l'art exhaustif ici parce que ça me fatigue.
Comme déjà évoqué, le problème ne se résume pas à l'atténuation.
Ben en réalité ils ne les négligent pas puisqu'ils en parlent dans les conclusions. Ils sont donc conscients et avisés.
Mais alors il faudrait aussi invalider par exemple tous les tests d'écoute dans lesquels le système audio servant au test n'a pas été décortiqué jusqu'à la moelle et caractérisé à 100%, puis vérifié dans le temps tout au long du test pour s'assurer d'aucune dérive. Donc on en garde combien de tests d'écoute publiés ?
La rigueur c'est un argument sans fin mais aussi sans avenir.
Il en faut un minimum mais c'est tout. Ou placer le curseur à rigueur pour que ce soit acceptable ?
Es tu d'accord pour confirmer qu'aucun test d'écoute n'est totalement rigoureux ni totalement dénué d'effets pervers dans l'absolu ?
Quelles hypothèses fait on pour s'en sortir ?
La rigueur scientifique n'est pas ce que tu décris et la qualifier de "sans avenir" est assez incongru aujourd'hui : Tu n'as pas l'impression que l'on a un poil avancé depuis Galilée !?
La dérive ou l'erreur d'une expérimentation ne peut pas être nulle et c'est bien pour cette raison qu elle doit être bornée et maitrisée.
Aucune expérience n'est parfaite, c'est une évidence, et tout le travail du scientifique qui met en place une expérience est justement d'élaborer un protocole qui permet de les maîtriser suffisamment pour que le résultat soit pertinent et exploitable.
Et oui, c'est un vrai travail.
D'autre part, une expérience dont les conditions ne sont pas assez maîtrisées pour être répétables est scientifiquement disqualifiée.
Ça fait combien de fois qu'on te le dis ? C'est juste LE pré-requis à toute démarche scientifique et technique : Il faut que l'expérience ou l'hypothèse puisse être soumise à la réfutation.
https://fr.wikipedia.org/wiki/R%C3%A9futabilit%C3%A9
C'est laborieux mais pour l'instant on n'a pas trouvé mieux pour s'assurer que chaque pas est bien un pas en avant.
Je pense que ces scientifiques ont fait du mieux qu'ils ont pu pour mettre en évidence le phénomène qu'ils ont mis en évidence, avec des réserves honnêtement mentionnées, et je pense aussi que s'ils avaient en plus caractérisé leur système audio et mesuré ce qui entre dans l'oreille des cobayes comme tu l'exiges
Et puisque tu as lu la meta-analyse jusqu'au bout, tu dois également reconnaître l'une des propositions qui a été faite.
Quant aux réserves "honnêtement mentionnées"... Je tiens à te rappeler que les résultats des expériences échantillon par échantillon ne sont pas communiqués.
Il est tout à fait classique de mettre à disposition une base de données des résultats pour permettre leur vérification ; ça n'a pas été fait.
Il ya bien un moment où il faut un étalon. Ces gens se sont servi de leur système audio comme étalon, donc sans s'en préoccuper plus que ça tout en étant conscients des limites du truc.
Ça y est nous avons notre point d'accord.
Enfin, du coup, comme "étalon" c'est léger, non ?
Rappelle toi de tes TP de physiques où il fallait systématiquement étalonner les appareils avant chaque mesure et combien c'était chiant. Et rappelle-toi que tu avais une bulle si tu donnais des mesures avec un appareil non-étalonné parce que tes mesures étaient... fausses.
Ah mais c'est vrai, à l'école on n'apprend rien.
[ Dernière édition du message le 29/11/2016 à 00:41:08 ]

alex.d.

Pour le coup je suis d'accord avec aucun de vous deux:
Citez moi un seul exemple d'enceinte qui intègre un filtre passe bas avant le tweeter chargé de l'extrëme aigu, pour eviter que celui ci ne reçoive et traite des fréquences (trop hautes) pour lesquelles il n'est pas conçu ?
Citez moi un seul exemple de fabricant de tweeter qui recommande de procéder comme ça ?
Citez moi un seul exemple de chaine audio dans laquelle le filtrage mis en oeuvre au dessus de 20 ou 22 kHz ne l'est pas pour des raisons mathématique (Niquist..) liées à l'echantillonnage ??
Traiter le problème dans les basses fréquences (suppression d'offset) est très courant. Du côté haute-fréquence, ça n'est pas trop pratiqué parce qu'en général on suppose que ces fréquences ne sont pas présentes dans les sources. Que ce soit un vinyle, une cassette, ou un CD, le problème ne se pose pas. La question se pose uniquement avec les nouvelles sources numériques "HD", mais là, je vois mal un fabricant quelconque te vendre un système qui monte super haut, et à la fois filtrer les hautes fréquences. Commercialement parlant, ça ne serait pas très lisible.

fivesstringer

Traiter le problème dans les basses fréquences (suppression d'offset) est très courant. Du côté haute-fréquence, ça n'est pas trop pratiqué parce qu'en général on suppose que ces fréquences ne sont pas présentes dans les sources. Que ce soit un vinyle, une cassette, ou un CD, le problème ne se pose pas. La question se pose uniquement avec les nouvelles sources numériques "HD", mais là, je vois mal un fabricant quelconque te vendre un système qui monte super haut, et à la fois filtrer les hautes fréquences. Commercialement parlant, ça ne serait pas très lisible.
Techniquement non plus. Les constructeurs de moniteurs qui implémentent des tweeters montant très haut sont pas très nombreux mais existent (ADAM par exemple avec ses rubans). Je me demande si ces tweeters créent autant de disto dans l'audible "classique" que ceux qui coupent ou fragmentent à partir de 20 kHz
Quoiqu'il en soit, ce n'est pas en décidant qu'il vaut mieux couper les fréquences au dessus de 22 kHz quoi qu'il arrive pour être tranquille qu'on poussera les constructeurs à faire des efforts sur ce point.
Ce qui ne remplace ni ne répond à la question: Est ce utile ? sous jacente au sujet de ce post...
@EraTom:
Je suis d'accord avec toi, c'est une question de où on place le curseur:
Pas assez d'exigence: Les papiers ne sont pas recevables.
Trop d'exigence: Tout papier est contestable.
La réfutabilité c'est encore autre chose. Pour pouvoir répéter un test, il faut se placer dans les conditions exactes du test q'on cherche à répéter. Difficile pour un test d'audition fait par des personnels différents en d'autre lieux..
- Même matos
- Même protocole, au pouillème pres
Encore une fois quand on voit le nombre de variables d'un protocole de test d'audition, c'est très compliqué de reproduire à l'identique pour que le test soit strictement comparable et que le principe de réfutabilité s'applique strictement.
Donc la réfutabilité pose problème.
On pourrait toujours trouver moyen de faire un test "qui marche pas" mais sans pouvoir assurer non plus que c'est un réel contre exemple invalidant le résultat des autres tests, ou un "faux négatif" causé par un protocole pas exactement calé pareil.
J'en conclus qu'au niveau tests d'audition, vu la complexité des variables protocolaires, la seule solution est de regarder les tests indépendamment les uns des autres plutôt que de chercher à les comparer en toute rigueur, comme tu fais. La meta-analyse en ce sens ne les compare pas strictement mais fait une synthèse de leur résultats vu individuellement.
enfin je dis ça d'instinct
Mais si demain je lisais un papier basé sur un test d'audition super bien réalisé, sur un nombre statistiquement significatif de sujets et avec du top matos (et un soin particulier à recouper l'audio entrant par des mesures comme tu dis) et bien je n'aurais pas besoin de demander à un autre labo de recouper.
Même si on DOIT pouvoir recouper, par principe de réfutabilité, le risque de biais de protocole est trop grand. Autant augmenter le nombre de sujet sur un test (et en faire un de grande ampleur avec le maximum de chances techniques) plutot que d'en faire 10 ou 100 plus petits dans des conditions pas exactement les mêmes.
Sinon Perso j'ai toujours étalonné mon système de mesure avant de faire une expérience (qui peut comporter plusieurs mesures ou plusieurs tests, parfois plusieurs dizaines)
Mais je ne ré-étalonnais jamais le système entre chaque mesure d'une même expérience.
Un système de mesure qui nécessite d'être recalibré ou ré-étalonné entre chaque mesure peut être considéré comme instable (et donc pas approprié)
Qu'en penses tu ?
@Globule:
Contrairement à ce que tu laisses entendre un tweeter ne filtre pas le signal audio qu'il reçoit.
Par contre il agit comme un filtre acoustique , en particulier passe bas mais pas que, en ne crachant vers nos tympans que les fréquences audio qu'il peut reproduire et c'est là que les dégats se situent (fragmentation/distortion)
On parlais de le filtrer en amont (electroniquement donc) pour éviter cela.

globule_655

Par contre il agit comme un filtre acoustique , en particulier passe bas mais pas que, en ne crachant vers nos tympans que les fréquences audio qu'il peut reproduire
Oui, c'est exactement ce que j'ai dit. La question sous-jacente étant de savoir s'il était nécessaire de filtrer en amont des fréquences que le tweeter ne pouvait de toute façon pas physiquement reproduire. Question à laquelle EraTom a d'ailleurs répondu juste après.
Peace
Glob
L'abeille coule, l'abeille coule, l'abeille coule, l'abeille coule, l'abeille coule, l'abeille coule....

EraTom

http://science-of-sound.net/2016/07/high-resolution-audio-state-debate/

Neural implant

https://www.xlr8r.com/gear/in-the-studio-jon-hopkins

rroland


Neural implant

Comme dit dans l’artIcle cité plus haut 24 bit 44.1 kHz est très suffisant pour la plupart de l’audio qui n’est pas destiné à la vidéo : seuls des audiophiles bien entraînés entendront la différence avec des fréquences plus élevées.
Sinon dans tout ce que j’ai lu on conseille 24 bit

Will Zégal

seuls des audiophiles bien entraînés entendront la différence avec des fréquences plus élevées
Et même ça, ça reste à prouver.


kosmix

Putain Walter mais qu'est-ce que le Vietnam vient foutre là-dedans ?

Will Zégal



grzes

Comme j'enregistre mes synthés en 24/48 et je n'y fais plus grand chose dessus par la suite, ça me suffit bien.

kosmix


Putain Walter mais qu'est-ce que le Vietnam vient foutre là-dedans ?

Gooliver7

j'ai 2 questions:
si l'oreille humaine écoute jusqu'à 20 00 htz pourquoi alors utiliser des fréquences échantillonnage supérieurs
aussi je ne comprends pas pourquoi l'article nous dis que: echantilloner en 44k nous permet d'écouter les frequences jusqu'à 22k (pourquoi cela?)
et enfin je me pose la question suivante: pourquoi n'existe t'il pas de convertisseur audionumerique 32 bit? ( juste de la curiosité )!
https://www.youtube.com/user/gooliver7
[ Dernière édition du message le 02/05/2019 à 05:03:15 ]

Will Zégal


Mais pour résumer les choses, quand tu approches de la fréquence maximum d'échantillonnage, il se forme un repliement spectral. En fait, les fréquences supérieures à la fréquence d'échantillonnage sont enregistrées comme si elles étaient à une fréquence inférieure, créant du bruit non souhaitable.
Cela s'élimine en partie par des filtres pour supprimer les fréquences supérieures, mais les filtres eux-même posent problème : pas assez raides, ils laissent quand même passer du monde, trop raides, ils créent des détimbrages.
La solution est donc de reléguer tous ces problèmes difficilement contournables au delà des fréquences audibles par l'oreille humaine.

Will Zégal

Je ne suis pas convaincu de l'intérêt de 32 bits en AD, en tous cas pour la musique. En 16 bits, tu disposes déjà de 96 dB de dynamique.
Sachant que la plupart des conditions d'écoute sont dans des environnements ayant au moins 20-25 dB de bruit de fond (standard d'un studio d'enregistrement, c'est à dire plus calme qu'une maison à la campagne tant qu'il reste quelques oiseaux), ça veut dire que si tu utilises toute cette dynamique avec les sons les plus faibles à 25 dB, les sons les plus forts seront à 121 dB. C'est un peu fort

Sachant que les conditions d'écoute classiques sont plutôt dans 40 dB de bruit de fond (une chambre la nuit en ville), tu aurais en 16 bits des crêtes à 136 dB, soit le volume d'un réacteur d'avion.
Sachant que la plupart des disques du commerce ont une dynamique réelle autour d'une quinzaine de décibels, une vingtaine au mieux.
en 24 bits, tu as une dynamique de 144 dB. Autant te dire que t'es pas prêt de l'exploiter sur un titre de musique, pour peu que tu aies un système de diffusion capable de rendre une telle dynamique (différence entre bruit de fond et volume max). Sachant aussi que je ne vois pas beaucoup de micros qui disposent d'une telle dynamique.
Donc, ça ne sert à rien, en tous cas pour de l'audio musical (ça peut être autre chose dans le domaine scientifique, j'imagine), d'avoir des convertisseurs 32 bits. Avec 24 bits, tu es déjà au delà de la dynamique offerte par les systèmes analogiques tant en enregistrement qu'en restitution et très très au delà de l'usage pratique.

Will Zégal

C'est un duo clarinette / accordéon.
Sur le CD, ils ont visiblement souhaité garder une dynamique énorme, peut-être même la dynamique maximum correspondant à la réalité du jeu (album enregistré live en studio).
C'est plutôt plaisant à écouter chez soi au calme dans son salon en ne faisant rien d'autre que d'écouter. Dans toutes les autres conditions, le CD est inaudible. Par exemple en voiture : si tu veux entendre les sons les plus doux, quand les notes sont limites masquées par le bruit des clefs, les moments fortissimo te pètent les oreilles. Si tu veux entendre les moments "normaux" et forts à volume raisonnables, tu n'entends plus du tout tous ces moments doux, noyés dans le bruit ambiant.

Gooliver7

merci Will zegal
merci aussi pour l'invitation à regarder le théorème de Nyquist!
https://www.youtube.com/user/gooliver7

Danbei

- Du point de vue mathématique, un signal dont les fréquences vont jusqu'à 20kHz contient aussi des fréquences négatives qui vont jusqu'à -20kHz. L'étendu fréquentielle est donc de 40kHz. Il faut échantillonner à au moins 40kHz.
- Pourquoi 44,1kHz ou 48kHz plutôt que 40kHz ? Ce sont les limitations techniques que soulève Will Zégal qui l'explique.
A propos des convertisseurs 32 bits, il y a quelques exemples de cartes sons et enregistreurs qui en utilisent.
Je pense que les convertisseurs A/N 32 bits pourraient servir en étendant l’intérêt qu'offre déjà les convertisseurs A/N 24 bits.
Ce n'est pas d'avoir une dynamique plus grande car elle est limité par la partie analogique.
C'est plutôt de relâcher la contrainte sur "la calibration" du niveau d'entré du convertisseur, i.e le réglage du preampli.
Les convertisseurs 24 bits permettent de faire des réglages approximatifs sans que sa pose de problèmes, les convertisseurs 32 bits permettraient d'être "approximatif" au point de ne plus rien faire.
Cela dit, il semblerait que techniquement ça ne soit pas possible d'avoir 32 bits significatif, même pour 24 bit significatif c'est pas clair (à ma connaissance). C'est à dire que les bits supplémentaires ne code pas du son, mais du bruit.
Par contre en N/A pour l'audio je vois pas ce que ça apporterai.
[ Dernière édition du message le 02/05/2019 à 17:53:31 ]

alex.d.

Pour apporter un élément supplémentaire sur les fréquences d’échantillonnages, il y a deux choses qui expliquent les fréquences d'échantillonnage de 44,1kHz ou 48kHz plutôt que 20kHz :
- Du point de vue mathématique, un signal dont les fréquences vont jusqu'à 20kHz contient aussi des fréquences négatives qui vont jusqu'à -20kHz. L'étendu fréquentielle est donc de 40kHz. Il faut échantillonner à au moins 40kHz.
- Pourquoi 44,1kHz ou 48kHz plutôt que 40kHz ? Ce sont les limitations techniques que soulève Will Zégal qui l'explique.
Non, les fréquences négatives n'ont aucun sens. C'est le théorème de Nyquist qui dit que si tu veux encoder un signal jusque 20kHz, il faut échantillonner au moins à 40kHz (fréquence x 2).
Ensuite, la marge (de 40kHz à 44.1kHz ou 48kHz) te donne la pente du filtre anti-repliement.
- < Liste des sujets
- Charte