réactions au dossier [Bien débuter] Quel format d’enregistrement ?
- 249 réponses
- 55 participants
- 35 322 vues
- 63 followers

Nantho Valentine

Lire l'article
Ce thread a été créé automatiquement suite à la publication d'un article. N'hésitez pas à poster vos commentaires ici !

EraTom

Cirrus Logic ne parle jamais de S/B mais de "Dynamic Range", ce qui veux rien dire. Leurs taux de distorsions sont supérieurs à ceux AD.
Pour AD le S/N c'est "Shorted input, wideband filter" un peu plus sérieux.
J'évoque Cirrus Logic parce que c'est généralement leur SoC que l'on trouve que les interfaces audio, bien plus que de l'AD.
Et il suffit de lire une ligne de plus de n'importe laquelle de leur datasheet pour trouver le THD+N (sous la dynamique).
Mais mon propos est surtout que balancer un SNR sans préciser les bande passante des manières chiffré ne rime à rien : Un SNR de -105dB sur une bande de 40kHz ou de -105dB sur 20kHz ne donne pas le même plafond de bruit.
"Shorted Input" pour un rapport SIGNAL à bruit... Et comment tu injectes le signal lorsque l'entrée est court-circuitée !?
C'est très sérieux, effectivement.
[ Dernière édition du message le 30/09/2016 à 01:18:10 ]

Anonyme


Pour la bande, c'est à chaque fois toute la bande admissible, du passe haut au passe bas.
Ce qui semble logique car la valeur ne change pas.

EraTom

Pardon mais c'est n'importe quoi. Ce n'est pas la seule façon de faire et c'est heureux parce que pas adapté.
Regarde simplement les préconisations de l'AES pour avoir un exemple de protocole de mesure qui diffère de ce que tu racontes.
Je t'invite à me dire où je me trompe :
Quelque soit l'appareil, en court-circuitant l'entrée, tu ne peux pas mesurer en sortie les bruits générée par l'étage d'entrée. Ce sont les bruits qui sont injectés dans toute la chaîne d'acquisition et ils ont un impact significatif.
Et avec les particularités du numérique :
Mesurer le bruit de quantification comme l'on mesure un bruit "analogique" n'a de sens que si l'on peut assimiler l'erreur de quantif à... un bruit. Et ce n'est possible qu'à partir d'un niveau de 4 a 6 LSB (condition nécessaire mais pas suffisante).
En court-cicuitant l'entrée on ne peut pas obtenir un bruit car le niveau est évidement trop faible.
Dans le cas particulier d'un CAN 1 bit avec modulation sigma-delta :
Ce type de CAN utilise systématiquement un coupe circuit en entrée. Si le signal d'entrée est faible un CAN sigma delta retourne exactement 0.
En clair, si tu court-cicuites l'entrée d'un appareil audio avex un étage numérique au milieu, tu ne récupères que le bruit du dernier étage de sortie... Et donc ça ne dit rien sur la perfo de l'ensemble.
C'est pour cela qu'il faut injecter un signal d'entrée que l'on retire du signal de sortie (filtre bouchon, ou asservissement de phase pour un soustraction, etc.).
On ne doit pas non plus injecté un signal à la limite d'ecretage de la partie numérique parce que l'on risque de générer de la disto sur la partie analo, à moins de vouloir mesurer un THD+N plutôt qu'un SNR.
Concernant la bande de fréquence : Justement, regarde bien les datasheet qui donnent des bruits sur une bande plus étroite que la bande passante annoncée...
La bande admissible d'un système qui permet de travailler à différentes fréquences d'échantillonnage est évidement variable ou attendue comme telle (sinon, pourquoi proposer plusieurs Fe ?).
Quand rien n'est clairement précisé c'est qu'il y a un coefficient entubulatoire.

kosmix

Quand rien n'est clairement précisé c'est qu'il y a un coefficient entubulatoire.

Putain Walter mais qu'est-ce que le Vietnam vient foutre là-dedans ?
[ Dernière édition du message le 02/10/2016 à 04:28:57 ]

Pevets


EraTom

En revanche, il faut plus de place de stockage (puisque que l'on augmente le nombre d'échantillons par seconde), un ordi plus puissant, etc.
Note qu'entre 48kHz et 44kHz ça ne change pas grand chose (+10%).
Pour les fréquences de travail plus élevées (96kHz et plus aujourd'hui) c'est bien plus impactant pour le matériel (on double le volume de données à stocker/traiter) et, à mon avis (technique, pas à l'emporte-pièce), le gain qualitatif se situe entre faible et inexistant.

Anonyme


Albedo

Bonjour,
Citation de laurend
.....font du 24 bits fixes le standard à adopter puisqu'il n'y a actuellement rien de mieux
Pour info, le constructeur allemand "Stage Tec" produit depuis quelques années des convertisseurs 28 bits pour la prise de son en studio:
http://www.stagetecasia.com/stagetec_products.php?id=80&cid=3&model=standalone&lv=2
Ces convertisseurs sont notamment utilisés par le studio Pauler Acoustics où sont enregistrés les albums de Stockfish Records
C'est en écoutant les albums de Allan Taylor et Sara K., produits par Sockfish Racords, que j'ai commencé à m'intéresser à la production de ces albums dont la qualité du son m'avait particulièrement interpellé.
A mon avis, ce matériel ne doit quand même pas être à la portée de tous les budgets
ALB
La vraie création s'affranchit de toute méthode.
La qualité de la musique est inversement proportionnelle au volume auquel on doit l'écouter pour l'apprécier.
[ Dernière édition du message le 22/10/2016 à 09:59:20 ]

laurend

Avec 28 bits ce convertisseur offre juste 42 dB de marge pour le réglage optimum du gain.
MaximalSound.com
Le mastering algorithmique en ligne depuis 2010
Démo SoundCloud
Sound On Sound Shootout
Crédits YouTube
[ Dernière édition du message le 22/10/2016 à 10:07:51 ]

Albedo

@laurend
Je suis d'accord avec toi, mais la technologie évolue petit à petit......
ALB
La vraie création s'affranchit de toute méthode.
La qualité de la musique est inversement proportionnelle au volume auquel on doit l'écouter pour l'apprécier.

laurend


MaximalSound.com
Le mastering algorithmique en ligne depuis 2010
Démo SoundCloud
Sound On Sound Shootout
Crédits YouTube

Anonyme

J'évoque Cirrus Logic parce que c'est généralement leur SoC que l'on trouve que les interfaces audio, bien plus que de l'AD.
Oui, il y en a aussi beaucoup qui embarquent du AKM !

fivesstringer

Utiliser une fréquence d'échantillonnage supérieure à celle utilisée pour le support final ne pénalise en rien le résultat d'un point de vu qualitatif.
Pour les fréquences de travail plus élevées (96kHz et plus aujourd'hui) c'est bien plus impactant pour le matériel (on double le volume de données à stocker/traiter) et, à mon avis (technique, pas à l'emporte-pièce), le gain qualitatif se situe entre faible et inexistant.
Et bien disons que pour tous les cas ou ce gain est faible (par opposition à inexistant) et où la production le mérite, le 96 kHz se justifie. donc.
Pour le reste (place occupée / CPU/ Stockage) je trouve qu'aujourd'hui c'est un faux débat.
Surtout si on regarde par quoi sont occupés les serveurs de stockage grand public genre Cloud etc...
Et surtout surtout quand on regarde combien coute un To de HDD par rapport à il ya 5 ans et qu'on se hasarde à prévoir combien ça coutera dans 5 ans. Au pire c'est un problème éphémère. Au mieux c'est un prolème inexistant.
Pour moi il suffit que la musique concernée puisse avoir un très léger mieux objectif seulement trèslégérement audible et seulement dans très peu de situations, pour que le 96 kHz soit justifié dans ce cas. Pour les raisons ci dessus.
Et parceque personne ne sait de quoi demain sera fait, une chose est sure, on ne refera pas les enregistrements.
La démocratisation du raisonnement (pour la masse plutot que pour très peu de gens ou de situations) conduit inévitablement au nivellement par le bas. J'y suis opposé.

EraTom

Ce qui m'étonne toujours c'est de voir des avis aussi tranché sans remise des ordres de grandeurs évoqués.
Si pour toi il est indispensable de préserver une bande de fréquence où il faut envoyer 120 dB SPL pour atteindre le seuil d'audition alors tu peux y parvenir techniquement sans aller plus loin qu'une Fe de 50kHz (sauf localement pour certains traitement comme déjà évoqué).
Autre exemple, en dehors des considérations électroniques analogiques :
- Un studio professionnel parfaitement isolé ne descend jamais en dessous 20dB SPL de bruit ambiant (40dB en typique, moins de 20dB c'est une poignet labo d'acoustique dans le monde) ;
- Le seuil de la douleur c'est 120dB SPL (les dommages irréversibles de l'audition commence bien avant).
==> Dans la situation ubuesque d'un truc qui hurle au seuil de la douleur dans un studio parfaitement isolé une prise son aura un SNR de "seulement" 100dB.
Alors les 28bits qui présentent un SNRq de 2+6*28 = 170 dB (!!!), en admettant que l'électronique suive (et ça, en tant qu'ingé en électronique je demande à voir), c'est totalement ridicule.
Encore mieux : Toujours dans un super studio avec 20 dB SPL de bruit de fond ==> pour arriver à une utilisation effective pleine échelle de 170dB qu'offre les 28bits il faudrait capter un son de 190 dB SPL...
... Sauf qu'il ne peut plus s'agir d'une onde acoustique : C'est le niveau maximum de compression / décompression de l'air, une onde de choc, le souffle d'une explosion.
La techno peut évoluer mais une démarche qui aboutit à un truc pareil n'a aucun sens, non ?
Ou est-ce que je cherche à niveler par le bas ?

[ Dernière édition du message le 23/10/2016 à 03:48:02 ]

fivesstringer

Niveler par le bas ou éviter l'arnaque ?
A partir du moment où le gars a conscience que 96 kHz c'est deux fois plus d'espace disque, je ne vois pas cmais alors absolument pas où est l'arnaque.
Tu penses que les gens qui poussent le 96 kHZ sont des marchands de disques dur ??
Ce qui m'étonne toujours c'est de voir des avis aussi tranché sans remise des ordres de grandeurs évoqués.
L'ordre de grandeur ? En nombre de personne concernées par nombre de personne écoutant de la musique tout court ? ou bien en nombre d'œuvre musicale concernées divisé par le nombre de daube audio passant à la radio ?
Le problème avec les ordres de grandeurs, c'est que rien que le choix de la grandeur représentative ou sensée l'être est subjectif..
Si pour toi il est indispensable de préserver une bande de fréquence où il faut envoyer 120 dB SPL pour atteindre le seuil d'audition alors tu peux y parvenir techniquement sans aller plus loin qu'une Fe de 50kHz (sauf localement pour certains traitement comme déjà évoqué).
Ce n'est pas en ces termes que j'ai posé la question (ou la problématique).
Le reste de ta réponse se base essentiellement sur les travaux de Fletcher et Munson qui disent tres justement que à 20 kHz il faut déjà des niveaux SPL considérables pour être audibles. Ca n'a rien à voir avec mon propos. Si le 96 kHz a un interet audible en dehors des traitements c'est surement pas pour entendre des sinus à 30 kHz mais pour entendre des transitoires de l'ordre de quelques µS sans qu'elles ne fussent altérées par un filtre coupe haut à 20 kHz imposé par une Fe à 44 ou 48kHz. Et pour l'oreille ce n'est probablement pas equivalent. L'equivalence temps-frequence du raisonnement n'est pas valable en toute situation. Elle ne l'est pas pour l'oreille, qui est visiblement très non linéaire de ce point de vue. Sa sensibilité temporelle est peut être "supérieure" à son spectre mesuré sur sinus (Fletcher et Munson). Les gens qui décrivent une amélioration audible en 96 kHz ne parlent jamais d'un spectre plus étendu. En quel termes définissent ils l'amélioration prétendue d'ailleurs ? ?
La question n'est vraiment pas d'entendre des ultrasons périodiques. Mais peut être seulement des transitoires qui seraient altérées par un filtre à 20 kHz.
Toutefois je reconnais que ça reste tout au plus une composante très marginale de la qualité sonore dans son ensemble. Et en plus ça présuppose que la musique concernée contienne de telles transitoires et que la chaine d'enregistrement suive dans son ensemble. Pas évident. De là à en décréter l'interet nul, c'est un pas que je ne franchirais pas.
Je n'aime pas les décrets, et pour ma part je pratique le 48 kHz. Non pas que je crois que le 96 kHz n'a aucun interet, mais dans mon contexte d'écoute actuelle, et la musique que je fais, il ne se justifie pas.
Cela dit si un jour je devais graver un disque, pour la postérité, en studio, je ferais tout en 24/96.
Et de toute façon c'est mieux pour les traitements donc...

Danbei

L'equivalence temps-frequence du raisonnement n'est pas valable en toute situation. Elle ne l'est pas pour l'oreille, qui est visiblement très non linéaire de ce point de vue.
Si j'ai bien compris, on ne peut pas percevoir une onde sinusoïdale seul à plus de 20kHz mais si elle est combiné avec d'autres fréquences plus basses (par exemple un transitoire) on la perçois . Est ce que tu peux expliquer cela plus précisément ?

fivesstringer

Citation de fivesstringer :L'equivalence temps-frequence du raisonnement n'est pas valable en toute situation. Elle ne l'est pas pour l'oreille, qui est visiblement très non linéaire de ce point de vue.
Si j'ai bien compris, on ne peut pas percevoir une onde sinusoïdale seul à plus de 20kHz mais si elle est combiné avec d'autres fréquences plus basses (par exemple un transitoire) on la perçois . Est ce que tu peux expliquer cela plus précisément ?
1) Du point de vue théorie du signal, une telle transitoire de quelques µS de temps caractéristique correspond à une fréquence ultrasonique. Clair.
2) L'oreille n'entend pas les sinus ultrasoniques. Clair
3) On ne peut pas pour autant en déduire que l'oreille n'entendrait pas ou plus exactement ne ressentirait pas précision de la transitoire décrite au 1) car l'oreille étant non linéaire (mathématiquement non linéaire, rien à voir avec une courbe de réponse ici), la théorie de Fourier temps vs fréquence ne s'applique pas stricto senso à son cas pour définir les domaines d'audibilité en se basant sur une réponse spectrale mesurée à partir de sinus. (Expérience de Fletcher & Munson)
Autrement dit:
Autant pour n'importe quel appareil audio linéaire ou presque, une bande passante équivaut (relation biunivoque) à une précision temporelle maxi, Ce n'est pas le cas pour l'oreille. Sa bande passante (spectrale) bornée à 20 kHz ne signifie pas nécessairement la même borne pour la précision temporelle du point de vue mathématique. D'où ma transitoire restant signifiante malgrès tout le reste.
Conclusion: L'expérience de Fletcher et Munson est insuffisante à définir complétement (j'insiste sur ce terme) le domaine d'audibilité, en particulier les aspects temporels.. Elle donne la réponse spectrale, sur la base d'un test simple (1930 je rappelle) mais toutes les déductions qui ont suivi ce résultat ont considéré le comportement de l'appareil auditif (au sens d'un quadripole pour les spécialistes) comme pseudo linéaire. Or c'est une hypothèse connue pour être approximative. Au demeurant aucun de nos sens n'a un comportement mathématiquement linéaire. Si on admet ça, ce que je dis plus haut en 1), 2) et 3) n'a rien de choquant.
Mais si on considère l'oreille comme un appareil à comportement linéaire (et donc prévisible comme vous croyez), ce que je dis plus haut est absolument impossible.
Faites vos choix. MAis il est clair que tout ce que je prétends ci dessus repose sur la non linéarité du système auditif sinon c'est incohérent.
Ca plus certaines expérience et travaux qui ont mis en évidence une résolution temporelle de quelques 6 à 10 µS, évidemment inexplicable dans un contexte de linéarité mathématique.
Voila pour l'explication, désolé pour le reste.
EDIT:
Autre façon de voir le truc (décidemment) !! : La réponse spectrale de l'oreille soumise à un signal serait variable dans le temps. Ultrasonique durant quelques periodes seulement (peut être une seule) puis telle qu'on la connait en régime permanent. Evidemment si le test c'est d'entendre un sinus permanent, c'est mort passé 20 kHz. Logiquement.
[ Dernière édition du message le 23/10/2016 à 22:08:15 ]

Anonyme


d’après un ing aillant roulé sa bosse , on discutait de la qualité des vinyles , épaisseur du son , etc.... bref.. et il ma fait remarqué que l'homme entendait effectivement les fréquences entre 20/20Khz ( globalement) mais en fait l'oreille pouvait capter beaucoup plus ( la chauve souris entends bien plus avec le meme systeme) ..
mais que le cerveau humain faisait un filtre afin d’éviter d’être pollué par environnement .. .. mais le subconscient entendait bien ces fréquences..
voila .. j'ai pas vérifié , j en sais rien en fait .. mais voila .. si ca permets d'expliquer pourquoi passer au 96Khz
si vous en savez plus ..n'hésitez pas car ca ma quand meme interpellé cette histoire.
j'ai vu un lien interessant ,

un extrait:
Ultrasons : si les variations de pression sont trop rapides, elles échapperont également à l'audition mais pourront, lorsqu'elles sont très puissantes, déclencher des réactions dans l'organisme selon des mécanismes parfois mal connus : il s'agit d'ultrasons. On a remarqué le fait que le foetus semble fortement réagir lorsqu'on abuse de l'échographie : ce procédé utilise des ultrasons de forte puissance et de fréquence pourtant extrêmement éloignée du domaine audible.
Nous savons tous que certains sons, trop aigus pour notre perception humaine sont facilement reçus par le chien, le chat ou la vache
l'existence d'une perception sonore résultant de stimuli ultrasoniques en conduction osseuse dans les fréquences allant de 20 kHz jusqu'à 100 kHz a été démontrée déjà dans les années cinquante. La hauteur du signal perçu est décrite comme allant de 11 kHz et 13 kHz, avec une courbe d'audibilité en conduction osseuse s'étendant jusqu'à 100 kHz pour des sujets otologiquement et audiométriquement normaux.
Parasons (ou extrasons) : je veux regrouper ici la perception de vibrations non perceptibles par l'audition ou le sens labyrinthique, mais qui stimulent des récepteurs cutanés spécialisés; on est ici dans le domaine de la "tribologie" par exemple. Notre peau se montre capable de nous renseigner sur des vibrations subtiles qui nous apparaissent comme empreintes de douceur et qui diminuent d'éventuelles sensations de douleur ou d'inconfort
L'oeil entend-il ?
Lenhardt (2007) a stimulé le globe oculaire avec des ultrasons, et montré que l'oeil capte les ultrasons lesquels seraient mécaniquement transmis à la cochlée !
"The eye can serve as an acoustic window to the ear via the intracranial soft tissues. The frequency response is in the low ultrasonic range, and this type of hearing is termed eye conduction. Auditory and vestibular coding is postulated. (Martin L. Lenhardt, Eyes as Fenestrations to the Ears: A Novel Mechanism for High-Frequency and Ultrasonic Hearing, International Tinnitus Journal, 13, 1, Jan-Mar, 200
http://cercledesconnaissances.blogspot.ch/2012/05/la-clef-des-sons.html
[ Dernière édition du message le 24/10/2016 à 10:07:16 ]

globule_655

Alors les 28bits qui présentent un SNRq de 2+6*28 = 170 dB (!!!), en admettant que l'électronique suive (et ça, en tant qu'ingé en électronique je demande à voir), c'est totalement ridicule.
Encore mieux : Toujours dans un super studio avec 20 dB SPL de bruit de fond ==> pour arriver à une utilisation effective pleine échelle de 170dB qu'offre les 28bits il faudrait capter un son de 190 dB SPL...
... Sauf qu'il ne peut plus s'agir d'une onde acoustique : C'est le niveau maximum de compression / décompression de l'air, une onde de choc, le souffle d'une explosion.
De mon point de vue, il ne faut pas voir la profondeur en bit comme définissant uniquement la dynamique utile mais plutôt comme définissant la "finesse" du rendu sonore. Plus on a de bits pour coder un son, plus on pourra coder de nuances. C'est un peu comme augmenter le nombre de pixels par pouces pour l'image.
C'est en tout cas comme ça que j'entends, in situ, la différence dans le studio. Sinon aucun intérêt à aller au delà du 16 bits étant donné la dynamique de la musique d'aujourd'hui.
Peace
Glob
L'abeille coule, l'abeille coule, l'abeille coule, l'abeille coule, l'abeille coule, l'abeille coule....

Danbei

Pour illustrer cela et s'en convaincre on peut s'amuser à quantifier sur très peu de bits (8 par exemple) pour entendre clairement ce qu'il se passe, en effet la quantification étant extrême on entends de manière exagéré comment ça sonne.
Si avec peu de bits on perdait en "finesse du rendu sonore" on entendrais cela de manière exagéré en quantifiant sur 8 bits. Moi j'entends juste un bruit de fond relou... Ou peut être que c'est justement ça que tu appel "perdre en finesse" ?
[ Dernière édition du message le 24/10/2016 à 15:46:53 ]

globule_655

Peace
Glob
L'abeille coule, l'abeille coule, l'abeille coule, l'abeille coule, l'abeille coule, l'abeille coule....

fivesstringer

De mon point de vue, il ne faut pas voir la profondeur en bit comme définissant uniquement la dynamique utile mais plutôt comme définissant la "finesse" du rendu sonore. Plus on a de bits pour coder un son, plus on pourra coder de nuances. C'est un peu comme augmenter le nombre de pixels par pouces pour l'image.
C'est en tout cas comme ça que j'entends, in situ, la différence dans le studio. Sinon aucun intérêt à aller au delà du 16 bits étant donné la dynamique de la musique d'aujourd'hui.
Peace
Glob
Hélas à partir d'un certain stade plus de bits n'apporteraient rien. Car les sections analogiques de nos chaines audio ne suivent pas sans parler de notre audition qui n'a pas une dynamique infinie.
Pour reprendre ton analogie pixels, C'est par exemple le cas d'un capteur plein de millions de pixel monté derrièere une lentille de merde (smartphone) comparé avec un capteur de même résolution sur un reflex numérique...
Clairement ce n'est plus la résolution qui fait la qualité de l'image.
C'est idem en audio, passé 24 bits. Les bits ne comptent plus dans la qualité sonore à ce stade.
EDIT: il faut se souvenir que 24 bits c'est 2^8 * 2^16 = 256 * 2^16 = 256 fois plus précis et moins bruyant que le 16 bits.
On est en terme de précision numérique, bruit de fond etc.., loin devant les meilleurs circuits audio analogiques. Raison pour laquelle c'est largement suffisant pour tous les besoins audio musicaux.
[ Dernière édition du message le 24/10/2016 à 18:08:29 ]

globule_655

Peace
Glob
L'abeille coule, l'abeille coule, l'abeille coule, l'abeille coule, l'abeille coule, l'abeille coule....

nc333

Citation de : Danbei
Citation de fivesstringer :L'equivalence temps-frequence du raisonnement n'est pas valable en toute situation. Elle ne l'est pas pour l'oreille, qui est visiblement très non linéaire de ce point de vue.
Si j'ai bien compris, on ne peut pas percevoir une onde sinusoïdale seul à plus de 20kHz mais si elle est combiné avec d'autres fréquences plus basses (par exemple un transitoire) on la perçois . Est ce que tu peux expliquer cela plus précisément ?
je me permet juste d'intervenir la dessus, pour dire que en lieux et place de son aigu soutenu par des son grave, on parle plus souvent d'harmonique de son grave, par exemple un son a une frequence de 3khz, peux avoir des harmoniques a 6, 12, 24 khz etc .. et je crois comprendre que les harmoniques supérieur a 20khz, normalement inaudible seul (en sinusoide) peuvent, suivant les contextes, être percu par l'oreille humaine, j'ai bon ?
Matos Basse: PV T40, Fender Mustang bass, GK backline 210
Matos Guitare: Jaguar jap', Pedale SD-1 japan, Small clone, bassballs, Rc1 Ampli Epiphone valve junior hot rod avec V30.

fivesstringer

Oui c'est ça en gros.
Mais je me refuse à continuer de raisonner en terme de décompositon spectrale, car ça induit des conclusions fausses.
Il est vrai que le signal audio est la somme intégrale de sa décomposition spectrale, mais l'effet audible du signal audio n'est pas égal à la somme (ou au cumul) des effets de ses composantes spectrales considérées séparément.
La non linéarité de l'appareil auditif implique l'abandon pur et simple du principe de superposition à son égard.
Et sans principe de superposition applicable, pas de théorie de Fourier valable.
- < Liste des sujets
- Charte