Se connecter
Se connecter

ou
Créer un compte

ou

réactions au dossier [Bien débuter] Quel format d’enregistrement ?

  • 249 réponses
  • 55 participants
  • 34 142 vues
  • 63 followers
Sujet de la discussion [Bien débuter] Quel format d’enregistrement ?
Quel format d’enregistrement ?
Aujourd’hui, nous allons nous intéresser à une question qu’il est essentiel de se poser avant tout enregistrement à l’heure du « tout numérique » : quel format audio doit-on utiliser pour obtenir une qualité optimale ?

Lire l'article
 


Ce thread a été créé automatiquement suite à la publication d'un article. N'hésitez pas à poster vos commentaires ici !
Afficher le sujet de la discussion
151
Wouha bon sang, ça fait beaucoup de n'importe quoi d'un coup là.


Citation de fivesstringer :
Tu penses que les gens qui poussent le 96 kHZ sont des marchands de disques dur ??
Dans la nature "toutes les fréquences existent" c'est pour cela que ce qui permet de dimensionner les appareils sont les limites de notre ouïe.

Ce que je pense c'est qu'il y a clairement du marketing, voir du lobbying, pour nous faire croire qu'augmenter les fréquences d'échantillonnages et les résolutions a un impact significatif sur la qualité perçue et que nous aurions tout intérêt à upgrader et changer notre matériel régulièrement... C'est une variante de l'obsolescence programmée.

Le fait est que l'AES, qui prête pourtant largement l'oreille aux industriels du son, n'arrive pas aux mêmes conclusions.
Pour l'instant il n'y a pas de publication sérieuse (avec des expérimentations indépendantes répétant et confirmant les résultats) qui montre une différence de perception pour les enregistrements qui vont très au-delà de la bande 20Hz-20kHz.

Franchement, je serai le premier ravi de lire quelque chose de nouveau (et de confirmé) qui montre qu'il y a des nouvelles pistes à creuser pour l'amélioration de la reproduction sonore.
Mais pour l'instant je n'ai rien lu de tel sinon des choses totalement isolées et systématiquement contredites par les expérimentations indépendantes qui tentent de reproduire les résultats.

Citation de fivesstringer :
L'ordre de grandeur ? En nombre de personne concernées par nombre de personne écoutant de la musique tout court ? ou bien en nombre d'œuvre musicale concernées divisé par le nombre de daube audio passant à la radio ?
Le problème avec les ordres de grandeurs, c'est que rien que le choix de la grandeur représentative ou sensée l'être est subjectif..
Pourquoi 96kHz ? Et pourquoi pas 2000kHz ? Et pourquoi est-ce que 50kHz "n'est pas suffisant" ?
Pour l'instant il n'y a pas de réponse étayée par des arguments solides et vérifiables.

Je parle bien de grandeurs mesurables et quantifiable et de méthode scientifique. Autre chose que des boniments ou des actes de foi.
Par exemple, des tests en aveugle sur un panel représentatif de la population avec des analyses statistiques sérieuses.

Citation de fivesstringer :
Le reste de ta réponse se base essentiellement sur les travaux de Fletcher et Munson qui disent tres justement que à 20 kHz il faut déjà des niveaux SPL considérables pour être audibles. Ca n'a rien à voir avec mon propos. Si le 96 kHz a un interet audible en dehors des traitements c'est surement pas pour entendre des sinus à 30 kHz mais pour entendre des transitoires de l'ordre de quelques µS sans qu'elles ne fussent altérées par un filtre coupe haut à 20 kHz imposé par une Fe à 44 ou 48kHz. Et pour l'oreille ce n'est probablement pas equivalent. L'equivalence temps-frequence du raisonnement n'est pas valable en toute situation. Elle ne l'est pas pour l'oreille, qui est visiblement très non linéaire de ce point de vue. Sa sensibilité temporelle est peut être "supérieure" à son spectre mesuré sur sinus (Fletcher et Munson). Les gens qui décrivent une amélioration audible en 96 kHz ne parlent jamais d'un spectre plus étendu. En quel termes définissent ils l'amélioration prétendue d'ailleurs ? ?
Oui enfin depuis 1933 il y a eu des travaux complémentaires, notamment sur la perception des transitoires.
Par exemple : https://ccrma.stanford.edu/papers/perception-of-attack-transients-in-musical-tones

(Note que si ses travaux de 1933 font toujours références c'est qu'en 80 ans rien n'est venu les contredire... Mais qu'elles ont été complétées).

En 2003 je bossais sur les modèles sinusoïdes + transitoires + bruit pour la prochaine génération d'encoder audio (tous les encodeurs actuels utilisent des modèles sinusoïdes + bruit) et il y a un foisonnement d'études psychoacoustiques sur la perception des transitoires depuis début 2000 (avec la mode des ondelettes, etc.).
Le consensus actuel est que justement à cause des phénomènes non linéaires, notre oreille est assez médiocre.
C'est exploité dans le mp3 avec le masquage temporel et l'étude des modèles avec transitoire a pour but de mieux maîtriser la destruction d'information (pour compresser encore d'avantage)... Et il n'a pas été mis en avant de capacité encore insoupçonnée de notre oreille.

Citation de fivesstringer :
1) Du point de vue théorie du signal, une telle transitoire de quelques µS de temps caractéristique correspond à une fréquence ultrasonique. Clair.
Non, un phénomène transitoire ne correspond pas à une fréquence mais à une bande de fréquences.
Cette bande est d'autant plus large que le phénomène est limité temporellement.

Citation de fivesstringer :
Conclusion: L'expérience de Fletcher et Munson est insuffisante à définir complétement (j'insiste sur ce terme) le domaine d'audibilité, en particulier les aspects temporels.. Elle donne la réponse spectrale, sur la base d'un test simple (1930 je rappelle) mais toutes les déductions qui ont suivi ce résultat ont considéré le comportement de l'appareil auditif (au sens d'un quadripole pour les spécialistes) comme pseudo linéaire. Or c'est une hypothèse connue pour être approximative.
Non c'est inexacte. D'abords les travaux sur la perception humaine des sons ne se sont pas arrêtés en 1930 (par contre ces travaux sur la perception des fréquences de signaux établis n'ont pas été contredit depuis).

Le comportement non linéaire de l'appareil auditif est connu depuis longtemps (cf. les travaux de Georg Von Békésy, par exemple). Si l'on remonte le cours de l'histoire des travaux on trouve :
- La largeur de bande critique (notre incapacité à distinguer deux fréquences proches) ;
- Le phénomène de masquage fréquentiel ;
- Le phénomène de masquage temporel ;
- Les limites de discrimination des durées de transitoires.

Citation :
d’après un ing aillant roulé sa bosse , on discutait de la qualité des vinyles , épaisseur du son , etc.... bref.. et il ma fait remarqué que l'homme entendait effectivement les fréquences entre 20/20Khz ( globalement) mais en fait l'oreille pouvait capter beaucoup plus ( la chauve souris entends bien plus avec le meme systeme) ..

mais que le cerveau humain faisait un filtre afin d’éviter d’être pollué par environnement .. .. mais le subconscient entendait bien ces fréquences..

voila .. j'ai pas vérifié , j en sais rien en fait .. mais voila .. si ca permets d'expliquer pourquoi passer au 96Khz
Et d'après la grand-mère de la cousine de la concierge de mon beau-frère, qui a été la voisine de palier Georg Von Békésy (prix Nobel pour ses travaux de biophysique), la limitation de la bande perçue et bien due à une limite physique de notre oreille interne et pas du tout à un filtrage inconscient (et mystique) de notre cerveau.

La membrane basilaire d'une cochlée humaine ne se met en vibrations mécaniques "que" sur la plage 20Hz-20kHz ; avec l'âge la mécanique se grippe : elle bouge moins bien dans les aigus.
Et plus le son est aigu moins la membrane bouge ; c'est ce que l'on appelle la tonotopie cochléaire.
https://fr.wikipedia.org/wiki/Tonotopie

Sinon, en plus d'une membrane basilaire différente, l'organe de Corti de la chauve-sourie n'a pas du tout la même répartition des cellules ciliées.
Bref, c'est pas comparable.

Citation de globule_655 :
De mon point de vue, il ne faut pas voir la profondeur en bit comme définissant uniquement la dynamique utile mais plutôt comme définissant la "finesse" du rendu sonore. Plus on a de bits pour coder un son, plus on pourra coder de nuances.
Je ne parle pas de dynamique mais de rapport signal à bruit.

Pardon, n'y voit aucune attaque personnelle, mais ta vision de la "finesse" est justement le genre de propos bullshit dans lequel s'engouffrent les services marketing des frabicants de DAC.


L'erreur due à la troncation est une distorsion qui se comporte exactement comme un bruit aléatoire sous certaines conditions (largement vérifiée en audio).

On a un signal réel qui varie au cours du temps : s(t)
A chaque instant t on fabrique un signal sq(t) en quantifiant s(t).

L'erreur de quantification vaut exactement la différence entre le signal réel et le signal quantifié :
err(t) = sq(t) - s(t)

Et c'est rigoureusement identique à :
sq(t) = s(t) + err(t)

En d'autres terme, le signal quantifié vaut exactement le signal réel sur lequel est ajouté un signal d'erreur err(t).

Dans les applications audios, lorsque le pas de quantification vaut q, err(t) se comportement comme un signal aléatoire dont l'amplitude prend des valeurs entre -q/2 et q/2 avec la même probabilité.
https://fr.wikipedia.org/wiki/Loi_uniforme_continue
La variance de ce processus aléatoire correspond à sa puissance et elle vaut q²/12.

C'est ici qu'il y a une hypothèse à vérifier : Il faut que le pas de quantification soit assez fin devant la dynamique du signal pour que l'on observe se comportement aléatoire uniforme sur [-q/2;q/2].
Pour un signal audio et pour un nombre de bits supérieurs à 12, on est tranquille de ce côté : l'hypothèse fonctionne (sinon, c'est que l'on fait exprès de biaiser les mesures).


Le SNRq est simplement une autre façon de l'écrire : On donne la puissance du signal d'erreur de quantification par rapport à une sinusoïde pleine échelle.
Pour n bits avec un signal de test pleine échelle sinusoïdal, le SNRq vaut exactement : 10*log10(3*2^(2n-1)) dBfs

Si tu veux en plus prendre en compte le headroom que tu peux te donner à la prise il te suffit de le retrancher à la valeur du SNRq.


Si tu veux, on peut regarder le problème des bruits et bits effectifs autrement en calculant le nombre de bits qu'il faut pour avoir un headroom confortable tout en ayant un impact négligeable sur la qualité de la pise.


Je me place dans le studio idéal :
- Le studio d'enregistrement les plus silencieux du monde présentent un bruit de fond de 20dB SPL (le vent qui souffle dehors + le bruit de l'autoroute à 20km + les voisins qui s'engueulent + le néon qui vibre + la chasse d'eau qui vient d'être tirée, etc.).
- En supposant que l'on enregistre un niveau "assez fort on a une puissance de 120 dB SPL.
==> Le signal enregistré aura au meilleur des cas un rapport signal à bruit de fond de SNRp = -100dB (je ne parle pas d'une dynamique mais du rapport de la puissance max du signal d'intérêt et du bruit de fond existant dans la pièce).

(C'est déjà très optimiste : En typique en studio professionnel, on baigne déjà dans un niveau de bruit environnant autour de 40 dB SPL).


Je prends ensuite le chiffre optimiste (pour ne pas dire irréaliste) de la partie analogique des constructeurs de CAN : SNRa = -106 dB dans la bande utile.

Enfin, le SNRq = -10*log10(3*2^(2n-1)) et le headroom de... 30dB ? Ça va, c'est super large.
SNR_16bits = -98.1 dB
SNR_24bits = -146.3 dB
SNR_28bits = -170.4 dB


Et on calcule le SNR total résultant :
10*log10( 10^(SNRp/10) + 10^(SNRa/10) + 10^((SNRq+30)/10) )

Pour le 16 bits :
10*log10( 10^(-100/10) + 10^(-106/10) + 10^((-98.1+30)/10) ) = -68.1 dB

Pour le 24 bits :
10*log10( 10^(-100/10) + 10^(-106/10) + 10^((-146.3+30)/10) ) = -98.9 dB

Pour le 28 bits :
10*log10( 10^(-100/10) + 10^(-106/10) + 10^((-170.4+30)/10) ) = -99.0 dB


Et là, on voit que dans ses conditions idéales (en négligeant les souffles des ampli, etc.) et conservant 30dB de headroom, passer de 24bits à 28bits permet de gagner 0.1dB de SNR à la prise.


Et sinon dans un truc plus proche de la vraie vie avec du matos de très bonne qualité :
- Bruit de fond de la pièce de captation : 40dB SPL ;
- SNR de la partie analogique : 99dB ;
- Headroom : 20dB.


Pour le 16 bits :
10*log10( 10^(-80/10) + 10^(-99/10) + 10^((-98.1+20)/10) ) = -75.9 dB

Pour le 24 bits :
10*log10( 10^(-80/10) + 10^(-99/10) + 10^((-146.3+20)/10) ) = -79.9 dB

Pour le 28 bits :
10*log10( 10^(-80/10) + 10^(-99/10) + 10^((-170.4+20)/10) ) = -79.9 dB


Pour se rassurer, avec un CAN 24bits qui ne présente en réalité sur 21bits effectif :
10*log10( 10^(-80/10) + 10^(-99/10) + 10^((-10*log10(3*2^(2*21-1))+20)/10) ) = -79.9 dB

Et sans la quantification ?
10*log10( 10^(-80/10) + 10^(-99/10) = -79.9 dB


En fait, dans cette config, on pourrait descendre jusqu'à 19bits pour avoir une dégradation du SNR de moins de 0.01dB tout en conservant un headroom de 20dB parce que ce qui dimensionne le bruit de fond total c'est le bruit de la pièce et de l'environnement d'enregistrement.

Le bits supplémentaires ne serviront qu'à enregistrer du bruit, et rien que du bruit, nuisible.

A noter que l'on n'a pas encore été regarder du côté de la diffusion... et que j'ai négligé beaucoup d'autres sources de bruits (les ampli de puissance, la pièce "de monsieur tout le monde", etc.) qui permettent de montrer que le 16bits est déjà du grand luxe (à la diffusion).


x
Hors sujet :
Citation de globule_655 :
C'est un peu comme augmenter le nombre de pixels par pouces pour l'image.
Non, là tu tombes à côté.
La quantification d'une image concerne le nombre de niveaux de luminance de chaque pixel.
Le nombre de pixel se rapproche de l'échantillonnage (il s'agit d'un échantillonnage 2D spatial ou angulaire si l'on raisonne en ouverte).

D'où l'importance du dithering lorsque l'on réduit le nombre de niveaux d'une image
https://fr.wikipedia.org/wiki/Tramage_(informatique)

Et l'importance d'appliquer une filtre d'antialiasing (un filtre passe-bas 2d) lorsque l'on reduit la taille d'une image (ce qui revient à sous-échantillonner) :
https://en.wikipedia.org/wiki/Aliasing


Citation de nc333 :
peuvent, suivant les contextes, être percu par l'oreille humaine, j'ai bon ?
Non, elles ne le sont pas.

Si tu fais référence à ces histoires "hypersoniques", elles ont commencées avec une publication datée de 2000
https://en.wikipedia.org/wiki/Hypersonic_effect

Il faut bien regarder les sources :
- Une seule équipe de recherche dit avoir noté une trace d'activité cérébrale quand des personnes sont soumises à de très hautes fréquences ;
- Aucune autre équipe dans le monde n'a obtenu de résultats similaires, ce qui conduit à réfuter l'étude précédente ;
- En 2005, la première équipe a "contre-attaqué" en annonçant une prochaine publication et expliquant qu'il s'agissait d'activités cérébrales inconscientes (mais mesurables) observées lorsque que le corps (et non l'oreille) est soumis à ces vibrations hypersoniques ;
- Nous sommes en 2016 et cette nouvelle publication n'est pas encore sortie.

C'est tout de même assez étrange : La publication d'une équipe scientifique qui ne donne pas de résultat vérifiable au bout de 10 ans est normalement mise à la poubelle et oubliée (pour de bonnes raisons).
Et pourtant, cette histoire d'hypersonie continue à ressortir régulièrement parce que reprise par des fabricants de DAC, par exemple.


Citation de fivesstringer :
La non linéarité de l'appareil auditif implique l'abandon pur et simple du principe de superposition à son égard.
La démarche suivie est d'utiliser le modèle linéaire en première approximation puis de le compléter pour prendre en compte les non-linéarités en détaillant les limites de validité des modèles (de plus en plus élaborée) et des conclusions que l'on en tire.

Il se trouve que le premier effet des non-linéarités (de la membrane basilaire) est de réduire la capacité à distinguer deux sons de fréquences proches.
La limite de la capacité a séparer des fréquences s'appelle la largueur de bande critique, et cette bande critique augmente lorsque la fréquence moyenne augmente : à partir de 17kHz l'oreille humaine est incapable de distinguer des fréquences proche de 5kHz.

[ Dernière édition du message le 25/10/2016 à 18:39:15 ]

152
Citation de EraTom :
Le fait est que l'AES, qui prête pourtant largement l'oreille aux industriels du son, n'arrive pas aux mêmes conclusions.


Je t'invite chaleureusement à méditer sur la phrase suivante extraite d'un petit article datée de 2015, en libre accès sur le site de...l'AES !!! Qui l'eut cru.
Par Mr Bob Stuart:

"By exploiting population coding, temporal resolution can approach 8 μs, and this precision reflects neural processing rather than being strictly proportional to our 18-kHz tonal bandwidth (...) a
distribution system that permits end-to-end resolution of 8 μs implies a Gaussian bandwidth of around 44 kHz

http://www.aes.org/tmpFiles/elib/20161025/18046.pdf


Citation de EraTom :
Franchement, je serai le premier ravi de lire quelque chose de nouveau (et de confirmé) qui montre qu'il y a des nouvelles pistes à creuser pour l'amélioration de la reproduction sonore.


C'est fait. Bon j'avoue que Bob Stuart n'a pas fait un article scientifique.
Ce que je retiens c'est les 8µS et leur conséquence prévisible. Est ce vraiment 8µS ? Si c'est faux, montre le donc.
Pour la confirmation, c'est un peu l'argument bateau.
J'avais déjà sorti les travaux de Mr Kunchur (datant de 2007) sur la résolution temporelle de l'audition
Je les ressors donc.
http://boson.physics.sc.edu/~kunchur/papers/Temporal-resolution-by-bandwidth-restriction--Kunchur.pdf

Disons donc que le lien ci dessus confirme le propos de Bob Stuart, concernant la résolution temporelle de l'audition et vice et versa, comme ça c'est bon pour la confirmation à deux articles indépendants ou bien il faut aussi l'avis du pape ?

Maintenant je sais que tu es suffisemment calé pour traduire en terme de spectre pour nos appareils audio ce que une résolution temporelle auditive de 8µS nécessite en terme de bande passante sur le matos pour garantir de ne pas altérer ces transitoires restant audibles, dont le temps caractéristique se situe vers les 8µS justement.
153
Concernant le papier de Stuart, je vais regarder de près celui-ci cité en référence "[1] A Hierarchical Approach to Archiving and Distribution" parce que je ne comprends rien à son protocole et à ses conclusions.

Ce qui me gêne c'est qu'il n'y a pas de trace d'un comité de relecture (une publication libre, donc).


Concernant le papier de Kunchur... C'est une honte que le comité de relecture n'ait pas fait son boulot correctement (parce que visiblement, il y en aurait un).
Citation :
1/2πfmax = 9μs
Non, il se plante d'un facteur 2.

La limite est donnée par la relation :
σt * σf >= 1/4π

C'est con parce qu'il fonde presque tout son papier là-dessus.

Un autre problème de taille : Le transducteur final c'est n'importe quoi.
Citation :
The earphones used were a pair of Grado RS1 (Grado Laboratories, Brooklyn, New York) supra-aural head-phones which have a frequency response of 12 Hz–30 kHz an input resistance of 32 Ω, and an efficiency of 98 dB/mW. Identical signals are fed to both left and right ears to provide a diotic presentation.

1 - Ça c'est la fiche technique donnée par Amazon ou Thomman. Les dispersions de fabrication d'un casque sont importantes. Il faudrait a minima un casque calibré et ça m'étonnerait fortement que l'on puisse obtenir les mêmes réponses côtés gauche et droit en envoyant des signaux identiques.

2 - Toute la digression sur la méthode de synthèse est juste balayée par la bande donnée à 30kHz du casque.

Mon avis, qui vaut ce qu'il vaut, est que cette dernière publication est bonne à être mise à la poubelle.


Enfin, si dans son papier Kunchur a été capable de mettre en avant une discrimination de 5µs avec un casque qui monte à 30kHz... Comment expliquer que pour une discrimination temporelle de 8µs Stuart ait besoin de monter à une Fe de 384 kHz !?



Personnellement, je préfère regarder ce genre de meta-analyse qui tente de faire le point et de dégager les tendance de ce qui a été publié sur le sujet :
https://qmro.qmul.ac.uk/xmlui/handle/123456789/13493

As previously mentioned, many proposed causes or factors in perception of high resolution audio could not be confirmed nor denied and warrant further investigation. Some of these questions are particularly intriguing, such as differences in perception over headphones versus loudspeakers, the effect of spatial audio rendering, the effect of quantization, the effect of duration (e.g., the trade-off between short-term auditory memory and the persistent effect of exposure to high frequency content), and the identification of critical stimuli where differences between high and standard resolution are most easily perceived.

There is a strong need for several listening tests. First, it is important that all test results be published. Notably, there is still a potential for reporting bias. That is, smaller studies that did not show an ability to discriminate high resolution content may not have been published. Second,
it would be interesting to perform a subjective evaluation incorporating all of the design choices that, while not yielding Type I errors, were taken in those studies with the strongest discrimination results, e.g., Theiss 1997 had test subjects blindfolded to eliminate any visual distraction. If these procedures are followed, one might find that the ability to discriminate high resolution content is even higher than any reported study. Finally, no research group has mirrored the test design of another team, so there is need for an experiment that would provide independent verification of some of the more high profile or interesting reported results.



Citation de fivesstringer :
comme ça c'est bon pour la confirmation à deux articles indépendants ou bien il faut aussi l'avis du pape
Ce que montre et dit de façon feutrée cette méta analyse est :
- Qu'il y a un manque de transparence sur les résultats de ceux qui annoncent identifier des différences de perception ;
- Que les protocoles de tests ne sont pas assez rationalisés et ne permettent pas de comparer / reproduire les résultats ;
- Que les labo qui ne trouvent pas de gain ne publient pas (ce qui biaise la méta analyse).

Je ne sais pas si le Pape pourra aider mais ce qui est sûr c'est que tes deux publications sont loin d'être suffisantes pour montrer quoi que ce soit.
En ce qui me concerne, j'y vois surtout de l'enfumage.

[ Dernière édition du message le 26/10/2016 à 09:56:47 ]

154
Je ne regarderai jamais plus ma carte audio comme avant. :oo:
155
x
Hors sujet :
Quelle motivation aurait Kunchur a pratiquer l'enfumage ? Si c'était un vendeur de convertos à la rigueur... MAis je ne crois pas qu'il soit commerçant, ni producteur de musique, seulement scientifique.

Mais bon j'admets volontiers que son papier soit contestable C'est d'ailleurs le lot de tous les papiers scientifiques. Et c'est comme ça que la science avance.

Cela dit si (et seulement si) on arrive par un moyen quelquonque (revu par comité de lecture si tu veux) à valider la véracité des 8µS de résolution temporelle pour l'humain, alors pratiquer des tests aveugle pour savoir si un echantillon N de population réussit à identifier une différence audible n'aurait aucun interet. Dès lors que la valeur de la résolution temporelle de l'oreille est validée, alors la conclusion sur la bande passante utile est mathématique.
Un test aveugle à ce stade servirait juste à confirmer que la majorité des quidam lambda testés n'est pas sensible à l'exploitation à 100% de leur capacités auditives, plutot qu'à 95%
Bref j'appelle ça une enquête ou un sondage, au mieux à visée technico commerciale, mais surement pas un acte scientifique prouvant quoi que ce soit sur l'audibilité du truc.

C'est pour ça que plutôt que de vulgairement faire essayer le truc en aveugle pour essayer de dégager un résultat, avec tous les aléas que la mise en place d'un tel test compte, je préfère la méthode qui consiste à établir la valeur de la résolution maximale de notre appareil auditif. En gros une approche ciblée vers la clé du problème plutot qu'une approche fourre tout "On écoute et on voit" beacoup moins rigoureuse et probante. Perso chez moi avec mon matos, jamais je ne pourrai conclure qu'il ya quelque chose de significatif au dessus de 18 kHz. Mais c'est chez moi, et si j'ai un peu trop bouffé à midi ça descend à 15 kHz.... C'est absolument sans aucune rigueur que je pourrais faire un test aveugle. Sans aucune rigueur si le but est de conclure sur la présence ou pas d'un truc audible dans le signal audio.

Evidemment les test de résolution temporelle comme ceux de Kunchur sont difficiles à mettre en oeuvre de manière fiable et la valeur réelle de la résolution temporelle de l'oreille n'est pas un paramètre connu pour être gravé dans le marbre. C'est la clé du problème je le répète et ce n'est que par là à mon point de vue qu'on tranchera.

Quant à Stuart, je ne crois pas qu'il ait réclamé une Fe de 384 kHz mais juste une bande passante audio Gaussienne (???) de 44 kHz.
Pour le reste de son article, je trouve aussi qu'il va trop loin. Perso je ne passerai jamais le cap au dela des 96 kHz de Fe, sans compter que d'une manière un peu similaire à ce qu'on a vu pour les bits, à partir d'un certain stade c'est l'analogique de la chaine audio qui devient le facteur limitant dans l'absolu et rien ne sert donc de monter indéfiniment la Fe. Sans parler de la musique. Nos instruments ne sont pas ultrasoniques.
Si son problème est d'éviter de cumuler les filtrages "de Niquist" en série pour préserver les transitoires extremes de la musique, la règle en pratique c'est plutôt d'éviter de multiples conversions AD et DA successives sur le trajet du signal que de monter la Fe sur des valeurs délirantes. Je crois.
C'est plutôt le fait qu'il evoque aussi 8µS de résolution temporelle, de manière indépendante de Kunchur, ça m'a interpelé je me suis dit qu'il n' y avait pas de fumée sans feu.


Bon ça fait long et je ne vais plus encombrer le post plus longtemps mais revenir à la question du format d'enregistrement:
Pour y répondre, la question crutiale à mon avis reste et demeure:
Quelle est la valeur réelle de la résolution temporelle de notre audition, dans les meilleures conditions qui soient ?

Quand on aura la réponse, on saura automatiquement ce qu'il nous faut comme matos et comme format d'enregistrement pour exploiter à 100% cette capacité là.
En attendant je conjecture que le 24/96 est au délà de ce qui est nécessaire et que le 24/48 légerement en deça.
Et je n'ai pas l'impression que le 24/96 soit un format délirant à pratiquer, pousse au crime et pousse à la consommation de manière éhontée. Donc je n'ai aucun scrupule à le recommander pour tout projet ambitieux.






156
A chacun son format

1902068.jpg

Bonne soirée :lol:
157
Merci Eratom d'apporter du bon sens dans cette discussion !

fivestringer > non, "C'est d'ailleurs le lot de tous les papiers scientifiques" est tout à fait faux. Dans une publication sérieuse avec comité de lecture, il n'y a pas de contestation. Il y a une démonstration d'un effet, des maths, des stats claires et il n'y a pas contestation. Ca peut faire débat s'il y a remise en cause de théories établies, mais que quand il y a démonstration. eT quand on part sur des maths fausses (cf les épisodes de Big Bang Theory où Sheldon se plante une fois sur une erreur mathématique et une fois dans une table de conversion, ça arrive plus fréquemment qu'on ne le croit et c'est pour ça qu'il y a relecture sérieuse obligatoire !).
158
Citation :
Mais bon j'admets volontiers que son papier soit contestable C'est d'ailleurs le lot de tous les papiers scientifiques. Et c'est comme ça que la science avance.
Tu confonds contestable et réfutable https://fr.wikipedia.org/wiki/R%C3%A9futabilit%C3%A9

Le fait pour Kunchur d'utiliser un casque d'une bande de 30kHz sans calibration préalable invalide toute la démarche qui précède. Ça ne fait rien avancer du tout...

L'étude statistique n'est pas à visée commerciale : les résultats d'une expérimentation doivent être répétables.
C'est au contraire les résultats non vérifiables et/ou non répétables qui font une démarche commerciale. C'est de la pub.

Citation :
Quant à Stuart, je ne crois pas qu'il ait réclamé une Fe de 384 kHz mais juste une bande passante audio Gaussienne (???) de 44 kHz.
Dans son article il ne fait référence qu'à une expérimentation [1] qu'il a lui-même produite et qui donne dans ses conclusions :
"To potentiate archives we recommend that modern digital recordings should employ a wideband coding system which places specific emphasis on time and frequency and sampling at no less than 384 kHz."

Carrément, Robert Stuart a bien son MQA à vendre mais enfin c'est long et ça a l'air sophistiqué alors je veux prendre le temps de lire l'ensemble.

L'histoire de la bande audio Gaussienne : J'ai peur d'avoir compris mais, formulé tel qu'il le fait, ça n'a pas de sens.
En fait ce que dit le principe d'incertitude (en simple) est :
- On prend un signal et on le normalise pour en faire une densité de probabilité s(t) ;
- Alors sa transformée de Fourier S(f) de s(t) est également une densité de probabilité (c'est direct avec l'égalité de Parseval);
- On considère alors les variables aléatoires T suivant s et F suivant S et on calcule leurs variances ;
- On montre ensuite que var(T).var(F) > 1/16pi² dans le cas où s et S sont des lois normales (Gaussienne).

(ramené en écart-types on prend les racines carrées).

Dans le cas d'une bande passante c'est idiot : Le système audio se rapproche d'une fonction porte en fréquence ; la discrimination temporelle devrait porter sur des densités de la forme d'un sinus cardinal.


Citation :
Merci Eratom d'apporter du bon sens dans cette discussion !
Ça demande de s'accrocher !

[ Dernière édition du message le 27/10/2016 à 02:01:37 ]

159
Citation de miles1981 :
Merci Eratom d'apporter du bon sens dans cette discussion !

fivestringer > non, "C'est d'ailleurs le lot de tous les papiers scientifiques" est tout à fait faux. Dans une publication sérieuse avec comité de lecture, il n'y a pas de contestation. Il y a une démonstration d'un effet, des maths, des stats claires et il n'y a pas contestation. Ca peut faire débat s'il y a remise en cause de théories établies, mais que quand il y a démonstration. eT quand on part sur des maths fausses (cf les épisodes de Big Bang Theory où Sheldon se plante une fois sur une erreur mathématique et une fois dans une table de conversion, ça arrive plus fréquemment qu'on ne le croit et c'est pour ça qu'il y a relecture sérieuse obligatoire !).


Contestation ou débat c'est la même chose. Quand on a un truc à débatre c'est qu'on est pas 100% d'accord. Mais c'est quoi ton role à toi dans cette histoire ?
160
@Eratom

1) Tu invalides la démarche d'un chercheur publiant (Kunchur). Il commet des erreurs. Surement: L'art est difficile la critique facile. Qu'as tu produit sur la question ?

Quelle crédibilité a tu pour dénigrer ce travail ?
tes arguments sont peut être recevables si on les examine ou peut être sont ils contestables par l'interessé lui même.
Donc si tu étais honnête tu publierais l'ensemble des erreurs qu'il a commises et ça ça ferait avancer la science, en le forçant à répondre. Mais là tu brasses de l'air de manière univoque.
La vrai question est : Quel article a démonté celui de Kunchur ?
Si aucun, pose toi la question : Pourquoi puisque c'est si facile selon toi ?

Bref: Pour qui te prends tu pour balayer d'un revers de manche des travaux publiés. Ou sont tes publications à toi sur le sujet ?

2) Stuart: Je suis quasiment certain qu'il n'a pas pensé au quart de ton verbiage scientifico statistique sur le principe d'incertitude:
En général on dit que moins on en sait plus on étale son savoir. tu dois faire exception à la règle, tu es un vrai spécialiste et tu étales pourtant ton savoir à tort et à travers.
Qui crois tu impressionner avec tes digressions hors sujet ?

en réalité, tu trouves juste que la formulation de Stuart n'a pas de sens. Et tu "as peur d'avoir mal compris".

Le mieux aurait été d'en rester là non ?