réactions au dossier [Bien débuter] Quel format d’enregistrement ?
- 249 réponses
- 55 participants
- 35 326 vues
- 63 followers

Nantho Valentine

Lire l'article
Ce thread a été créé automatiquement suite à la publication d'un article. N'hésitez pas à poster vos commentaires ici !

EraTom

Tu penses que les gens qui poussent le 96 kHZ sont des marchands de disques dur ??
Ce que je pense c'est qu'il y a clairement du marketing, voir du lobbying, pour nous faire croire qu'augmenter les fréquences d'échantillonnages et les résolutions a un impact significatif sur la qualité perçue et que nous aurions tout intérêt à upgrader et changer notre matériel régulièrement... C'est une variante de l'obsolescence programmée.
Le fait est que l'AES, qui prête pourtant largement l'oreille aux industriels du son, n'arrive pas aux mêmes conclusions.
Pour l'instant il n'y a pas de publication sérieuse (avec des expérimentations indépendantes répétant et confirmant les résultats) qui montre une différence de perception pour les enregistrements qui vont très au-delà de la bande 20Hz-20kHz.
Franchement, je serai le premier ravi de lire quelque chose de nouveau (et de confirmé) qui montre qu'il y a des nouvelles pistes à creuser pour l'amélioration de la reproduction sonore.
Mais pour l'instant je n'ai rien lu de tel sinon des choses totalement isolées et systématiquement contredites par les expérimentations indépendantes qui tentent de reproduire les résultats.
L'ordre de grandeur ? En nombre de personne concernées par nombre de personne écoutant de la musique tout court ? ou bien en nombre d'œuvre musicale concernées divisé par le nombre de daube audio passant à la radio ?
Le problème avec les ordres de grandeurs, c'est que rien que le choix de la grandeur représentative ou sensée l'être est subjectif..
Pour l'instant il n'y a pas de réponse étayée par des arguments solides et vérifiables.
Je parle bien de grandeurs mesurables et quantifiable et de méthode scientifique. Autre chose que des boniments ou des actes de foi.
Par exemple, des tests en aveugle sur un panel représentatif de la population avec des analyses statistiques sérieuses.
Le reste de ta réponse se base essentiellement sur les travaux de Fletcher et Munson qui disent tres justement que à 20 kHz il faut déjà des niveaux SPL considérables pour être audibles. Ca n'a rien à voir avec mon propos. Si le 96 kHz a un interet audible en dehors des traitements c'est surement pas pour entendre des sinus à 30 kHz mais pour entendre des transitoires de l'ordre de quelques µS sans qu'elles ne fussent altérées par un filtre coupe haut à 20 kHz imposé par une Fe à 44 ou 48kHz. Et pour l'oreille ce n'est probablement pas equivalent. L'equivalence temps-frequence du raisonnement n'est pas valable en toute situation. Elle ne l'est pas pour l'oreille, qui est visiblement très non linéaire de ce point de vue. Sa sensibilité temporelle est peut être "supérieure" à son spectre mesuré sur sinus (Fletcher et Munson). Les gens qui décrivent une amélioration audible en 96 kHz ne parlent jamais d'un spectre plus étendu. En quel termes définissent ils l'amélioration prétendue d'ailleurs ? ?
Par exemple : https://ccrma.stanford.edu/papers/perception-of-attack-transients-in-musical-tones
(Note que si ses travaux de 1933 font toujours références c'est qu'en 80 ans rien n'est venu les contredire... Mais qu'elles ont été complétées).
En 2003 je bossais sur les modèles sinusoïdes + transitoires + bruit pour la prochaine génération d'encoder audio (tous les encodeurs actuels utilisent des modèles sinusoïdes + bruit) et il y a un foisonnement d'études psychoacoustiques sur la perception des transitoires depuis début 2000 (avec la mode des ondelettes, etc.).
Le consensus actuel est que justement à cause des phénomènes non linéaires, notre oreille est assez médiocre.
C'est exploité dans le mp3 avec le masquage temporel et l'étude des modèles avec transitoire a pour but de mieux maîtriser la destruction d'information (pour compresser encore d'avantage)... Et il n'a pas été mis en avant de capacité encore insoupçonnée de notre oreille.
1) Du point de vue théorie du signal, une telle transitoire de quelques µS de temps caractéristique correspond à une fréquence ultrasonique. Clair.
Cette bande est d'autant plus large que le phénomène est limité temporellement.
Conclusion: L'expérience de Fletcher et Munson est insuffisante à définir complétement (j'insiste sur ce terme) le domaine d'audibilité, en particulier les aspects temporels.. Elle donne la réponse spectrale, sur la base d'un test simple (1930 je rappelle) mais toutes les déductions qui ont suivi ce résultat ont considéré le comportement de l'appareil auditif (au sens d'un quadripole pour les spécialistes) comme pseudo linéaire. Or c'est une hypothèse connue pour être approximative.
Le comportement non linéaire de l'appareil auditif est connu depuis longtemps (cf. les travaux de Georg Von Békésy, par exemple). Si l'on remonte le cours de l'histoire des travaux on trouve :
- La largeur de bande critique (notre incapacité à distinguer deux fréquences proches) ;
- Le phénomène de masquage fréquentiel ;
- Le phénomène de masquage temporel ;
- Les limites de discrimination des durées de transitoires.
d’après un ing aillant roulé sa bosse , on discutait de la qualité des vinyles , épaisseur du son , etc.... bref.. et il ma fait remarqué que l'homme entendait effectivement les fréquences entre 20/20Khz ( globalement) mais en fait l'oreille pouvait capter beaucoup plus ( la chauve souris entends bien plus avec le meme systeme) ..
mais que le cerveau humain faisait un filtre afin d’éviter d’être pollué par environnement .. .. mais le subconscient entendait bien ces fréquences..
voila .. j'ai pas vérifié , j en sais rien en fait .. mais voila .. si ca permets d'expliquer pourquoi passer au 96Khz
La membrane basilaire d'une cochlée humaine ne se met en vibrations mécaniques "que" sur la plage 20Hz-20kHz ; avec l'âge la mécanique se grippe : elle bouge moins bien dans les aigus.
Et plus le son est aigu moins la membrane bouge ; c'est ce que l'on appelle la tonotopie cochléaire.
https://fr.wikipedia.org/wiki/Tonotopie
Sinon, en plus d'une membrane basilaire différente, l'organe de Corti de la chauve-sourie n'a pas du tout la même répartition des cellules ciliées.
Bref, c'est pas comparable.
De mon point de vue, il ne faut pas voir la profondeur en bit comme définissant uniquement la dynamique utile mais plutôt comme définissant la "finesse" du rendu sonore. Plus on a de bits pour coder un son, plus on pourra coder de nuances.
Pardon, n'y voit aucune attaque personnelle, mais ta vision de la "finesse" est justement le genre de propos bullshit dans lequel s'engouffrent les services marketing des frabicants de DAC.
L'erreur due à la troncation est une distorsion qui se comporte exactement comme un bruit aléatoire sous certaines conditions (largement vérifiée en audio).
On a un signal réel qui varie au cours du temps : s(t)
A chaque instant t on fabrique un signal sq(t) en quantifiant s(t).
L'erreur de quantification vaut exactement la différence entre le signal réel et le signal quantifié :
err(t) = sq(t) - s(t)
Et c'est rigoureusement identique à :
sq(t) = s(t) + err(t)
En d'autres terme, le signal quantifié vaut exactement le signal réel sur lequel est ajouté un signal d'erreur err(t).
Dans les applications audios, lorsque le pas de quantification vaut q, err(t) se comportement comme un signal aléatoire dont l'amplitude prend des valeurs entre -q/2 et q/2 avec la même probabilité.
https://fr.wikipedia.org/wiki/Loi_uniforme_continue
La variance de ce processus aléatoire correspond à sa puissance et elle vaut q²/12.
C'est ici qu'il y a une hypothèse à vérifier : Il faut que le pas de quantification soit assez fin devant la dynamique du signal pour que l'on observe se comportement aléatoire uniforme sur [-q/2;q/2].
Pour un signal audio et pour un nombre de bits supérieurs à 12, on est tranquille de ce côté : l'hypothèse fonctionne (sinon, c'est que l'on fait exprès de biaiser les mesures).
Le SNRq est simplement une autre façon de l'écrire : On donne la puissance du signal d'erreur de quantification par rapport à une sinusoïde pleine échelle.
Pour n bits avec un signal de test pleine échelle sinusoïdal, le SNRq vaut exactement : 10*log10(3*2^(2n-1)) dBfs
Si tu veux en plus prendre en compte le headroom que tu peux te donner à la prise il te suffit de le retrancher à la valeur du SNRq.
Si tu veux, on peut regarder le problème des bruits et bits effectifs autrement en calculant le nombre de bits qu'il faut pour avoir un headroom confortable tout en ayant un impact négligeable sur la qualité de la pise.
Je me place dans le studio idéal :
- Le studio d'enregistrement les plus silencieux du monde présentent un bruit de fond de 20dB SPL (le vent qui souffle dehors + le bruit de l'autoroute à 20km + les voisins qui s'engueulent + le néon qui vibre + la chasse d'eau qui vient d'être tirée, etc.).
- En supposant que l'on enregistre un niveau "assez fort on a une puissance de 120 dB SPL.
==> Le signal enregistré aura au meilleur des cas un rapport signal à bruit de fond de SNRp = -100dB (je ne parle pas d'une dynamique mais du rapport de la puissance max du signal d'intérêt et du bruit de fond existant dans la pièce).
(C'est déjà très optimiste : En typique en studio professionnel, on baigne déjà dans un niveau de bruit environnant autour de 40 dB SPL).
Je prends ensuite le chiffre optimiste (pour ne pas dire irréaliste) de la partie analogique des constructeurs de CAN : SNRa = -106 dB dans la bande utile.
Enfin, le SNRq = -10*log10(3*2^(2n-1)) et le headroom de... 30dB ? Ça va, c'est super large.
SNR_16bits = -98.1 dB
SNR_24bits = -146.3 dB
SNR_28bits = -170.4 dB
Et on calcule le SNR total résultant :
10*log10( 10^(SNRp/10) + 10^(SNRa/10) + 10^((SNRq+30)/10) )
Pour le 16 bits :
10*log10( 10^(-100/10) + 10^(-106/10) + 10^((-98.1+30)/10) ) = -68.1 dB
Pour le 24 bits :
10*log10( 10^(-100/10) + 10^(-106/10) + 10^((-146.3+30)/10) ) = -98.9 dB
Pour le 28 bits :
10*log10( 10^(-100/10) + 10^(-106/10) + 10^((-170.4+30)/10) ) = -99.0 dB
Et là, on voit que dans ses conditions idéales (en négligeant les souffles des ampli, etc.) et conservant 30dB de headroom, passer de 24bits à 28bits permet de gagner 0.1dB de SNR à la prise.
Et sinon dans un truc plus proche de la vraie vie avec du matos de très bonne qualité :
- Bruit de fond de la pièce de captation : 40dB SPL ;
- SNR de la partie analogique : 99dB ;
- Headroom : 20dB.
Pour le 16 bits :
10*log10( 10^(-80/10) + 10^(-99/10) + 10^((-98.1+20)/10) ) = -75.9 dB
Pour le 24 bits :
10*log10( 10^(-80/10) + 10^(-99/10) + 10^((-146.3+20)/10) ) = -79.9 dB
Pour le 28 bits :
10*log10( 10^(-80/10) + 10^(-99/10) + 10^((-170.4+20)/10) ) = -79.9 dB
Pour se rassurer, avec un CAN 24bits qui ne présente en réalité sur 21bits effectif :
10*log10( 10^(-80/10) + 10^(-99/10) + 10^((-10*log10(3*2^(2*21-1))+20)/10) ) = -79.9 dB
Et sans la quantification ?
10*log10( 10^(-80/10) + 10^(-99/10) = -79.9 dB
En fait, dans cette config, on pourrait descendre jusqu'à 19bits pour avoir une dégradation du SNR de moins de 0.01dB tout en conservant un headroom de 20dB parce que ce qui dimensionne le bruit de fond total c'est le bruit de la pièce et de l'environnement d'enregistrement.
Le bits supplémentaires ne serviront qu'à enregistrer du bruit, et rien que du bruit, nuisible.
A noter que l'on n'a pas encore été regarder du côté de la diffusion... et que j'ai négligé beaucoup d'autres sources de bruits (les ampli de puissance, la pièce "de monsieur tout le monde", etc.) qui permettent de montrer que le 16bits est déjà du grand luxe (à la diffusion).
Citation de globule_655 :Non, là tu tombes à côté.C'est un peu comme augmenter le nombre de pixels par pouces pour l'image.
La quantification d'une image concerne le nombre de niveaux de luminance de chaque pixel.
Le nombre de pixel se rapproche de l'échantillonnage (il s'agit d'un échantillonnage 2D spatial ou angulaire si l'on raisonne en ouverte).
D'où l'importance du dithering lorsque l'on réduit le nombre de niveaux d'une image
https://fr.wikipedia.org/wiki/Tramage_(informatique)
Et l'importance d'appliquer une filtre d'antialiasing (un filtre passe-bas 2d) lorsque l'on reduit la taille d'une image (ce qui revient à sous-échantillonner) :
https://en.wikipedia.org/wiki/Aliasing
peuvent, suivant les contextes, être percu par l'oreille humaine, j'ai bon ?
Si tu fais référence à ces histoires "hypersoniques", elles ont commencées avec une publication datée de 2000
https://en.wikipedia.org/wiki/Hypersonic_effect
Il faut bien regarder les sources :
- Une seule équipe de recherche dit avoir noté une trace d'activité cérébrale quand des personnes sont soumises à de très hautes fréquences ;
- Aucune autre équipe dans le monde n'a obtenu de résultats similaires, ce qui conduit à réfuter l'étude précédente ;
- En 2005, la première équipe a "contre-attaqué" en annonçant une prochaine publication et expliquant qu'il s'agissait d'activités cérébrales inconscientes (mais mesurables) observées lorsque que le corps (et non l'oreille) est soumis à ces vibrations hypersoniques ;
- Nous sommes en 2016 et cette nouvelle publication n'est pas encore sortie.
C'est tout de même assez étrange : La publication d'une équipe scientifique qui ne donne pas de résultat vérifiable au bout de 10 ans est normalement mise à la poubelle et oubliée (pour de bonnes raisons).
Et pourtant, cette histoire d'hypersonie continue à ressortir régulièrement parce que reprise par des fabricants de DAC, par exemple.
La non linéarité de l'appareil auditif implique l'abandon pur et simple du principe de superposition à son égard.
Il se trouve que le premier effet des non-linéarités (de la membrane basilaire) est de réduire la capacité à distinguer deux sons de fréquences proches.
La limite de la capacité a séparer des fréquences s'appelle la largueur de bande critique, et cette bande critique augmente lorsque la fréquence moyenne augmente : à partir de 17kHz l'oreille humaine est incapable de distinguer des fréquences proche de 5kHz.
[ Dernière édition du message le 25/10/2016 à 18:39:15 ]

fivesstringer

Le fait est que l'AES, qui prête pourtant largement l'oreille aux industriels du son, n'arrive pas aux mêmes conclusions.
Je t'invite chaleureusement à méditer sur la phrase suivante extraite d'un petit article datée de 2015, en libre accès sur le site de...l'AES !!! Qui l'eut cru.
Par Mr Bob Stuart:
"By exploiting population coding, temporal resolution can approach 8 μs, and this precision reflects neural processing rather than being strictly proportional to our 18-kHz tonal bandwidth (...) a
distribution system that permits end-to-end resolution of 8 μs implies a Gaussian bandwidth of around 44 kHz
http://www.aes.org/tmpFiles/elib/20161025/18046.pdf
Franchement, je serai le premier ravi de lire quelque chose de nouveau (et de confirmé) qui montre qu'il y a des nouvelles pistes à creuser pour l'amélioration de la reproduction sonore.
C'est fait. Bon j'avoue que Bob Stuart n'a pas fait un article scientifique.
Ce que je retiens c'est les 8µS et leur conséquence prévisible. Est ce vraiment 8µS ? Si c'est faux, montre le donc.
Pour la confirmation, c'est un peu l'argument bateau.
J'avais déjà sorti les travaux de Mr Kunchur (datant de 2007) sur la résolution temporelle de l'audition
Je les ressors donc.
http://boson.physics.sc.edu/~kunchur/papers/Temporal-resolution-by-bandwidth-restriction--Kunchur.pdf
Disons donc que le lien ci dessus confirme le propos de Bob Stuart, concernant la résolution temporelle de l'audition et vice et versa, comme ça c'est bon pour la confirmation à deux articles indépendants ou bien il faut aussi l'avis du pape ?
Maintenant je sais que tu es suffisemment calé pour traduire en terme de spectre pour nos appareils audio ce que une résolution temporelle auditive de 8µS nécessite en terme de bande passante sur le matos pour garantir de ne pas altérer ces transitoires restant audibles, dont le temps caractéristique se situe vers les 8µS justement.

EraTom

Ce qui me gêne c'est qu'il n'y a pas de trace d'un comité de relecture (une publication libre, donc).
Concernant le papier de Kunchur... C'est une honte que le comité de relecture n'ait pas fait son boulot correctement (parce que visiblement, il y en aurait un).
1/2πfmax = 9μs
La limite est donnée par la relation :
σt * σf >= 1/4π
C'est con parce qu'il fonde presque tout son papier là-dessus.
Un autre problème de taille : Le transducteur final c'est n'importe quoi.
The earphones used were a pair of Grado RS1 (Grado Laboratories, Brooklyn, New York) supra-aural head-phones which have a frequency response of 12 Hz–30 kHz an input resistance of 32 Ω, and an efficiency of 98 dB/mW. Identical signals are fed to both left and right ears to provide a diotic presentation.
1 - Ça c'est la fiche technique donnée par Amazon ou Thomman. Les dispersions de fabrication d'un casque sont importantes. Il faudrait a minima un casque calibré et ça m'étonnerait fortement que l'on puisse obtenir les mêmes réponses côtés gauche et droit en envoyant des signaux identiques.
2 - Toute la digression sur la méthode de synthèse est juste balayée par la bande donnée à 30kHz du casque.
Mon avis, qui vaut ce qu'il vaut, est que cette dernière publication est bonne à être mise à la poubelle.
Enfin, si dans son papier Kunchur a été capable de mettre en avant une discrimination de 5µs avec un casque qui monte à 30kHz... Comment expliquer que pour une discrimination temporelle de 8µs Stuart ait besoin de monter à une Fe de 384 kHz !?
Personnellement, je préfère regarder ce genre de meta-analyse qui tente de faire le point et de dégager les tendance de ce qui a été publié sur le sujet :
https://qmro.qmul.ac.uk/xmlui/handle/123456789/13493
As previously mentioned, many proposed causes or factors in perception of high resolution audio could not be confirmed nor denied and warrant further investigation. Some of these questions are particularly intriguing, such as differences in perception over headphones versus loudspeakers, the effect of spatial audio rendering, the effect of quantization, the effect of duration (e.g., the trade-off between short-term auditory memory and the persistent effect of exposure to high frequency content), and the identification of critical stimuli where differences between high and standard resolution are most easily perceived.
There is a strong need for several listening tests. First, it is important that all test results be published. Notably, there is still a potential for reporting bias. That is, smaller studies that did not show an ability to discriminate high resolution content may not have been published. Second,
it would be interesting to perform a subjective evaluation incorporating all of the design choices that, while not yielding Type I errors, were taken in those studies with the strongest discrimination results, e.g., Theiss 1997 had test subjects blindfolded to eliminate any visual distraction. If these procedures are followed, one might find that the ability to discriminate high resolution content is even higher than any reported study. Finally, no research group has mirrored the test design of another team, so there is need for an experiment that would provide independent verification of some of the more high profile or interesting reported results.
comme ça c'est bon pour la confirmation à deux articles indépendants ou bien il faut aussi l'avis du pape
- Qu'il y a un manque de transparence sur les résultats de ceux qui annoncent identifier des différences de perception ;
- Que les protocoles de tests ne sont pas assez rationalisés et ne permettent pas de comparer / reproduire les résultats ;
- Que les labo qui ne trouvent pas de gain ne publient pas (ce qui biaise la méta analyse).
Je ne sais pas si le Pape pourra aider mais ce qui est sûr c'est que tes deux publications sont loin d'être suffisantes pour montrer quoi que ce soit.
En ce qui me concerne, j'y vois surtout de l'enfumage.
[ Dernière édition du message le 26/10/2016 à 09:56:47 ]

Anonyme



fivesstringer

Quelle motivation aurait Kunchur a pratiquer l'enfumage ? Si c'était un vendeur de convertos à la rigueur... MAis je ne crois pas qu'il soit commerçant, ni producteur de musique, seulement scientifique.
Mais bon j'admets volontiers que son papier soit contestable C'est d'ailleurs le lot de tous les papiers scientifiques. Et c'est comme ça que la science avance.
Cela dit si (et seulement si) on arrive par un moyen quelquonque (revu par comité de lecture si tu veux) à valider la véracité des 8µS de résolution temporelle pour l'humain, alors pratiquer des tests aveugle pour savoir si un echantillon N de population réussit à identifier une différence audible n'aurait aucun interet. Dès lors que la valeur de la résolution temporelle de l'oreille est validée, alors la conclusion sur la bande passante utile est mathématique.
Un test aveugle à ce stade servirait juste à confirmer que la majorité des quidam lambda testés n'est pas sensible à l'exploitation à 100% de leur capacités auditives, plutot qu'à 95%
Bref j'appelle ça une enquête ou un sondage, au mieux à visée technico commerciale, mais surement pas un acte scientifique prouvant quoi que ce soit sur l'audibilité du truc.
C'est pour ça que plutôt que de vulgairement faire essayer le truc en aveugle pour essayer de dégager un résultat, avec tous les aléas que la mise en place d'un tel test compte, je préfère la méthode qui consiste à établir la valeur de la résolution maximale de notre appareil auditif. En gros une approche ciblée vers la clé du problème plutot qu'une approche fourre tout "On écoute et on voit" beacoup moins rigoureuse et probante. Perso chez moi avec mon matos, jamais je ne pourrai conclure qu'il ya quelque chose de significatif au dessus de 18 kHz. Mais c'est chez moi, et si j'ai un peu trop bouffé à midi ça descend à 15 kHz.... C'est absolument sans aucune rigueur que je pourrais faire un test aveugle. Sans aucune rigueur si le but est de conclure sur la présence ou pas d'un truc audible dans le signal audio.
Evidemment les test de résolution temporelle comme ceux de Kunchur sont difficiles à mettre en oeuvre de manière fiable et la valeur réelle de la résolution temporelle de l'oreille n'est pas un paramètre connu pour être gravé dans le marbre. C'est la clé du problème je le répète et ce n'est que par là à mon point de vue qu'on tranchera.
Quant à Stuart, je ne crois pas qu'il ait réclamé une Fe de 384 kHz mais juste une bande passante audio Gaussienne (???) de 44 kHz.
Pour le reste de son article, je trouve aussi qu'il va trop loin. Perso je ne passerai jamais le cap au dela des 96 kHz de Fe, sans compter que d'une manière un peu similaire à ce qu'on a vu pour les bits, à partir d'un certain stade c'est l'analogique de la chaine audio qui devient le facteur limitant dans l'absolu et rien ne sert donc de monter indéfiniment la Fe. Sans parler de la musique. Nos instruments ne sont pas ultrasoniques.
Si son problème est d'éviter de cumuler les filtrages "de Niquist" en série pour préserver les transitoires extremes de la musique, la règle en pratique c'est plutôt d'éviter de multiples conversions AD et DA successives sur le trajet du signal que de monter la Fe sur des valeurs délirantes. Je crois.
C'est plutôt le fait qu'il evoque aussi 8µS de résolution temporelle, de manière indépendante de Kunchur, ça m'a interpelé je me suis dit qu'il n' y avait pas de fumée sans feu.
Bon ça fait long et je ne vais plus encombrer le post plus longtemps mais revenir à la question du format d'enregistrement:
Pour y répondre, la question crutiale à mon avis reste et demeure:
Quelle est la valeur réelle de la résolution temporelle de notre audition, dans les meilleures conditions qui soient ?
Quand on aura la réponse, on saura automatiquement ce qu'il nous faut comme matos et comme format d'enregistrement pour exploiter à 100% cette capacité là.
En attendant je conjecture que le 24/96 est au délà de ce qui est nécessaire et que le 24/48 légerement en deça.
Et je n'ai pas l'impression que le 24/96 soit un format délirant à pratiquer, pousse au crime et pousse à la consommation de manière éhontée. Donc je n'ai aucun scrupule à le recommander pour tout projet ambitieux.

Anonyme


Bonne soirée


miles1981

fivestringer > non, "C'est d'ailleurs le lot de tous les papiers scientifiques" est tout à fait faux. Dans une publication sérieuse avec comité de lecture, il n'y a pas de contestation. Il y a une démonstration d'un effet, des maths, des stats claires et il n'y a pas contestation. Ca peut faire débat s'il y a remise en cause de théories établies, mais que quand il y a démonstration. eT quand on part sur des maths fausses (cf les épisodes de Big Bang Theory où Sheldon se plante une fois sur une erreur mathématique et une fois dans une table de conversion, ça arrive plus fréquemment qu'on ne le croit et c'est pour ça qu'il y a relecture sérieuse obligatoire !).
Audio Toolkit: http://www.audio-tk.com/

EraTom

Mais bon j'admets volontiers que son papier soit contestable C'est d'ailleurs le lot de tous les papiers scientifiques. Et c'est comme ça que la science avance.
Le fait pour Kunchur d'utiliser un casque d'une bande de 30kHz sans calibration préalable invalide toute la démarche qui précède. Ça ne fait rien avancer du tout...
L'étude statistique n'est pas à visée commerciale : les résultats d'une expérimentation doivent être répétables.
C'est au contraire les résultats non vérifiables et/ou non répétables qui font une démarche commerciale. C'est de la pub.
Quant à Stuart, je ne crois pas qu'il ait réclamé une Fe de 384 kHz mais juste une bande passante audio Gaussienne (???) de 44 kHz.
"To potentiate archives we recommend that modern digital recordings should employ a wideband coding system which places specific emphasis on time and frequency and sampling at no less than 384 kHz."
Carrément, Robert Stuart a bien son MQA à vendre mais enfin c'est long et ça a l'air sophistiqué alors je veux prendre le temps de lire l'ensemble.
L'histoire de la bande audio Gaussienne : J'ai peur d'avoir compris mais, formulé tel qu'il le fait, ça n'a pas de sens.
En fait ce que dit le principe d'incertitude (en simple) est :
- On prend un signal et on le normalise pour en faire une densité de probabilité s(t) ;
- Alors sa transformée de Fourier S(f) de s(t) est également une densité de probabilité (c'est direct avec l'égalité de Parseval);
- On considère alors les variables aléatoires T suivant s et F suivant S et on calcule leurs variances ;
- On montre ensuite que var(T).var(F) > 1/16pi² dans le cas où s et S sont des lois normales (Gaussienne).
(ramené en écart-types on prend les racines carrées).
Dans le cas d'une bande passante c'est idiot : Le système audio se rapproche d'une fonction porte en fréquence ; la discrimination temporelle devrait porter sur des densités de la forme d'un sinus cardinal.
Merci Eratom d'apporter du bon sens dans cette discussion !
[ Dernière édition du message le 27/10/2016 à 02:01:37 ]

fivesstringer

Merci Eratom d'apporter du bon sens dans cette discussion !
fivestringer > non, "C'est d'ailleurs le lot de tous les papiers scientifiques" est tout à fait faux. Dans une publication sérieuse avec comité de lecture, il n'y a pas de contestation. Il y a une démonstration d'un effet, des maths, des stats claires et il n'y a pas contestation. Ca peut faire débat s'il y a remise en cause de théories établies, mais que quand il y a démonstration. eT quand on part sur des maths fausses (cf les épisodes de Big Bang Theory où Sheldon se plante une fois sur une erreur mathématique et une fois dans une table de conversion, ça arrive plus fréquemment qu'on ne le croit et c'est pour ça qu'il y a relecture sérieuse obligatoire !).
Contestation ou débat c'est la même chose. Quand on a un truc à débatre c'est qu'on est pas 100% d'accord. Mais c'est quoi ton role à toi dans cette histoire ?

fivesstringer

1) Tu invalides la démarche d'un chercheur publiant (Kunchur). Il commet des erreurs. Surement: L'art est difficile la critique facile. Qu'as tu produit sur la question ?
Quelle crédibilité a tu pour dénigrer ce travail ?
tes arguments sont peut être recevables si on les examine ou peut être sont ils contestables par l'interessé lui même.
Donc si tu étais honnête tu publierais l'ensemble des erreurs qu'il a commises et ça ça ferait avancer la science, en le forçant à répondre. Mais là tu brasses de l'air de manière univoque.
La vrai question est : Quel article a démonté celui de Kunchur ?
Si aucun, pose toi la question : Pourquoi puisque c'est si facile selon toi ?
Bref: Pour qui te prends tu pour balayer d'un revers de manche des travaux publiés. Ou sont tes publications à toi sur le sujet ?
2) Stuart: Je suis quasiment certain qu'il n'a pas pensé au quart de ton verbiage scientifico statistique sur le principe d'incertitude:
En général on dit que moins on en sait plus on étale son savoir. tu dois faire exception à la règle, tu es un vrai spécialiste et tu étales pourtant ton savoir à tort et à travers.
Qui crois tu impressionner avec tes digressions hors sujet ?
en réalité, tu trouves juste que la formulation de Stuart n'a pas de sens. Et tu "as peur d'avoir mal compris".
Le mieux aurait été d'en rester là non ?

globule_655

Citation de globule_655 :Je ne parle pas de dynamique mais de rapport signal à bruit.De mon point de vue, il ne faut pas voir la profondeur en bit comme définissant uniquement la dynamique utile mais plutôt comme définissant la "finesse" du rendu sonore. Plus on a de bits pour coder un son, plus on pourra coder de nuances.
Pardon, n'y voit aucune attaque personnelle, mais ta vision de la "finesse" est justement le genre de propos bullshit dans lequel s'engouffrent les services marketing des frabicants de DAC.
Pas de soucis, je n'y vois absolument rien de personnel quand on me dit que j'ai tort et qu'on m'explique clairement pourquoi comme c'est le cas ici

Je ne faisais qu'exprimer un ressenti basé sur mon expérience, avec tous les biais que cela implique.
Je précise tout de même que mes propos n'avaient pas pour but de défendre la "surquantification". 24 bits à l'enregistrement sont plus que suffisants sachant qu'au mieux j'en utilise 21 sans noter de diifference autre que la distorsion des étages analogiques. Je ne vois donc pas l'intérêt d'aller au dessus.
C'est un peux différent par contre sur le bus de mix par contre (?). Je me souviens de l'époque où je bossais sur les anciens systèmes protools MIX où dès qu'on passait le playback engine à 64 voices, la sommation se faisait en 24 bits fixes par opposition à 48bits fixes pour 32 voices. La différence de qualité était assez frappante. Cela dit la raison en était peut être autre...
Peace
Glob
L'abeille coule, l'abeille coule, l'abeille coule, l'abeille coule, l'abeille coule, l'abeille coule....

EraTom

Citation :Utiliser un transducteur non calibré est plus qu'une simple erreur, et c'est bien là le problème.Il commet des erreurs. Surement: L'art est difficile la critique facile.
Si tu trouves que j'ai la critique facile moi je te trouve particulièrement conciliant.
Citation :Ha ça y est ? On passe aux attaques personnelles ?Qu'as tu produit sur la question ?
Quelle crédibilité a tu pour dénigrer ce travail ?
S'il y a bien une chose que j'essaie d'éviter c'est l'argument d'autorité qui consiste à accorder de l'importance à un argument en fonction de son origine plutôt qu'à son contenu.
Je n'ai pas prévu de dresser mon CV ici parce que c'est un étalage que je trouve inutile dès lors que l'on proscrit l'argument d'autorité. Si ça peut te rassurer, ou si tu as besoin de le savoir, j'ai la qualification requise pour critiquer les travaux de Kunchur.
Citation :Tu devrais te poser la question de savoir pourquoi ces travaux font l'objet d'aussi peu de citations.La vrai question est : Quel article a démonté celui de Kunchur ?
Si aucun, pose toi la question : Pourquoi puisque c'est si facile selon toi ?
Je t'ai justement indiqué une méta analyse qui fait ce que tu demandes à une échelle plus grande qu'un article : consulte-là.
https://qmro.qmul.ac.uk/xmlui/bitstream/handle/123456789/13493/Reiss%20A%20Meta-Analysis%20of%20High%20Resolution%202016%20Published.pdf?sequence=1
Je note surtout ton "Si aucun" : N'as-tu pas fait la vérification toi-même ?
Citation :Je n'ai besoin de me prendre pour personne. Je peux également te retourner la question : Pour qui te prends-tu pour me reprocher d'émettre un avis critique ?Pour qui te prends tu pour balayer d'un revers de manche des travaux publiés. Ou sont tes publications à toi sur le sujet ?
Un revers de manche.... Tu te moques de moi.
Est-ce que je ne prends pas soin de consacrer un "minimum" de temps pour lire, comprendre, construire des réponses détaillées et factuelles ?
Je fais une séparation nette entre mon travail et ce forum. Je ne donnerai jamais ici de lien vers mes travaux ou quoique ce soit qui permette de m'identifier facilement. Oui je sais, mon anonymat est relatif mais je préfère que ce soit limité à quelques administrateurs/modos raisonnables.
Ça restera comme ça même si à tes yeux ça me décrédibilise.
Citation :Ah, pardon, j'essaie de répondre à tes 3 points d'interrogations mais c'est noté : Je n'essaie plus de vulgariser en 5 lignes et je te balance des liens.Je suis quasiment certain qu'il n'a pas pensé au quart de ton verbiage scientifico statistique sur le principe d'incertitude
https://moodle.utc.fr/pluginfile.php/50431/mod_resource/content/0/ChapIV_TF/MT12_ChapIV5.pdf
https://en.wikipedia.org/wiki/Uncertainty_principle#Signal_processing
C'est juste LE théorème qui fait le lien entre la largueur de bande spectrale et la résolution temporelle, l'objet des deux articles de Stuart et Kunchur.
Citation :Non mais ça ne va pas là ? Qu'est-ce que ça veut dire des phrases pareilles ?Qui crois tu impressionner avec tes digressions hors sujet ?
C'est en plein dans le sujet et au cœur des publications que tu as toi-même proposées. Kunchur y fait justement référence dès le début de son article (c'est le premier paragraphe) en se trompant d'un facteur 2.
C'est à croire que de nous deux il n'y a que moi qui ait pris le temps de les lire .
Citation :Ben je ne cache rien et je le dis moi-même : il y a des choses qui me semblent totalement à côté de la plaque mais je ne sais pas si c'est parce que je ne comprends pas sa formulation, ou si c'est parce qu'il écrit des choses fausses.en réalité, tu trouves juste que la formulation de Stuart n'a pas de sens. Et tu "as peur d'avoir mal compris".
Je crois que ça s'appelle l'honnêteté intellectuelle, ou un truc dans le genre...
Citation :Si c'est pour verser dans les attaques personnelles, oui tu peux t'arrêter là.Le mieux aurait été d'en rester là non ?

EraTom

Citation :Fiouu merci.Pas de soucis, je n'y vois absolument rien de personnel quand on me dit que j'ai tort et qu'on m'explique clairement pourquoi comme c'est le cas ici
Je me souviens de l'époque où je bossais sur les anciens systèmes protools MIX où dès qu'on passait le playback engine à 64 voices, la sommation se faisait en 24 bits fixes par opposition à 48bits fixes pour 32 voices. La différence de qualité était assez frappante. Cela dit la raison en était peut être autre...
L'addition en virgule fixe ne pose pas de réel problème (il faut juste stocker un bit de plus par paire opérandes pour éviter la saturation), mais dans un mix il y a les multiplications / divisions, qui elles sont problématiques parce qu'en fixe on perd tout de suite des bits effectifs de manière irréversible.
Le truc c'est que l'on ne peut pas toujours adresser 1 bit facilement : On utilise 2 mots de 24bits pour stocker "ce qui dépasse" même si c'est pour 1bit de plus. Ça bouffe de la mémoire...
Ils ont dû être obligés de jongler entre la mémoire dispo, des normalisations intermédiaires pour faire le compromis entre saturation et nombre de bits effectifs, etc.
D'où l'intérêt de la virgule flottante... En fait à part le coût des DSP il n'y a pas grand chose qui justifie le choix des 24bits fixe de l'époque (comme tu as pu le constater) même si la pub nous expliquait combien c'était mieux que tous les autres en 32bits float.
[ Dernière édition du message le 27/10/2016 à 11:23:47 ]

miles1981

Contestation ou débat c'est la même chose. Quand on a un truc à débatre c'est qu'on est pas 100% d'accord. Mais c'est quoi ton role à toi dans cette histoire ?
Non, ce n'est pas du tout la meme chose. Ouvre un dictionnaire !
Audio Toolkit: http://www.audio-tk.com/

kosmix



Putain Walter mais qu'est-ce que le Vietnam vient foutre là-dedans ?

fivesstringer

N'y vois là aucune attaque pero et n'essaie pas de te victimiser.
pour revenir au sujet je dis que tes développements sur Stuart sont HS et n'impressionnent personne ça ne veut pas dire qu'ils sont faux mais que ICI c'est totalement HS.
Personne (ou presque) qui fréquente les forums AF ne saura voir ni lire si ce que tu écris est vrai ou faux. Donc tu brasses bien de l'air. Enfin plus exactement, on pourrait formuler ça par:
" à qui t'adresses tu donc ? ". Tu penses vraiment que Stuart passera par là et se dira:
" Oh merde il faudrait que je reprenne mon article pour le clarifier et passer un coup de fil à EraTom pour le remercier, quel homme charmant !!!!"
Conclusion:
On n'a pas besoin de tout ça (le principe d'incertitude et tes développements) pour établir (avec n'importe quel lecteur d'AF) un lien simplement entre résolution temporelle de l'oreille et bande passante requise pour un appareil audio afin qu'il puisse offrir la même résolution temporelle au moins..
Il suffit juste de se souvenir que la fréquence est l'inverse d'une période, donc d'une durée. Durée = temps = inverse de fréquence. Ca permet au moins de donner un ordre de grandeur...
Et c'est ce que Stuart signifiait quand il disait juste qu'une résolution temporelle de 8µS implique une bande passante de 44 kHz . Gaussienne ou non , incertaine ou non, on s'en tamponne ICI !!!
Nul besoin de développer par la théorie complète, imbitable pour le lecteur AF lambda. Même si elle s'applique clairement à ce cas. Le lecteur lambda (musicien, Afien) sait que une durée c'est l'inverse d'une fréquence. Alors basta.
Même si tes palabres sont justes techniquement elles n'apportent rien donc.
Quand tu dis par exemple que parceque Kunchur n'a pas étalonné son casque son étude est fausse, ça me fait rigoler:
Si on arrive à mettre en évidence une résolution temporelle de l'audition avec un casque mal étalonné, alors tu penses que avec un casque parfaitement étalloné ça sera pas le cas ?
On parle pas d'une relation niveau audible /fréquence ici . En quoi l'etallonage d'un casque peut changer le fait pour l'oreille de savoir ou pas discriminer des durées ? Je veux dire, que à la limite ça joue sur l'invertitude du résultat mais ça n'invalide pas totalement le travail et les résultats eux mêmes.
Pour finir, tu émets à ce propos de la méthode employée par Kunchur bcp de critiques, argumentées dans un endroit ou personne ne contestera tes arguments.
Bref: Si tu publies un article démontant celui de Kunchur et que tu t'exposes ainsi à la critique toi même, alors je respecterais les critiques que tu formules sur ces scientifiques.
Pour l'instant ce n'est que des spéculations sur un articles publié. Ou bien sinon montre moi un article qui démonte Kunchur. Et c'est pour ça que je ne te reconnais aucun droit (sur la base de ce que tu as produit à ce jour dans deux posts) pour te poser en contestataire (ou détracteur) probant de Kunchur.
Ce n'est pas contrairement à cde que tu prétends un argument d'autorité mais l'inverse:
Kunchur n'est pas necessairement dans le vrai parcequ'il a publié, mais toi en comparaison tu n'est rien du tout (parceque tu n'as rien publié sur le truc). Si tu veux exister en tant que détracteur crédible, tu dois contre-publier. C'est comme ça que marche la science. Sinon c'est toi qui use de l'argument d'autorité:
"Salut, Je suis Eratom , spécialiste du traitement de signal, et j'ai le plaisir de démonter ici même en deux post et trois phrases plus un peu d'exposé théorique des mois de travail scientifique".
un peu gros et autoritaire comme procédé...
Quand tu dis "LE comité de lecture n'a pas fait son boulot" mais je rève. Et toi tu l'as fait le tiens ???
Il est de tradition dans le milieu scientifique quand quand un mec se plante, il est démonté par un contre article.
C'est par exemple le cas de Vincent Courtillot (le géologue qui réfute la cause anthropique du réchauffement climatique) qui s'est fait ridiculiser par tout un tas d'articles de spécialistes du climat. LE tout revu par comité et de lecture. S'en est suivi une "guerre" scientifique par article et contre articles interposés.
Alors moi je pose la question: Elle est où la réfutation des anti Kunchur ?
J'en conclus donc que la science concernant la connaissance de l'organe auditif avance, lentement, pas à pas, normalement, même quand ça t'oblige à revoir certains des diktats que tu défends d'habitude.
Comme par exemple: Une bande passante audio strictement bornée à 20Hz - 20 kHz pour nos appareils audio est absolument suffisante pour notre capacité auditive, pour toutes nos capacités auditives, temporelle incluse..
Personnellement si je crois qu'une publication est fausse ou erronée, au pire je sortirais une autre publication qui dit l'inverse, et regarderai surtout la hiérarchie historique des travaux et leur références.
Peut être que nul ne détient encore la vérité sur ces questions, mais je ne vois pas comment ici prétendre que tel ou tel article mérite la poubelle en deux posts comme tu l'as fait, sans user justement de l'argument d'autorité que probablement ta position de spécialiste technique reconnu sur AF te confère.
Chacun pourra se faire une opinion de l'état de la science concernant notre audition, et de l'état du débat dès qu'on en parle, ce que je déplore.
Pour ma part j'en resterai là, et de toute façon 24/96 ou 24/88 c'est déjà le STD dans tous les studios pro de projets ambitieux alors pourquoi donc on initie ce sujet de post sur AF ??? Je me demande !!! Ou l'art d'enfoncer les portes ouvertes.
[ Dernière édition du message le 28/10/2016 à 19:24:18 ]

alex.d.

Ce n'est pas contrairement à cde que tu prétends un argument d'autorité mais l'inverse:
Kunchur n'est pas necessairement dans le vrai parcequ'il a publié, mais toi en comparaison tu n'est rien du tout (parceque tu n'as rien publié sur le truc). Si tu veux exister en tant que détracteur crédible, tu dois contre-publier. C'est comme ça que marche la science.
Je ne suis pas EraTom, et je ne répondrai pas sur le fond.
Mais sur la forme, tu te fourvoies complètement. J'ai publié pas mal d'article (pas en audio, certes), donc j'espère que tu m'autoriseras à intervenir et que je rentre dans tes critères pour être légitime.
Dans les labos, ça ne marche pas comme tu le prétends. Un franc-tireur qui sort une théorie à la noix et qui arrive à la publier parce que la review a été faîte à l'arrache par quelqu'un à qui on l'a demandée pour hier, ou par un grand un ponte qui l'a confiée à un thésard en première année qui manquait de recul, ça arrive tout le temps. Et il ne faut pas croire que les gens vont se précipiter pour le contre-dire (le citer, ça ferait monter son h-index, en plus !). Il va juste être ignoré. On a autre chose à faire que d'aller essayer de reproduire les expériences qui nous semblent foireuses. Le jour où tu vas aller demander des sous à l'ANR pour un projet où il s'agit de tenter de reproduire un truc qui te semble suspect, je veux bien être là pour voir ça. Sérieusement, il y a assez à faire pour faire avancer la science, ça n'est pas utile de contredire un truc isolé ; ça n'est pas valorisable ni valorisant.
On ne prend le temps de publier un article pour contredire quelque chose que si c'est une théorie établie, dominante, ou reprise dans les médias. Si tu remets en cause la théorie d'Einstein, là oui, tu fais un papier. Mais sinon...
En revanche, si ce Kunchur avait raison, vu qu'il semble remettre en question pas mal de choses, le plus probable c'est que plusieurs gros labos dans le monde mettraient une équipe sur le sujet et essaieraient de le doubler, et dans l'année qui suit tu aurais déjà 25 publis de partout dans le monde sur le sujet pour s'attribuer la gloire de la découverte.
Donc ton argument : "personne ne l'a contredit, donc c'est vrai", c'est du flan total.

EraTom

Donc ton argument : "personne ne l'a contredit, donc c'est vrai", c'est du flan total.
Il y a surtout un point ESSENTIEL de la méthode scientifique : la charge de la preuve est à celui qui annonce un fait nouveau.
En d'autres termes, ce n'est pas à moi "de faire le boulot".
pour revenir au sujet je dis que tes développements sur Stuart sont HS et n'impressionnent personne ça ne veut pas dire qu'ils sont faux mais que ICI c'est totalement HS.
Personne (ou presque) qui fréquente les forums AF ne saura voir ni lire si ce que tu écris est vrai ou faux. Donc tu brasses bien de l'air.
Me reprocher d'être trop dans le détail avec trop de technicité...
C'est assez paradoxal alors que c'est TOI qui a fait référence à ces deux articles.
Bon allez ça suffit.
Tu as essayé de me rabattre le caquet avec ces articles et ça n'a pas marché parce que j'ai le bagage (comme d'autres ici, ce qui semble t'échapper) et que ces articles sont pour une grosse partie un tas de conneries.
Tu dois te dire que je suis un sale con et tu n'as pas entièrement tort.
Reste avec tes 96 kHz si ce te fait plaisir, moi je resterai avec mes 48kHz parce que tu ne m'as rien montré de convaincant et que je n'ai pas su t'expliquer pourquoi (enfin, je crois que si mais que ça ne te ferait trop mal de l'admettre).
Ça ne nous empêchera pas de dormir, pas vrai ?
On va pouvoir passer à autre chose.

Anonyme

Bonjour,
J'ai suivi cette "discussion" depuis le début et je me permet d'appuyer totalement EraTom dans sa démarche que je partage systématiquement pour toutes ses interventions sur AF. Je suis moi-même ingénieur de formation et j'apprécie son approche scientifique rigoureuse sans bla-bla idiophile qui noie le poisson.
[ Dernière édition du message le 29/10/2016 à 08:02:24 ]

Schizoide



fivesstringer

Donc ton argument : "personne ne l'a contredit, donc c'est vrai", c'est du flan total.
Ce que tu dis dans ton long post a du sens. C'est le verre à moitié vide contre mon verre à moitié plein.
Bon tu caricatures cependant Kunchur avec un parti pris evident. Pourquoi utiliser le terme "franc tireur" par exemple ?
Tu connais le mec ou bien c'est juste une attaque ad hominem en guise d'argumentation ?
C'est foireux, même si tu développes pas sur le fond comme tu dis.
PEut être que personne n'a vraiment interet à savoir si l'oreille est limitée par sa bande passante ou par sa résolution temporelle sachant que le gros du commerce de musique aujourd'hui est sous des formats qui n'exploiteront jamais cette subtilité là. Ca t'a pas éffleuré ? Qui paie les recherches de l'inutile, commercialement parlant pour la grande masse des consommateurs de mp3 ?
MAis bon dans l'ensemble c'est vrai qu'en science on ne s'amuse pas à reprendre systématiquement les travaux d'autrui pour les confirmer ou les défaire surtout si ils ne sont pas d'importance, comme celui de Kunchur. Finalement ce qu'il soulève est un point de détail dans la connaissance de l'audition.
Mais par contre ta dernière phrase ci dessus montre que tu n'as rien compris à mon propos:
Je n'ai jamais dit que celui qui avait publié avait raison, je n'ai JAMAIS prétendu que Kunchur avait raison.
J'ai juste dit que faute de publication contraire, c'était pas faux.
Et C'est pas tout à fait pareil. Avoir raison ça veut dire que tous les autres (qui disent differemment) ont tort.
Tandis que "C'est pas faux" ça veut dire que sauf preuve du contraire, C'est possible que la vérité s'y trouve.
C'est une nuance très importante que tu n'as pas mais alors absolument pas saisie dans mon propos car tu es comme beaucoup ici largement binaire dans ta façon de penser.
EDIT: Le corrolaire de ça c'est : LA recherche de Kunchur (plusieurs articles en fait sur ce sujet entre 2007 et 2008) est peut être imparfaite ainsi que ses résultats sur la résolution temporelle auditive mais ils ont le mérite d'exister sans être démentis officiellement.
Est ce parce que c'est pas faux ou par flemme des détracteurs ou parceque ils s'en foutent de montrer que Kunchur a tort vu que ses articles ne sont pas considérés comme une preuve absolue ?
Nul ne le sait mais pourtant vous avez choisi arbitrairement un camp. Pourquoi celui là plus qu'un autre, ou la neutralité ? Là est la vraie question
PAr contre les recherches également focalisées sur ce point et qui donnent une autre valeur à la résolution temporelle n'existent pas. On s'est juste basé sur la bande passante de Fletcher et Munson et on a déduit (à tort) la valeur "probable" de sa résolution temporelle.
EDIT fin.
[ Dernière édition du message le 01/11/2016 à 14:26:41 ]

fivesstringer

la charge de la preuve est à celui qui annonce un fait nouveau.
En d'autres termes, ce n'est pas à moi "de faire le boulot".
C'est vrai.
MAis alors tu aurais du nous expliquer qu'est ce qui peut constituer une preuve pour toi à part tes paroles ?
Tu dis bien que le fardeau de la preuve est du coté du publiant de faits nouveau.
DONC revenons à nos moutons. Tu as démoli Kunchur ,admettons (ça fera plaisir à tes amis) MAIS tu te gardes bien de répondre à LA QUESTION CRUTIALE que JE pose dans ce sujet de posts et dont découle les besoins de format d'enregistrrement:
Quelle est donc (selon toi) la valeur réelle de la résolution temporelle de l'audition ? (puisque tu n'es pas d'accord avec celle que j'ai exposé, ni avec les éléments de preuve apportés)
Et tu devras en apporter une preuve scientifique, car l'"ancienneté (versus la nouveauté d'un fait) n'est pas un gage. C'est juste un argument d'autorité de plus résumable ainsi:
Ancien = existant = vrai sans nécessitre preuve. C'est de la foutaise.
EDIT: Tu noteras que la question n'est pas : "Est ce que 20 Hz - 20 kHz de BP audio pour nos equipements est suffisant", mais bien "quelle est la résolution temporelle de l'audition"
Toute réponse ne concernant pas directement cette résolution temporelle et donnant SA VALEUR EXACTE est sans interet.
Aide: "Je ne sais pas" est une réponse admissible.
Tu dois te dire que je suis un sale con et tu n'as pas entièrement tort.
C'est toi qui le dis, C'est pas faux, même si je n'ai aucun élément de preuve. Tu as les cartes en main je m'en remets humblement à toi avec ma question sur la VRAIE valeur de la résolution temporelle, celle qui a justifié que tu démontes mes dires, Kunchur, Stuart, et les autres.
[ Dernière édition du message le 01/11/2016 à 16:04:04 ]

TC Hotrod



[ Dernière édition du message le 01/11/2016 à 17:26:08 ]

laurend

MaximalSound.com
Le mastering algorithmique en ligne depuis 2010
Démo SoundCloud
Sound On Sound Shootout
Crédits YouTube

alex.d.

Ce que tu dis dans ton long post a du sens. C'est le verre à moitié vide contre mon verre à moitié plein.
Bon tu caricatures cependant Kunchur avec un parti pris evident. Pourquoi utiliser le terme "franc tireur" par exemple ?
Tu connais le mec ou bien c'est juste une attaque ad hominem en guise d'argumentation ?
Bon, il faut bien que je vienne te contredire, puisque si personne ne vient te contredire, tu vas croire que peut-être il est possible que tu aies raison (ça va, j'ai mis assez de conditionnels ?)
Je ne parlais pas de ce Kunchur que je ne connais pas, mais de cas généraux de publis qui viennent soit-disant révolutionner toute la science par un gars seul contre tous, ce qu'on a coutume d'appeler un franc-tireur.
Tu peux imaginer toutes les théories du complot comme quoi tout le monde vent enterrer ses travaux parce qu'il est gênant pour l'humanité. Bah oui, tu penses bien, toute l'industrie du disque qui se cramponne au 44.1kHz et ne cherche surtout pas à revendre toute la collection en audio HD, sans compter que les fabricants de platines CD seraient bien emmerdés si tout le monde devaient en racheter alors qu'ils en ont marre d'en fabriquer et de gagner du pognon. Et je ne parle même pas des fabricants de matos audio qui imposent le 16/44.1 et freinent des quatre fers pour ne pas vendre du matos 24/96, eux aussi ils ont intérêt à enterrer ces travaux. Bon, et les autres chercheurs, ils ne voudraient surtout pas s'engouffrer dans la brèche et essayer de partager quelques miettes de Nobel avec un précurseur qui a démontré que Fletcher & Munson avaient tort. C'est bien pratique la théorie du complot, en effet, et tellement logique

Ou alors, il s'est juste planté, et tout le monde l'ignore, comme ce que je vais finir par faire avec toi parce que tu me gaves déjà.
- < Liste des sujets
- Charte