Différence de son entre les DAW : un mythe ?
- 296 réponses
- 34 participants
- 40 371 vues
- 48 followers

cosmicsee

Suite à la remarque d'un membre qui disait qu'on peut avoir le gros son avec seulement des plugs, nous parlions de l'intervention de la qualité des convertos, des plugs et des DAW utilisés.
Nous étions en train de dire qu les DAW et les plugs n'interviennent pas dans ce qui sort du monitoring et que la différence de son entre les bounces et les L-R des softs est un mythe. Voici ma réponse aux derniers posts :
Citation : ben sans être méchant, si ils t'on répondus ca, c'est qu'ils n'y connaissent pas grand chose, d'une parsque les calculs sont faits en 32 bit flottant dans TOUS LES CAS (sauf certains plugs particuliers), et de deux parsqu'il n'y a pas de notion de qualité de calcul à partir du moment ou on applique le même algorythme, on est en numérique, c'est du 1 et du 0, soit ca marche et ca fait tout le temps pareil partout, soit ca marche pas.
Ca me parait logique, mais tous les mecs qui m'ont dit entendre des différences entre les DAW sont des ingés, et pas des mecs qui ont appris sur le tas... comme quoi, ce ne sont pas des clichés de débutants.
Citation : ben oubli ton test alors, il ne vaut rien.
Citation : Tu as répondu toi même au mystère
Je suis d'accord que pour que la mesure soit bonne, on reproduit EXACTEMENT la même situation dans les deux cas; mais ce que je ne comprends pas, c'est qu'on n'obitenne pas le même résultat, quelque soit l'audio sur lequel l'effet est appliqué !
Ca voudrait dire qu'avec un simple coupe haut, on n'a pas le même son sur une guitare que sur une voix par exemple ?
Après ça vient peut être du fait que la source stéréo était un mix entier et que les sources mono étaient des prises de son brutes et individuelles...

Anonyme

Citation de laurend :
Tu affirmes ici quelque chose de simplement énorme, puis comme tu "fais en sorte qu'ils (les OS) n'interviennent pas dans le processus" (comment?), tu ne testes rien. Je ne comprends pas ta logique. En tout cas cette démarche n'est pas très scientifique même si je comprends la difficulté de mener un test A/B/X rigoureux pour valider une telle hypothèse.
Soit gentil de ne pas déformer le sens de mes propos, et relit ce que j'ai écrit auparavant. Je n'ai pas fait de tests des son que produisent les OS lorsqu'on les laisse s'occuper du son simplement parce que cela ne m'est pas utilse dans la mesure ou je fais en sorte que la carte gère le flux via un pilote dédié type ASIO pour éviter toute possibilité de conversion de fréquence à la volée. C'est tout.
Citation de strobo :
C'est une discussion digne des pires délires ésotériques des audiophiles....
Je suis tout à fait d'accord avec tout ce que tu dis,mais là c'est parfaitement HS avec le problème de lecture avec des lecteurs de média. Les DAW n'utilisent jamais les fonctions audio des OS comme le font les lecteurs média.
JM

strobo

Citation :
Je suis tout à fait d'accord avec tout ce que tu dis,mais là c'est parfaitement HS avec le problème de lecture avec des lecteurs de média. Les DAW n'utilisent jamais les fonctions audio des OS comme le font les lecteurs média.
Je comprends ce que tu expliques, mais je ne suis pas hors-sujet pour autant.
Il va falloir sortir la grosse artillerie de tests physiques indiscutables (et pas subjectifs) pour prouver des différences de sons... Et je doute que cela existe, et que même si c'est le cas, ces tests risquent de ne pas produire quelque chose de bien probant. Et les différences, si elles existaient, ne seraient perceptibles qu'avec des outils de mesures et d'écoute plutôt pointus...
Parlons de choses tangibles comme la différence de qualité à la sortie de cartes sons... Là, ça aura du sens... Pour le reste, c'est relativement délirant.
Ma musique : http://greentelly.bandcamp.com
[ Dernière édition du message le 25/01/2011 à 14:26:28 ]

Silicon Machine Extended

Citation :
Il va falloir sortir la grosse artillerie de tests physiques indiscutables (et pas subjectifs) pour prouver des différences de sons... Et je doute que cela existe, et que même si c'est le cas, ces tests risquent de ne pas produire quelque chose de bien probant.
y'a rien a tester, les differences existent sur le papier. un driver directX (os donc) qui reçoit du 44100hz du soft et qui transmets en 48000hz vers la carte son fait une conversion.

Azimut2

Entre les 0 et les 1 du numérique et le son que l'on entend il y a quand même un certain nombre de composants ne serait-ce que le haut-parleur ou le casque et il faut bien convertir à un moment ou à un autre le numérique en analogique car je ne connaîs pas de haut-parleurs qui fonctionnent avec des 0 et des 1.
Le plus dur, c'est quand c'est mou
[ Dernière édition du message le 25/01/2011 à 16:27:40 ]

strobo

Citation :
y'a rien a tester, les differences existent sur le papier
Je ne crois pas avoir dit le contraire. Mais en réalité, de façon audible, on s'en fiche.
KMixer (driver kernel de Windows utilisé par DirectX (DirectSound), et les autres streams audio comme l'API waveOut) utilise par défaut une interpolation multipoint supérieur, grâce à un suréchantillonage plutôt balaise, avec un ratio S/N de +90dB... C'est ce qu'on fait de mieux pour du temps réel. (sous XP, c'est la technique utilisée par défaut)
Donc, "la conversion de Windows à la va-comme-je-te-pousse" mentionnée plus haut est un fantasme, car cette conversion est optimale et de qualité, autant dire absolument imperceptible (contrairement à un aliasing créé par l'absence d'interpolation).. Et c'est sensiblement la même technique utilisée par ASIO.
A partir du moment où un player média utilise waveOut, ou DirectX (Dsound.dll), cette technique de conversion est utilisée, même si le player permet le réglage d'interpolation, puisqu'il n'agit alors qu'en dégradation vu qu'il part de la meilleure qualité...
Donc les gars, je ne vois vraiment pas comment on peut percevoir une différence entre ASIO et les API Windows...
Ma musique : http://greentelly.bandcamp.com
[ Dernière édition du message le 26/01/2011 à 10:19:13 ]

Rickton

Citation de : strobo
Donc, "la conversion de Windows à la va-comme-je-te-pousse" mentionnée plus haut est un fantasme, car cette conversion est optimale et de qualité, autant dire absolument imperceptible (contrairement à un aliasing créé par l'absence d'interpolation).. Et c'est sensiblement la même technique utilisée par ASIO.A partir du moment où un player média utilise waveOut, ou DirectX (Dsound.dll), cette technique de conversion est utilisée, même si le player permet le réglage d'interpolation, puisqu'il n'agit alors qu'en dégradation vu qu'il part de la meilleure qualité...
Donc les gars, je ne vois vraiment pas comment on peut percevoir une différence entre ASIO et les API Windows...
Le problème n'est pas d'entendre ou pas, dans ce cas là. A partir du moment où une étape est inutile (évitable en procédant correctement aux réglages) autant l'éviter, qui plus est si elle est théoriquement destructive...
Si dans une chaîne audio je trouve un convertisseur N/A immédiatement suivi d'un A/N à la même fréquence d'échantillonnage, même si ce sont des convertisseurs ultra haut de gamme, même si je n'entends aucune différence, je trouve ça idiot.

Dr Pouet

KMixer (driver kernel de Windows utilisé par DirectX (DirectSound), et les autres streams audio comme l'API waveOut) utilise par défaut une interpolation multipoint supérieur, grâce à un suréchantillonage plutôt balaise, avec un ratio S/R de +90dB... C'est ce qu'on fait de mieux pour du temps réel. (sous XP, c'est la technique utilisée par défaut)
Et c'est sensiblement la même technique utilisée par ASIO.
A partir du moment où un player média utilise waveOut, ou DirectX (Dsound.dll), cette technique de conversion est utilisée, même si le player permet le réglage d'interpolation, puisqu'il n'agit alors qu'en dégradation vu qu'il part de la meilleure qualité...
Ça c'est quand même une information intéressante. Tu aurais dû commencer par là d'ailleurs !

Donc certes c'est mieux d'éviter des conversions inutiles si on le peut, de plus la situation n'a peut-être pas toujours été aussi satisfaisante, mais si tout se passe comme tu le dis, c'est une bonne nouvelle !
Reste bien sûr aussi les éventuels effets du windows media player qu'il faut désactiver...
[ Dernière édition du message le 26/01/2011 à 11:03:10 ]

Anonyme

Ce n'est pas la même technique que l'ASIO puisque l'ASIO n'introduit pas de conversion.
JM

strobo

Citation de Jan :
Ce n'est pas la même technique que l'ASIO puisque l'ASIO n'introduit pas de conversion.
Tout à fait exact, évident même. Manque d'attention et de relecture, car je pense que je voulais dire que c'est cette technique qui est utilisée par et depuis Windows2000 (avec une moindre qualité initiale pour des raisons de performance qu'on peut modifier ensuite, d'où le "sensiblement")
Reste que, quoi qu'on en dise, le but d'ASIO n'a tojours été que de fournir un environnement multicanal avec une latence très réduite et un haut débit de données, en attaquant le hardware directement, certes.
Mais à aucun moment, la notion même de qualité sonore inférieure liée au "mixer" et à son interpolation des systèmes d'exploitation n'est évoquée, dans le ASIO SDK par exemple.
En faisant une petite recherche plus approfondie (vraiment pour se faire plaisir...), on tombe sur ça:
https://msdn.microsoft.com/en-us/library/ff537756.aspx
Et on peut en déduire que KMixer n'applique aucune interpolation ni mixage si les sources sont de même fréquence, que si on ne lit qu'une source (ex: Media Player) à la fois (pour éviter le mixage de plusieurs sources et l'interpolation qui va avec un mixage 'logiciel'), et que les I/O soient à la même fréquence...
Je pense qu'avoir le volume du mixeur à son maximum évite certainement aussi un mixage logiciel. Volume à son maximum = volume non altéré, donc pas d'opération à effectuer sur le signal. (ex: la normalisation, et donc le changement d'amplitude du signal de façon numérique altère sa qualité)
Reste que c'est vraiment pour la forme, parce que l'interpolation utilisée est de telle qualité qu'il est certainement impossible de cerner la moindre différence...
Ma musique : http://greentelly.bandcamp.com
[ Dernière édition du message le 26/01/2011 à 15:03:34 ]

Safeandsoundmastering


SafeandSound Mastering
Mastering
[ Ce message faisait initialement partie de la discussion "Mastering internet à 10$ : Y'en a qui osent tout!" qui a été fusionnée dans ce sujet le 07/07/11 ]

laurend


Doubler la fréquence permet de gagner en bande passante et donc en qualité par l'augmentation du nombre d'informations transmises. Quand on a 2 valeurs @44.1 KHz pour décrire un signal de 20 KHz, @88.2 KHz, c'est de 4 valeurs dont on dispose pour décrire ce même signal.
Le theorème de shanon indique que si Fe > 2*la bande passante, le signal sera parfaitement reconstruit.
Autrement dit (en temporel), tant qu'on a plus de deux échantillons par période du signal, celui-ci sera parfaitement reconstruit.
Pour un sigbnal à 20 kHz, et une Fe de 44,1 kHz, on a exactement 2,205 échantillons.
Lors de la reconstruction il n'y qu'une seule est unique sinusoïde qui pourra passer par ces 2,205 échantillons/période : celle à 20 kHz. Aucune erreur ou manque d'information n'est possible.
C'est l'erreur classique de croire : plus d'échantillon donc plus d'information : Totalement erroné.
Il faut résonner dans le domaine fréquentiel : avec Fe > 2*BP, le spectre de la bande passante sera dupliqué tout les multiples de Fe, sans recouvrement, le signal pourra donc parfaitement être reconstruit, aucune information n'est perdue.
Ce n'est pas plus on a d'échantillon plus on a d'information transmise ..... c'est : Est-ce qu'on a plus de 2 échantillons/période ? (Nyquist)
Il n'y a aucun intérêt à avoir 4 valeurs pour reconstruire un signal à 20 kHz, sauf de remplir son disque dur.
Citation :
Ainsi @44Hz il n'y aura quasi pas de différence entre une sinusoïdale de 20KHz et un signal carré de 20 KHz. Cette différence sera plus marquée @88.2KHz.
Voici la décomposition en série de fourier d'un signal carré :
Les harmoniques ont de rang impaires. Donc pour un signal carré à 20 kHz
Fondamentale : 20 kHz
H3 : 60 kHz
H5 : 100 kHz
etc etc
Donc que tu sois à 44,1 kHz ou 88,1 kHz, ca change peanuts, tes harmoniques sont sur Pluton : ni dans les bandes passantes retranscrites par ces fréquences d'échantillonnage, ni dans la bande de L'oreille humaine ......
Pour préciser ce que je veux dire j'ai trouvé sur une forum anglophone quelques jolies copies d'écran:
https://www.gearslutz.com/board/6201971-post1352.html
MaximalSound.com
Le mastering algorithmique en ligne depuis 2010
Démo SoundCloud
Sound On Sound Shootout
Crédits YouTube
[ Ce message faisait initialement partie de la discussion "Mastering internet à 10$ : Y'en a qui osent tout!" qui a été fusionnée dans ce sujet le 07/07/11 ]

Anonyme


Ce que l'on voit, ce sont les samples, reliés entre-eux par une ligne droite. C'est une représentation faussée.
Dans la réalité, ça n'est pas du tout comme cela, et tant mieux pour nos oreilles et nos enceintes.
[ Dernière édition du message le 07/07/2011 à 13:56:36 ]
[ Ce message faisait initialement partie de la discussion "Mastering internet à 10$ : Y'en a qui osent tout!" qui a été fusionnée dans ce sujet le 07/07/11 ]

Anonyme


+1, la vision qui nous est montrée ici, et en général dans tous les séquenceurs audio, est un piège pour tous ceux qui n'ont pas les bases de l'audionumérique. Depuis le début de l'audionumérique, c'est ce genre de présentation qui a fait fleurir le discours anti numérique, en faisant abstraction d'un élément important, la reconstruction par le convertisseur. Ce qu'on voit ce sont des valeurs d'échantillons, et pas la forme d'onde d'un signal audio.
Si on veut comparer les performances en 96 et en 44,1 par exemple, il faut aussi montrer la reconstruction du signal, soit par extrapolation logicielle, soit par conversion NA.
JM
[ Ce message faisait initialement partie de la discussion "Mastering internet à 10$ : Y'en a qui osent tout!" qui a été fusionnée dans ce sujet le 07/07/11 ]

Dr Pouet

Message de modération :
38 posts viennent d’être importés dans cette discussion depuis le sujet "Mastering internet à 10$ : Y'en a qui osent tout!".
Pour les lire cliquez ici

Dr Pouet

Pour préciser ce que je veux dire
Mais c'est quoi ce que tu veux dire ?
j'ai trouvé sur une forum anglophone quelques jolies copies d'écran:
https://www.gearslutz.com/board/6201971-post1352.html
Ce qu'on voit ce sont des valeurs d'échantillons, et pas la forme d'onde d'un signal audio.
C'est exact, comme dit gulistant : "reliés par un ligne droite".
Autrement dit : c'est le programmeur du logiciel qui, à partir des échantillons, a décidé de les relier par une ligne droite pour :
- obtenir un truc qui ressemble vaguement à la forme d'onde
- moyennant une charge de calcul extrêmement faible.
Si on ne zoome pas, ça donne une bonne idée de la forme d'onde, "à pas cher" (en temps de calcul).
Mais si on zoome, ça donne n'importe quoi.
En fait, la conversion N->A commence par une puce qui doit plutôt faire des marches d'escalier, et ensuite ces marches vont dans un filtre passe-bas, à la sortie duquel on obtient une jolie forme d'onde comme on l'imagine.
En 88kHz on met moins de contraintes sur ce filtre passe-bas, donc il est théoriquement plus facile d'obtenir un bon résultat. Sauf que :
- ça fait longtemps que ces filtres sont bien au point
- et maintenant c'est généralement du bitstream qui est utilisé, ça permet d'avoir le beurre et l'argent du beurre.

Silicon Machine Extended


Silicon Machine Extended


Anonyme

De fait, comme dirait Rroland, dans le domaine numérique il ne peut exister d'intersample. Mais la saturation dûe à un dépassement entre deux samples lors de la conversion n'est pas certaine, cela dépend de la réserve du convertisseur et des éléments qui suivent dans la chaîne.
JM

Silicon Machine Extended


Anonyme

y'a un freeware chez ssl qui mesure les clip en inter-sample

Silicon Machine Extended


Anonyme

Comme dis Docks, SSL propose un plug grzatuit qui indique le niveau réel du signal après reconstruction.
JM

Anonyme

j'avai fait quelques tests à une époque avec ce plug, j'ai constaté en calibrant le niveau de sorti à -0.3 dBfs crête, j'était jamais emmerdé (et même dans la plupart des cas à -0.2 voir -0.1) du coup j'ai laché l'affaire, pour moi c'est sans intérêt.

Anonyme

SDLC ?
JM

Dr Pouet

Citation :mon acharnement (et mon elegance naturelle) a lui montrer pourquoi il avait tord m'avait valu quelques jours d'ombres
Normal :
C'est torT bordeeeeeel !![]()
![]()
![]()
![]()
![]()
![]()
![]()
Le risque, il se produit bien, comme tu le dit, au moment de la conversion, parce que sinon, entre deux points, il n'y a rien
On peut pinailler : "mathématiquement" la satu y est, et certains effets pourraient la faire ressortir : pitch shift, time stretch... tous les effets qui ont un lien avec la reconstitution du signal.
Idem s'il y a un sur-échantillonnage, qui plus est en virgule fixe (bon ok, ce serait con).
Je pense qu'au stade de la pratique la conclusion de Docks est la bonne.
[ Dernière édition du message le 08/07/2011 à 16:23:05 ]
- < Liste des sujets
- Charte