DEBAT : est-ce qu'on a moins de profondeur/niveau avec un mix seulement software/ordi?
- 1 172 réponses
- 79 participants
- 88 563 vues
- 129 followers
maxxsoultronik
une petite question.
Je viens de me mettre au mixage d'album rock. J'avais une assez longue expérience dans la production de musique électronique et j'ai eu envie de me diversifier.
Mes premiers mixs sonnent bien, les labels et artistes sont content. Cependant, perfectionniste dans l'âme, j'ai un petit soucis. Bien qu'il ne soit pas encore masterisé, j'ai l'impression que mes mixent manquent de profondeur, d'un peu de niveau, de présence... C'est difficile à expliquer. J'arrive progressivement à améliorer ce problème en renforçant l'image stéréo, la compression, en triggant la batterie, etc. Mais même après des heures passées à bosser de très bonnes prises réalisées dans un studio pros, j'ai toujours ce petit problème de rondeur-puissance-profondeur qui me manque un peu...
Alors ma question est :
- est-il possible d'avoir un mixage excellent, puissant et prifond, juste avec des plugs ins (sans hardware, ni table de mixage)?
- est-ce que le mastering amène réellement de la profondeur au mixage?
- est-ce que ce manque de grain, de pêche est le revert de la médaille d'utiliser uniquement un ordinateur?
Me conseillerez vous de repasser à la fin toutes mes pistes mixées dans une ssl ou une neve et de corrigier le tout pour gagner un peu en grain et en pêche?
MERCI ;)
J-Luc
Scare> Voilà ce que j'ai compris des convertisseurs sigma/delta :
A partir du moment où on cherche à coller à la valeur du signal par petites touches (1 bit LSB) mais très fréquemment, il faut faire 2^n coups d'horloge pour reconstituer un échantillon de n bits utilisable comme du PCM puisque c'est ce que nous utilisons, nous tous, dans nos séquenceurs.
Ceci est confirmé par une version algorithmique du-dit convertisseur décrite ici page 5.
Donc un convertisseur Sigma/delta un bit à un étage devrait, pour accumuler assez d'information pour délivrer un échantillon 24 bits à Cubase (ou autre), attendre 2^24 coups d'horloge soit, à 6,1MHz, faire 0,3 échantillon par seconde, ce qui n'est visiblement pas le cas. Les choses ne sont donc pas si simples.
Sinon, je répète que l'AK5394A est une bien belle bête mais même avec 110dB de rapport S/B (ce qui, dans l'absolu, est excellent), il est loin des 144dB théoriques. 110dB c'est jouable avec 19 bits...
Donc le message c'est que les utilisateurs des interfaces son qui utilisent ce CI à 10$ ne doivent pas s'attendre à échantillonner le signal analogique avec plus de 18 ou 19 bits réellement utiles (non entachés de bruit ou de distorsion). A ce compte-là, il y a beaucoup de considérations sur la marge de niveau avant saturation, sur le niveau optimal à envoyer, ou la précision de calculs, qui prennent une autre tournure.
Il y a deux moyens d’oublier les tracas de la vie : la musique et les chats.
Albert Schweitzer
jeriqo
Citation de : Will Zégal
Pour les EQs, c'est une autre discussion parce si c'est en grande partie vrai pour certains types d'EQ, ce n'est pas le cas pour tous.
Oui c'est une autre discussion, par contre toues les EQ testés ont pu être reproduits, sauf :
Waves SSL : c'est le même plug in que les autres + du bruit blanc (très faible -90dBFS je crois)
Waves API : idem, même plug in + générateur d'harmoniques paires et impaires, premier rang à -60dB de mémoire.
Uniquement lorsque le bouton "analog" est enclenché, sinon ce sont les mêmes que les autres.
J-Luc
Citation de Jeriqo :
EQ de logic, gain 2dB, facteur Q: 2
Sonnox, gain 3dB, facteur Q: 4
Pourtant Q = largeur de bande à -3dB / fréquence centrale
Il est étonnant de ne pas utiliser la même formule pour la même notion.
Il y a deux moyens d’oublier les tracas de la vie : la musique et les chats.
Albert Schweitzer
jeriqo
Citation de : J-Luc
Citation de Jeriqo :
EQ de logic, gain 2dB, facteur Q: 2
Sonnox, gain 3dB, facteur Q: 4
Pourtant Q = largeur de bande à -3dB / fréquence centrale
Il est étonnant de ne pas utiliser la même formule pour la même notion.
Je crois qu'il n'y a pas de normalisation pour le facteur Q, et que les constructeurs font un peu ce qu'ils veulent.
Quant au gain, c'est assez flou également, sachant que c'est basé sur la résonance ce n'est pas directement quantifiable, c'est plutôt un niveau perçu par l'oreille.
jeriqo
Citation de : J-Luc
Scare> Voilà ce que j'ai compris des convertisseurs sigma/delta :
A partir du moment où on cherche à coller à la valeur du signal par petites touches (1 bit LSB) mais très fréquemment, il faut faire 2^n coups d'horloge pour reconstituer un échantillon de n bits utilisable comme du PCM puisque c'est ce que nous utilisons, nous tous, dans nos séquenceurs.
Ceci est confirmé par une version algorithmique du-dit convertisseur décrite ici page 5.
Donc un convertisseur Sigma/delta un bit à un étage devrait, pour accumuler assez d'information pour délivrer un échantillon 24 bits à Cubase (ou autre), attendre 2^24 coups d'horloge soit, à 6,1MHz, faire 0,3 échantillon par seconde, ce qui n'est visiblement pas le cas. Les choses ne sont donc pas si simples.
C'est étrange, ce n'est pas du tout ce que j'avais lu sur le DSD.
J'avais compris que ça fonctionnait en relatif et non pas en absolu comme le PCM. Et que la fréquence était suffisamment grande pour que la différence entre 2 échantillons ne dépasse pas 1 bit de poids faible, et que donc ce soit codable sur 1 bit (+1 ou -1).
À partir de là on peut reconvertir en PCM à la même fréquence.
Edit: je crois que le 2^24 c'est uniquement pour accrocher la première valeur, et qu'à partir de là tout se fait en relatif.
[ Dernière édition du message le 10/11/2010 à 13:54:05 ]
J-Luc
Citation :
je crois que le 2^24 c'est uniquement pour accrocher la première valeur, et qu'à partir de là tout se fait en relatif.
Ok, alors quand il y a une transitoire et que tu passes rapidement en quelques samples de +FS à -FS, t'es bien obligé de "générer" beaucoup plus d'un bit à la fois.
Le DSD c'est différent. C'est de la modulation de largeur d'impulsion, très utilisée en régulation, dans l'industrie ou le grand public (vos radiateurs électriques à thermostat électronique) et dans les amplis classe D ou F. Elle ne cherche pas à générer un mot d'une longueur données de bits à intervalles réguliers. Elle cherche juste à trouver, à intervalles réguliers, la largeur de pulse qui permette, une fois moyennée par un passe-bas velu (quoique), le signal d'origine. Pour arriver à sortir comme la PCM un mot à la fréquence Fs, il faut "mesurer" la largeur des impulsions.
[Edit] C'est de la modulation de densité d'impulsion et pas de largeur : https://en.wikipedia.org/wiki/Pulse-density_modulation
Il y a deux moyens d’oublier les tracas de la vie : la musique et les chats.
Albert Schweitzer
[ Dernière édition du message le 10/11/2010 à 15:43:09 ]
Zerosquare
J-Luc : attention. Pour le suréchantillonnage, tu as deux méthodes possibles.
- la méthode "brute" : tu échantillonnes simplement à un multiple de la fréquence d'échantillonnage que tu veux, puis tu fais un filtre passe-bas numérique + décimation pour retomber sur tes pattes. Ça marche, mais effectivement ça conduit à des fréquences d'échantillonnage très élevées si tu veux gagner beaucoup de bits, donc c'est peu utilisé.
- le noise-shaping : tu rajoutes un étage dans ton convertisseur qui va avoir pour effet de changer le spectre du bruit de quantification. Normalement ce bruit est indépendant de la fréquence. Le noise shaper permet au contraire de faire beaucoup diminuer ce bruit dans la bande de fréquence que tu cherches à échantillonner, en contrepartie d'un bruit beaucoup plus élevé en dehors. Mais ça tu t'en fous, puisque justement, ton filtre passe-bas va virer tout ça. En utilisant cette astuce, on arrive à ne pas devoir dépasser quelques MHz en fréquence d'échantillonnage.
scare
Citation :
- la R&D
- le temps de montage
- les tests
- les contrôles qualité
- la garantie
- la commercialisation (service commercial, administratifs, etc)
- les locaux et autres immobilisations nécessaires à toute entreprise
- les intermédiaires (distributeurs, boutiques)
- les taxes.
J'ajouterai les faibles (ou grossess) quantité qui jouent beaucoup sur le prix. Etant ingé en electronique, je pense que Jeriquo n'a pas tout à fait tord, faire un rack avec des CI et des circuit imprimés fait en chine, ca coute pas un bras ... bien au contraire
Après des boite comme lavry , font du composant discret, du monté à la main régulés en température, ca coute carrement plus cher.
Un neve 1073 contient des composants hors de prix : potard de gain, transfo carnhill tap inductor etc etc, un LA2A pareil, et ça coute un bras.
Un phoenix, un vari mu, pareil il y a des composants hors de pris, transfo, tube, composanst discret cher.
Même en DIY on mange la feuille sur ce type de produit
Une carte Rme, ca coute quedalle à produire, c'est du cms et des CI, c'est auatnt commun su'une clé usb ....
Je reçois à peu près un email par semaine pour des gars qui me demandent du 1073 etc etc croyant que le prix est bas, et bien non ca coute cher à construire y'en a au moins pour 700 Euros de matos. Par contre je le redis un circuit imprimé avec du CMS et des CI, franchement, ça vaut pas un clou à maufacturer
Je le constate professionnellement dans ma boite qui fabrique du matos de mesure. Une carte en CMS avec des CI coute 150 euros à la fabrication et est revendue 2000.
Edit : j'ai deux rack converto Aurora 16 de chez Lynx. Je les ai ouvert pour passer d'une alim américainz à européene. A la louche, j'estime le cout de fabrication d'une unité à 400/500 euros grand grand max (hors design et tout le tralala), juste la fabrication et l'assemblage. C'est vendu 3000, ce qui doit couvrir tout les autre frais et faire une marge.
Rien d'impressionnant dans ces racks, juste de l'electronique des années 2000.
Par contre quand t'ouvre un Phoenix, un 1073, un chandler ou un ampli gratte à tube, tu vois bien ou est le fric, matériellement parlant.
Construction du nouveau studio
Visitez le site THD STUDIO / page FB THD Studio
Dossier : Conversion analogique-numérique (pour les courageux)
[ Dernière édition du message le 10/11/2010 à 14:17:03 ]
jeriqo
Citation de : J-Luc
Citation :
je crois que le 2^24 c'est uniquement pour accrocher la première valeur, et qu'à partir de là tout se fait en relatif.
Ok, alors quand il y a une transitoire et que tu passes rapidement en quelques samples de +FS à -FS, t'es bien obligé de "générer" beaucoup plus d'un bit à la fois.
Pas si sûr, il faudrait calculer pour un sinus de 20Khz à 0dBFS (voire 40KHz pour être sûr), la différence de valeur maximale entre 2 échantillon consécutif à 2,1MHz, et voir si ça dépasse la valeur d'1 bit de poids faible sur 24 bits.
Je pense qu'ils ont calculé pour qu'on dépasse jamais la valeur d'1 bit LSB.
Et encore.. Lavry explique qu'on n'a pas besoin de tout ça pour recréer le sinus... mais là par contre j'ai du mal à suivre.
Citation :
Le DSD c'est différent. C'est de la modulation de largeur d'impulsion, très utilisée en régulation, dans l'industrie ou le grand public (vos radiateurs électriques à thermostat électronique) et dans les amplis classe D ou F. Elle ne cherche pas à générer un mot d'une longueur données de bits à intervalles réguliers. Elle cherche juste à trouver, à intervalles réguliers, la largeur de pulse qui permette, une fois moyennée par un passe-bas velu (quoique), le signal d'origine. Pour arriver à sortir comme la PCM un mot à la fréquence Fs, il faut "mesurer" la largeur des impulsions.
On ne doit pas parler de la même chose... je parle bien du DSD utilisé dans les SACD, à savoir du delta sigma 1bit à 2,8MHz, + le noise shaping dont parle zeroquare au dessus.
Dr Pouet
Je crois qu'il n'y a pas de normalisation pour le facteur Q, et que les constructeurs font un peu ce qu'ils veulent.
Quant au gain, c'est assez flou également, sachant que c'est basé sur la résonance ce n'est pas directement quantifiable, c'est plutôt un niveau perçu par l'oreille.
C'est vrai. Tout comme il est vrai qu'il existe des dizaines de types de filtres numériques, et que pour chacun on peut faire des centaines de choix différents. Il y a de nombreux livres, très gros, sur le sujet. Et rien que dans Logic, 3 types d'EQ sont fournies avec... De plus Robert Henke, l'un des développeur de Live, disait aussi qu'il y avait plein de manières de faire des filtres (par opposition à la sommation, qui est triviale, et qui ne peut être faite que d'une seule manière).
Je reconnais que les tests qui avaient été montrés étaient troublants, mais à mon avis la conclusion était hâtive et méritait pas mal d'approfondissements, et d'avis éclairés. Cela dit, le sujet étant complexe et aride, les avis éclairés se font carrément rares sur ce genre de trucs.
Si vous connaissez des personnes que ça intéresserait... ça ferait un bon sujet d'étude pour élèves ingénieur électronique et informatique.
Des tas de DIYers y ont certainement déjà pensé, et en plus la concurrence est rude dans le domaine... Les prix de la puce de conversion expliquent que pour finalement pas très cher on peut avoir une qualité hyper satisfaisante, et qu'il ne faut pas s'imaginer qu'en mettant 100 fois plus cher on aura 100 fois mieux (je pense en particulier à la hi-fi ésotérique). Mais il ne faut pas non plus tirer trop de conclusions sur le prix de l'appareil à partir du prix de l'une des puces.
Par contre à 192 Khz il est difficile de transmettre 24 bits sans erreur, on devient limitre car le débit est trop important. Pourquoi ??!! Dan lavry dit cela mais n'explique rien !
Ce n'est pas une question de "débit" proprement dit ; c'est juste que pour un tas de raisons, faire le boulot vite, c'est le faire moins précisément (un peu comme un être humain avec un pied à coulisse ! )
On peut regretter qu'il ne l'explique pas, et encore, je ne suis pas sûr qu'en ayant tout compris dans son doc, on n'ait pas des billes sur la question. Mais je soupçonne que l'explication nous dépasserait un peu !
Je sais bien que l'article date de 2004, je dis juste que l'on faisait déjà de l'échantillonnage à 12b/30KHz dans les années 60, et que donc en 2010 on devrait être capable de faire du 24b/192KHz sans problème.
Tu sais, Dan Lavry est globalement très écouté, car il est à la fois très compétent, et beaucoup plus rationnel que "publicitaire". Donc en première approximation on peut faire 100 fois plus confiance à n'importe quel écrit de Lavry qu'un feeling personnel comme "en 2010 on devrait être capable de..." Désolé d'être un peu direct, mais je crois que c'est quand même ce qu'il faut se dire.
De même, le doc de Digidesign n'est pas très "marketing" puisqu'ils disent bien que leur Digi192 n'est pas ce qu'il se fait de mieux. Raison de plus pour leur faire confiance.
Et si le début de leur document (sur les décalages de bits) est un peu rude à lire, la fin orientée "questions fréquentes / réponses" est beaucoup plus facile, et est très instructive.
Ce n'est pas la même chose, mais c'était pour faire l'analogie. On a multiplié les fréquences par 10000 en informatique entre 1970 et 2010, étonnant qu'on n'arrive pas à la multiplier par 4 en audio.
Étonnant, mais pas forcément impossible. Si tu prends une excellente (et très grosse) enceinte de 1970, une enceinte actuelle mais 4 fois moins volumineuse litrage ne fera pas aussi bien... Et une contrebasse est toujours aussi grosse, 100 ans plus tard.
- < Liste des sujets
- Charte