DEBAT : est-ce qu'on a moins de profondeur/niveau avec un mix seulement software/ordi?
- 1 172 réponses
- 79 participants
- 93 978 vues
- 129 followers

maxxsoultronik

une petite question.
Je viens de me mettre au mixage d'album rock. J'avais une assez longue expérience dans la production de musique électronique et j'ai eu envie de me diversifier.
Mes premiers mixs sonnent bien, les labels et artistes sont content. Cependant, perfectionniste dans l'âme, j'ai un petit soucis. Bien qu'il ne soit pas encore masterisé, j'ai l'impression que mes mixent manquent de profondeur, d'un peu de niveau, de présence... C'est difficile à expliquer. J'arrive progressivement à améliorer ce problème en renforçant l'image stéréo, la compression, en triggant la batterie, etc. Mais même après des heures passées à bosser de très bonnes prises réalisées dans un studio pros, j'ai toujours ce petit problème de rondeur-puissance-profondeur qui me manque un peu...
Alors ma question est :
- est-il possible d'avoir un mixage excellent, puissant et prifond, juste avec des plugs ins (sans hardware, ni table de mixage)?
- est-ce que le mastering amène réellement de la profondeur au mixage?
- est-ce que ce manque de grain, de pêche est le revert de la médaille d'utiliser uniquement un ordinateur?
Me conseillerez vous de repasser à la fin toutes mes pistes mixées dans une ssl ou une neve et de corrigier le tout pour gagner un peu en grain et en pêche?
MERCI ;)

Anonyme

Je n'en ai plus besoin depuis que je suis équipé Audika !
JM

Will Zégal

Si les gens passaient plus leur temps à discuter structure, arrangement, harmonie, mélodie, beat, etc. la musique serait peut être d'un meilleur niveau ... Finalement, faire de longues discussions ( et être assez obsédé parfois ) sur des choses qui vont avoir 0 influence sur le résultat final et en oublier tout le reste ( comme si finalement, c'était les machines qui faisaient uniquement la musique et non l'homme ), c'est assez drôle ...
100 %

Au passage, je me demande au final, en ce qui concerne le home-studiste de base, si tout ceci change vraiment quelque chose.
Parce qu'on voit que certains ingés son pro n'ont visiblement pas eu le temps d'actualiser leurs connaissances en matière d'audionumérique. Ils restent sur des idées reçues souvent farfelues issues du grand flou qu'il y a dans leur connaissance du numérique et de l'informatique mélangé avec leurs habitudes héritées des techniques 100% analo.
Pourtant, ça ne les empêche pas de faire du bon, voire du très bon boulot.
Dans une autre discussion, Docks a écrit un truc genre "faut pas travailler en 88.2 : plus on monte la FE, plus on perd en résolution, cf articles de Dan Lavry".
Ça m'a passablement surpris et je voulais lui en demander des explications.
Mais au fond, ça m'intéresse pour une question de culture et de curiosité. Mais je finis par penser que, à moins de faire des conneries monstrueuses, le matos d'aujourd'hui offre au final une telle qualité que la façon dont on l'utilise (dans ce genre de détails) compte bien peu sur la qualité finale par rapport au talent de l'opérateur et à la qualité des traitements (plugs ou HW) utilisés.
Par exemple, avec des séquenceurs qui bossent en 32 bits float, on peut même taper dans le rouge, ce qui était impensable il y a quelques années.
Ce que je veux dire, c'est que c'est pas le fait qu'un mix qui part au mastering tape à -12, -9 ou -3 db qui changera grand chose à la qualité finale.
[ Dernière édition du message le 09/11/2010 à 12:52:40 ]

Will Zégal

Je ferai un peu le parallèle avec le solfège. Bien le connaître ainsi que la théorie musicale facilite beaucoup la collaboration avec d'autres musiciens et apporte des ouvertures considérables dans sa création, mais il n'est pas nécessaire de le connaître pour faire de la bonne musique. Des rappeurs que je côtoie et qui ne savent pas ce que c'est qu'un accord majeur me le démontrent régulièrement.

Anonyme

Tout à fait d'accord Will.
Cependant je trouve normal que les techniciens, ceux qui revendiquent l'appellation "Ingénieur du son", aient un minimum de bases sérieuses plutôt que de propager des bruits de couloir avec l'autoritarisme que procure chez certains cette étiquette parfois trop rapidement collée (au point de menacer les contradicteurs de procès, parfois *).
Concernant ce que dit Docks à ce sujet, je ne serais pas aussi catégorique. Dan Lavry dit que passer à 88.2 est inutile et qu'au fur et à mesure qu'on monte en Fe, le jitter augmente. Il préconiserais (s'il en avait le pouvoir) une Fe de 60kHz environ. Mais dans la vrai vie, le choix c'est 44.1 ou 88.2 (ou 48/96). Du coup il laisse grosso modo le choix aux utilisateurs car le résultat peu être variable en fonction des qualités propre des convertisseurs (notamment les filtres anti-repliment et la stabilité de l'horloge).
JM
Hors sujet :
* Ou se rappeler de ce que disait Desprosges : "Mieux vaut fermer sa gueule et passer pour un con que l'ouvrir et ne laisser aucun doute à ce sujet".
[ Dernière édition du message le 09/11/2010 à 13:08:42 ]

Anonyme

Citation :
Dans une autre discussion, Docks a écrit un truc genre "faut pas travailler en 88.2 : plus on monte la FE, plus on perd en résolution, cf articles de Dan Lavry".
Ça m'a passablement surpris et je voulais lui en demander des explications
pour préciser mon propos, je n'ai pas dit "il ne faut pas...", le contexte de la discussion était que le 88.2 était présenté comme la "meilleure" FE avec comme un des arguments le fait qu'on a deux fois plus de détails en théorie*, comme autre argument le fait que c'était un multiple de 44.1 ce qui facilitait le SRC final, ce que je n'ai d'ailleur pas remis en cause, et également que ca augmentait la headroom, mais bon ca je pense que tout le monde à compris que c'était sans rapport.
De plus, la session de l'auteur du sujet était en 44.1, mon conseil était donc d'exporter tel quel et de laisser l'ingé mastering faire la conversion si cela lui paraissait utile.
*Sauf qu'en théorie justement ca n'est pas vrai qu'on a deux fois plus de détails, et effectivement on perd en résolution au fur et à mesure qu'on augmente la FE.
Pour les explications, je pourrait difficilement faire mieux que ce qui est dit dans cet article
Citation :
Pourtant, ça ne les empêche pas de faire du bon, voire du très bon boulot
complètement d'accord, j'avais d'ailleur précisé à plusieurs reprises lors de cette "fameuse" discussion que je ne remettait pas en cause les compétences, juste les connaissances sur certains points particuliers.
Citation :
Au passage, je me demande au final, en ce qui concerne le home-studiste de base, si tout ceci change vraiment quelque chose
ca peu changer quelque chose dans le sens ou au lieu de se prendre la tête sur des trucs comme ca, il pourra se concentrer sur des trucs qui ont vraiment une incidence sur la qualité de son travail, comme le souligne très justement Père Founasse.
[ Dernière édition du message le 09/11/2010 à 13:39:51 ]

Zerosquare

Je plussoie. On n'est plus à l'époque où la technique était une préoccupation majeure pour faire de la musique. Ça a une certaine importance c'est sûr, mais à moins de faire vraiment n'importe quoi, c'est relativement secondaire face aux autres facteurs qui font que le résultat sera bon ou pas.
Hors sujet :
Citation de Will Zégal :
il n'est pas nécessaire de le connaître pour faire de la bonne musique. Des rappeurs que je côtoie et qui ne savent pas ce que c'est qu'un accord majeur me le démontrent régulièrement.
Mouais.
Je veux bien te croire et je vais éviter de lancer le débat là-dessus, mais pour moi y'en a quand même un paquet à qui ça ne ferait pas de mal d'apprendre ce qu'est un accord majeur, entre autres choses
[ Dernière édition du message le 09/11/2010 à 13:12:02 ]

Dr Pouet

Mais au fond, ça m'intéresse pour une question de culture et de curiosité.
Pareil. Surtout de la curiosité de "comment ça fonctionne".
C'est aussi parfois de l'anti-obscurantisme quand quelqu'un se pointe et recommande des trucs infondés (augmenter la fréquence d'échantillonnage pour augmenter le headroom) voire vendre des trucs (câbles numériques "plus chauds" )...
Après, pour un ingé son pro, l'exigence peut aller plus loin. Par exemple :
avec des séquenceurs qui bossent en 32 bits float, on peut même taper dans le rouge, ce qui était impensable il y a quelques années.
Pour un travail très rigoureux, il faudrait d'abord tester tous ses plug-ins pour s'assurer qu'aucun ne sature.

karlos73

Si les FE élevées apporte une perte de résolution, pourquoi il y a des plugins qui suréchantillonnes?

Anonyme

Karlos, bonne question, je n'ai pas les compétences pour te répondre, j'imagine que ca ne marche pas pareil entre le moment ou on quantifie à la conversion analo/num et le moment ou on suréchantillonne un signal déjà quantifié, qui plus est à de plus hautes résolutions de calculs, mais je peux me planter.

Zerosquare

Rien ne lie fondamentalement la fréquence d'échantillonnage et la résolution, mathématiquement parlant. On peut changer l'une sans toucher à l'autre.
La dégradation de la résolution quand on augmente la fréquence d'échantillonnage, c'est un phénomène électronique, ça ne concerne que les convertisseurs.
[ Dernière édition du message le 09/11/2010 à 15:13:56 ]

Danguit

Si j'ai bien compris ce que raconte le sieur Lavry dans son white paper, il est uniquement contre le 192k, avec des arguments (précision, distorsion) qui ne me semblent d'ailleurs pas très convaincants.
En ce qui concerne les FE inférieures (96k, 88.2k) il est manifestement pour, puisqu'il vend des convertisseurs qui fonctionnent à ces débits.

Anonyme

je crois que l'idée générale de son article est surtout de combattre le message (souvent marketing) de "plus = mieux".
[ Dernière édition du message le 09/11/2010 à 16:14:10 ]

J-Luc

Citation :
Si les FE élevées apporte une perte de résolution, pourquoi il y a des plugins qui suréchantillonnes?
Je t'explique en tant qu'électronicien : Pour échantillonner le signal, il faut à intervalles réguliers le bloquer dans un truc qui s'appelle l'échantillonneur-bloqueur, qui doit mémoriser (dans une capa de faible valeur) une fraction de seconde le signal avant que le convertisseur analogique-numérique qui marche comme un bête multimètre, ne le mesure. Or, cette capture du signal ne saurait être parfaite. D'abord il faut ouvrir la porte vers la capa à intervalles TRES réguliers et ensuite il ne faut fermer la porte que lorsqu'elle a bien choppé le niveau du signal. Toute approximation dans la première (c'est surtout une approximation temporelle) ou dans la deuxième (qui est surtout une erreur de niveau de tension) opération entraîne un échantillonnage imparfait, on regroupe tout ça dans les erreurs de jitter. Car enfin, s'il ne s'agissait que de donner le top d'échantillonnage, on sait le faire à la ns près, mais il y a toute une suite d'opérations faisant intervenir des amplis suiveurs, des interrupteurs analogiques, et là, plus rien n'est parfait.
La conversion A/N (en aval de l'échantillonneur-bloqueur) qu'on peut assimiler à un multimètre en mode "ultrafast", donc, est plus imprécise à 88kHz qu'à 44kHz pour les hautes résolutions pour les mêmes raisons : elle fait intervenir des composants analogiques (des comparateurs, entre autres) qui doivent être à la fois rapides et précis, ce qui devient incompatible passé certaines limites de l'un, de l'autre ou des deux critères.
Le suréchantillonnage numérique fait par certains plugins est connement une interpolation en mémoire pour "lisser" le résultat de calculs un peu trop générateurs de transitoires ou instables sur les changements rapides de niveau. On reste dans le domaine du calcul et on peut bien suréchantillonner 2,4, 8 ou 16 fois sans souci (même si à force ça ne sert plus à rien).
Il y a deux moyens d’oublier les tracas de la vie : la musique et les chats.
Albert Schweitzer
[ Dernière édition du message le 09/11/2010 à 16:22:15 ]

Anonyme

merci pour l'explication!

J-Luc

En 1984 j'échantillonnais à l'école avec un converto A/D de type R/2R et un Z80. Le proc était un peu à la ramasse : j'avais une F.échant de l'ordre de 20Hz si je voulais un simple passe-bas FIR à 5Hz !
Il y a deux moyens d’oublier les tracas de la vie : la musique et les chats.
Albert Schweitzer

Danguit

pourquoi il y a des plugins qui suréchantillonnes?
Il me semble que l'une des raison de ce suréchantillonage est d'éviter le repliement quand certains traitements créent des composantes au-delà de Fe/2.

jeriqo

J-Luc, je comprends tout à fait ce que tu veux dire, cependant si l'on regarde les spécifications des convertisseurs AKM (les plus répandus), il est indiqué que le convertisseur (si l'on prend l'exemple du 5394A) échantillonne en réalité à 6.144MHz, il qu'il fait ensuite une réduction selon la fréquence d'échantillonnage souhaitées. (/256 pour du 48K, /128 pour du 96K et /64 pour du 192K).
Le filtrage se fait d'ailleurs numériquement, l'aliasing étant repoussé à des fréquences que l'homme ne pourra pas entendre avant plusieurs millions d'années :)
Je ne sais pas de quand date l'article de Lavry, mais si j'ai bien compris la doc, il semble être obsolète depuis longtemps.
Doc : http://www.asahi-kasei.co.jp/akm/en/product/ak5394a/ak5394a_f03e.pdf
Extrait :
The analog modulator samples the input at 6.144MHz for an output word rate of 192KHz, There is no rejection of input signals which are multiples of the sampling frequency.
[ Dernière édition du message le 09/11/2010 à 16:33:21 ]

Anonyme

il me semble que Dan évoque tout ca dans l'article justement, puisqu'il parle du facteur du modulateur d'entrée du converto.

Zerosquare

Le suréchantillonnage en entrée et en sortie des convertisseurs, c'est justement une astuce parce qu'il est plus facile (dans ce cas précis) de faire un convertisseur plus rapide mais avec une résolution plus faible, que de faire un convertisseur à la fréquence d'échantillonnage voulue mais avec une grande résolution.
Mais ça ne change pas le principe, si tu augmentes la fréquence d'échantillonnage de sortie du suréchantillonneur :
- soit tu dois augmenter la fréquence d'échantillonnage dans la même proportion, et tu retrouves les problèmes évoqués précédemment
- soit tu gardes la même fréquence d'entrée, et dans ce cas la résolution en sortie est mathématiquement moins bonne, puisqu'elle est liée au rapport fréquence de sortie / fréquence d'entrée

J-Luc

jeriqo> C'est du Sigma delta (c'est marqué en gros près de la référence). Effectivement il échantillonne 1 bit (on est au dessus de l'échantillon précédent = 1 ou on est au dessous = 0) ce qui est le "delta", et on attend d'en avoir assez pour composer des mots (le sigma). Effectivement, on laisse courir le signal d'entrée et on filtre après, ce qui est plus simple.
Pour l'exemple que tu joins, ne ne vois aucune indication de linéarité ou de distorsion, tu noteras également que le gain varie de 150ppm par degré soit 0,015% par degré, ce qui me paraît énorme (2500 points sur les 16 000 000 permis par les 24 bits). Il est probable à la lecture de sa doc que ce circuit n'aie rien à faire de travailler à 44, 96 ou 192kHz, ce qui n'empêche pas de reporter le problème aux préamplis analogiques qui le précèdent et qui pour "assumer" la même précision à 40kHz de bande passante qu'à 20kHz doivent avoir des caractéristiques qui commencent à devenir velues (lire "pointues").
[Edit] 1ns d'imprécision à 88kHz est peut-être encore acceptable, voir la qualité de l'horloge nécessaire à des zinzins qui tournent à 6 mégas. Encore une fois, le constructeur ne donne aucune info de précision d'échantillonnage (linéarité, distorsion).
0² :
Il y a deux moyens d’oublier les tracas de la vie : la musique et les chats.
Albert Schweitzer
[ Dernière édition du message le 09/11/2010 à 17:00:45 ]

karlos73

Merci pour les réponses plus que précise pour le simple musicien que je suis.

Zerosquare

(mouarf, cross à une seconde près )

Anonyme

Citation de J-Luc :
C'est du Sigma delta (c'est marqué en gros près de la référence). Effectivement il échantillonne 1 bit (on est au dessus de l'échantillon précédent = 1 ou on est au dessous = 0) ce qui est le "delta", et on attend d'en avoir assez pour composer des mots (le sigma). Effectivement, on laisse courir le signal d'entrée et on filtre après, ce qui est plus simple.
Pour l'exemple que tu joins, ne ne vois aucune indication de linéarité ou de distorsion, tu noteras également que le gain varie de 150ppm par degré soit 0,015% par degré, ce qui me paraît énorme (2500 points sur les 16 000 000 permis par les 24 bits). Il est probable à la lecture de sa doc que ce circuit n'aie rien à faire de travailler à 44, 96 ou 192kHz, ce qui n'empêche pas de reporter le problème aux préamplis analogiques qui le précèdent et qui pour "assumer" la même précision à 40kHz de bande passante qu'à 20kHz doivent avoir des caractéristiques qui commencent à devenir velues (lire "pointues").
[Edit] 1ns d'imprécision à 88kHz est peut-être encore acceptable, voir la qualité de l'horloge nécessaire à des zinzins qui tournent à 6 mégas. Encore une fois, le constructeur ne donne aucune info de précision d'échantillonnage (linéarité, distorsion).
qu'est-ce qu'il dit le monsieur?

Anonyme

Il parle d'un truc appelé théorie de l'information. En numérique, cela implique que le produit fréquence d'échantillonnage x résolution représente la quantité d'information transmise. Tant que ce produit reste constant, la quantité d'information transmise reste constante.
Ensuite, on peut "coder" suivant différents systèmes, mais on démontre que transmettre en 1 bit à 6,144MHz permet de transmettre les mêmes infos qu'un débit de 32bits à 192kHz. Sauf que traiter la conversion est plus facile dans le premier cas.
JM

scare

Dan lavry :
Citation :
The specific sine wave used to construct the sinc function sets the limits for our process of being able to reconstruct a wave out of a sum of sincs.
Traduction :
Citation :
La forme d'onde spécifique utilisée pour construire la fonction sinc définit les limites du processus de reconstruction de cette onde à partir d'une somme de sinc.
.........................
Construction du nouveau studio
Visitez le site THD STUDIO / page FB THD Studio
Dossier : Conversion analogique-numérique (pour les courageux)
[ Dernière édition du message le 09/11/2010 à 22:02:45 ]
- < Liste des sujets
- Charte