Se connecter
Se connecter

ou
Créer un compte

ou

DEBAT : est-ce qu'on a moins de profondeur/niveau avec un mix seulement software/ordi?

  • 1 172 réponses
  • 79 participants
  • 88 567 vues
  • 129 followers
Sujet de la discussion DEBAT : est-ce qu'on a moins de profondeur/niveau avec un mix seulement software/ordi?
Bonjour,

une petite question.
Je viens de me mettre au mixage d'album rock. J'avais une assez longue expérience dans la production de musique électronique et j'ai eu envie de me diversifier.

Mes premiers mixs sonnent bien, les labels et artistes sont content. Cependant, perfectionniste dans l'âme, j'ai un petit soucis. Bien qu'il ne soit pas encore masterisé, j'ai l'impression que mes mixent manquent de profondeur, d'un peu de niveau, de présence... C'est difficile à expliquer. J'arrive progressivement à améliorer ce problème en renforçant l'image stéréo, la compression, en triggant la batterie, etc. Mais même après des heures passées à bosser de très bonnes prises réalisées dans un studio pros, j'ai toujours ce petit problème de rondeur-puissance-profondeur qui me manque un peu...

Alors ma question est :

- est-il possible d'avoir un mixage excellent, puissant et prifond, juste avec des plugs ins (sans hardware, ni table de mixage)?
- est-ce que le mastering amène réellement de la profondeur au mixage?
- est-ce que ce manque de grain, de pêche est le revert de la médaille d'utiliser uniquement un ordinateur?

Me conseillerez vous de repasser à la fin toutes mes pistes mixées dans une ssl ou une neve et de corrigier le tout pour gagner un peu en grain et en pêche?

MERCI ;)
Afficher le sujet de la discussion
921

L'une des réponses de M. Lavry m'a tellement plu que je souhaite la faire partager à tout le monde dans notre bonne vieille langue.

J'ai essayé de la modifier un poilou en détaillant pour la rendre accessible même pour le newbie (j'ai dit "essayé" icon_mrgreen.gif ). Logiquement ça intéresse toute personne pratiquant la MAO.

La question : 44,1 Khz est-ce suffisant pour l'audio ?

Le théorème d'échantillonnage établi que l'on doit échantillonner deux fois plus rapidement que la période correspondant à la plus haute fréquence du spectre audio (FE = 2 fois la bande passante audio).

Lorsque le signal audio se situe à une fréquence proche (20kHz) de la fréquence de Nyquist (22,05 kHz),  beaucoup de personnes ne regardent qu'une seule période du signal échantillonné. Ils se demandent alors comment il est possible de reconstituer la fréquence de 20 Khz avec seulement deux points issus de l'échantillonnage (un point toute les 22.67us pour une période de 50 us). C'est une vue erronée de l'échantillonnage. On ne peut pas dire que la forme d'onde est reconstituée seulement à partir de deux points, sur une seule période.

Pour comprendre l'échantillonnage, on doit prendre en compte plusieurs périodes de la même fréquence plutôt que seulement une période contenant seulement deux points d'échantillonnage.

En prenant plusieurs périodes, on se rend vite compte que les échantillons (points) atteignent des valeurs différentes sur chacune des périodes précédentes. Avec les données de multiples périodes, on peut alors reconstituer l'onde d'origine de l'échantillon tout en ayant seulement deux points par période.

Donc non seulement il faut respecter le théorème de Nyquist  MAIS plus le signal audio s'approche de la fréquence de Nyquist (22,05 kHz pour une FE de 44,1 kHz), plus il faut de période du signal audio pour pouvoir reconstituer l'onde d'origine.

Cela me parait fondamental !! on l'on y pense jamais vraiment ! (en tout cas moi)

On notera que les périodes les plus récentes (plus proche de la portion audio en cours de reconstitution) contribuent davantage à la reconstruction. Il est juste de noter que ce qui s'est passé il y a plusieurs périodes a moins d'influence sur le résultat. Mais on ne peut ignorer les échantillons précédents, plus l 'historique du signal sera pris en compte, meilleure sera l'onde reconstruit. Bien sûr, il existe des limites pratiques à la façon dont nous regardons "en arrière".

À basses fréquences audio, il existe de nombreux échantillons dans chaque période du signal (car on se situe à une fréquence très basse par rapport à la fréquence de Nyquist).

Mais en augmentant la fréquence audio, nous arrivons à un point où il y a seulement 2 échantillons par période (au dessus de 8819 Hz), et le signal échantillonné devient visuellement déroutant pour ceux qui considèrent qu'une seule période (il ne ressemble plus du tout au signal original analogique). Un examen plus approfondi montre que les échantillons "marchent" au travers des cycles audio. En regardant le signal échantillonné sur plusieurs périodes, on observe que les échantillons sont décalés et l'on comprend comment reconstituer le signal d'origine.

En prenant une certaine période comme un «point de départ". De nombreuses période plus tard, nous avons attendu assez de temps pour retrouver un échantillon se trouvant assez étroitement à la même position que l'échantillon de la période du point de départ, la boucle est bouclée.  on appelle cela «une période cyclique». cette période cyclique est répétitive (pour une onde sinusoïdale ou une entrée périodique).

Si nous voulions reconstruire par exemple 22049Hz avec une FE de  44,1 kHz (Nyquist à 22,05 kHz), le temps requis (pour atteindre même une approximation grossière) pour atteindre le point de départ de la "période cyclique" serait énorme. C'est parce que la différence de fréquence entre 22049 Hz et la fréq de Nyquist n'est que de 1HZ. Cette différence 1Hz a un donc une "période cyclique" de 1 seconde !!

Cela signifie qu'à une FE de 44,1 kHz, , pour obtenir suffisamment d'échantillon nécessaire à la reconstruction de la fréquence de 22049 Hz, il faut 1 seconde, soit 44100 échantillons !  C'est vraiment beaucoup de données à recueillir et filtrer ...

Cependant, disons que nous voulons reproduire proprement 20KHz avec le même Nyquist, alors la différence de fréquence est 2050Hz qui a une "période cyclique" de seulement 487 usec. Il ne faut alors que 21 échantillons de données pour atteindre une "période cyclique".

 

Combien de "période cyclique" a-t-on besoin pour que la reconstruction soit bonne? Cela doit être quantifié, mais il est clair qu'une reconstruction de 22049Hz avec 44,1 échantillonnage n'est pas possible ! D'autre part, une reconstruction de la qualité de la fréquence de 20KHz est possible.

Ainsi, au lieu d'essayer de faire une conversion très proche de la fréquence de Nyquist, nous descendons légèrement la fréquence de coupure du filtre afin de filtrer les signaux de telle sorte que le convertisseur n'ai pas besoin d'essayer de reconstruire ce qui est pratiquement impossible. Bien sûr, avec les nouveaux convertisseurs (Oversampling en entrée cf sigma delta), la fréquence de Nyquist est plus élevée par de facteurs énormes (dans la gamme MHz) et  la question de l'anti aliasing sur les filtres des convertisseur AD appartient au passé (cela fut un problème jusqu'au début des années 1990). La même chose vaut pour la reconstruction DA qui est filtré après oversampling.

La question existe pour le "down sampling" (décimation), par exemple à  44,1 kHz avec les filtres numériques FIR ou IIR's. Pour obtenir le FIR plus proche de Nyquist, on doit filtrer plus longtemps, et pour décimer à 22.049 KHz, il nous faudrait sans doute des centaines de milliers d'échantillons et un énorme moteur de calcul. Ce n'est pas la peine. Si vous êtes prêt à se contenter descendre la bande passante 1000Hz en dessous de Nyquist, le problème devient beaucoup plus facile (Une "période cyclique" étant 1000 fois plus courte). il est alors possible de faire la décimation avec une quantité raisonnable de données. De la même façon faire l'IIR a ses limites aussi.

 

 

La question fondamentale est donc :  Quelle est réellement la bande passante de l'audio ?!

 

Si l'on considère que c'est 20 kHz, alors aucun soucis pour travailler à 44,1 kHz.

Si l'on considère que c'est un peu plus, M. Lavry démontre que ça risque de partir assez vite en sucette en se rapprochant de Nyquist, alors mieux vaut travailler à 48 kHz pour décaler un peu plu., Mais dans ce cas nous n'obtenons pas une division entière lors de la redescente à 44,1 sur cd => 88,2 kHz semble peut être assez approprié.

Une Fe de 55,125 kHz serait vraiment au top, un bon compromis entre bande passante (275625 Hz), souplesse pour la reconstruction du signal d'origine, précision de l'électronique, quantité de données stockés.

Pour redescendre à 44,1 kHz, il faudrait simplement diviser la freq par 1,25, soit 1.01 en binaire

En étant un peu plus gourmand, une FE à 66,15 kHz. Pour redescendre à 44,1 kHz, il faudrait simplement diviser la freq par 1.5, soit 1.1 en binaire.

44,1 c'est peut être un poilou juste et 88,1 un poilou too much. Le mieux est d'abandonner le CD et de se mettre à 48kHz.

icon_wink.gif

 

 

[ Dernière édition du message le 11/11/2010 à 17:03:15 ]

922
923
Je ne suis pas un spécialiste du traitement de signal et je n’ai peut-être pas tout compris, mais j’ai l’impression que le sieur Lavry présente le problème à l’envers.
Si j’en crois mes vieux cours, on commence par se fixer une fréquence max, par exemple 20kHz, ce qui donne une fréquence de Shannon à 40kHz, et on se fixe un coefficient de suréchantillonnage de # 1.1 (=> Fe # 2.2 Fmax) permettant de réduire la distorsion vers Fmax (je passe sur les détails).
Si tout cela est vrai, disserter sur ce qui se passe entre Fmax et Fe/2 présente peu d’intérêt. Mais je peux me tromper !

Passer pour un idiot aux yeux d'un imbécile est une volupté de fin gourmet. (G. Courteline)

924
Citation :
Je ne suis pas un spécialiste du traitement de signal et je n’ai peut-être pas tout compris, mais j’ai l’impression que le sieur Lavry présente le problème à l’envers.
Si j’en crois mes vieux cours, on commence par se fixer une fréquence max, par exemple 20kHz, ce qui donne une fréquence de Shannon à 40kHz, et on se fixe un coefficient de suréchantillonnage de # 1.1 (=> Fe # 2.2 Fmax) permettant de réduire la distorsion vers Fmax (je passe sur les détails).
Si tout cela est vrai, disserter sur ce qui se passe entre Fmax et Fe/2 présente peu d’intérêt. Mais je peux me tromper !

Ça va encore ressembler fortement à un argument d'autorité, et ce n'est pas le but, mais globalement on peut faire confiance à muster Lavry :
http://www.lavryengineering.com/innovationpage.html

Il a commencé à s'intéresser au problème des convertisseurs dans les années 70, a travaillé pour l'industrie des télécommunications (ITT, ATT), médicale, mesures (HP, Siemens), et conçu pour eux de nombreux produits.

A l'époque où Apogee ne fabriquait que des filtres, il s'est joint à eux pour se lancer dans les convertisseurs numériques, et a conçu les Apogee AD500 et DA1000. Bref, ce n'est pas le premier forumeur venu, il parle vraiment de ce qu'il connait. De plus, il est hyper cordial, jamais prétentieux, n'avance pour ainsi dire jamais l'argument d'autorité (à l'inverse d'autres "spécialistes" hautains évoqués plus tôt) et passe quand même un temps dingue à expliquer des trucs de base, comme le critère de Nyquist/Shannon.


Après, je suis comme toi : souvent je lis un truc qui me semble contradictoire avec ce que je sais déjà, donc j'aimerais bien une explication, même si c'est Lavry qui a écrit le texte !
Et même si ça doit lui arriver de se tromper, et surtout de s'emmêler dans une explication, ça doit quand même être assez rare !
925

Citation de : scare

L'une des réponses de M. Lavry m'a tellement plu que je souhaite la faire partager à tout le monde dans notre bonne vieille langue.

Merci Scare, d'avoir traduit cette réponse de Dan Lavry et du coup de rendre compréhensible (au moins en partie) pour les néophytes dans mon style le débat fourni que vous avez entre spécialistes.

926

J'approuve mister Danguit. Cette histoire de disposer de plusieurs périodes pour reconstruire correctement une fréquence  c'est bullshit. Le théorème de Nyquist n'est pas une approximation, ou une recette de cuisisne. C'est une théorème établi, prouvé et re-prouvé. On reconstitue donc parfaitement un signal de 22049 Hz avec un échantillonnage à 44,1.

Après, qu'il y ait derrière des problèmes de technologie, etc, pourquoi pas. Que la limite de l'audible ne soit pas forcément à 22050 Hz, pourquoi pas. Que des fréquences proches (mais supérieures) de 22050Hz viennent se mêler de ça et qu'on ait du repliement de spectre, aussi. Mais 2 échantillons ça suffit pour reconstruire 22049Hz, rien à voir avec les autres problèmes (qui existent, hein, et pour lesquels les solutions de Lavry semblent très sérieuses).

 

927

Lavry n'explique pas comment on choisi une fréquence d'echantillonage ...

Il explique comment fonctionne l'échantillonnage et les limites de la reconstruction du signal avec une FE à 44,1kHz. Il explique aussi que plus on monte en fréquence audio, plus il faut d'alternance de cette même fréquence audio pour que le signal d'origine soit reconstruit correctement !

respect de Nyquist + temps (période cyclique) = reconstruction parfaite.

Si la FE est 44,1 kHz, il appuie sur le fait que plus on est proche du haut de la bande passante audio plus on est susceptible d'avoir des problèmes pour reconstruire le signal audio lors de la conversion DA. Le choix de la fréquence 22049Hz comme exemple n'est là simplement que pour bien faire "sentir" le phénomène.

par exemple sur les ancien converto on devait surement avoir de gros problèmes de ce type :

Si dans un coup de cymbale on a seulement une seule période de la fréquence 20 kHz, une seule alternance, celle-ci passera-t-elle à la trappe lors de la reconstruction ?

En effet une seule période d'une sinusoïde à 20 kHz est de 50 us. Avec un échantillonnage avec une FE à 44,1kHz, soit une période de 22,6 us, nous n'aurons que deux échantillons pour sampler cette unique altenance

Lavry démontre qu'il faudrait que cette fréquence de 20 kHz soit stable durant 487 us ,(1/(22050-20000)) pour être parfaitement reconstruite, soit le temps une période cyclique.

Donc une seule altenance à 20 kHz passera à la trappe ...  icon_exorbite.gif lors de la reconstruction du signal ...

 

Maintenant ce problème de reconstruction semble appartenir au passé grâce à l'oversampling avant le filtrage de reconstruction du signal (selon lavry).

Mais concernant les converto DA morderne, il reste à creuser encore sur le focntionnement du système : comment fonctionne exactement la décimation ! Car son dernier paragraphe fait un peu peur  :

Citation :

La question existe pour le "down sampling" (décimation), par exemple à  44,1 kHz avec les filtres numériques FIR ou IIR's. Pour obtenir le FIR plus proche de Nyquist, on doit filtrer plus longtemps, et pour décimer à 22.049 KHz, il nous faudrait sans doute des centaines de milliers d'échantillons et un énorme moteur de calcul. Ce n'est pas la peine. Si vous êtes prêt à se contenter descendre la bande passante 1000Hz en dessous de Nyquist, le problème devient beaucoup plus facile (Une "période cyclique" étant 1000 fois plus courte). il est alors possible de faire la décimation avec une quantité raisonnable de données. De la même façon faire l'IIR a ses limites aussi.

 

928

Citation :

On reconstitue donc parfaitement un signal de 22049 Hz avec un échantillonnage à 44,1.

 

Dans le cas d'un ancien converto (sans oversampling), et peut être un récent, à vérifier :

 

Si tu n'a qu'en seule periode à 22049 Hz, c'est absolument impossible de reconstruire la sinusoïde complète.

Lavry dit juste ça !

Car tu n'auras que deux echantillons : un échantillon toute les 22,6 us alors qu'une période d'une freq de 22049 Hz = 45,3 us  noidea.gif

Tu as déjà reconstruit une sinusoide avec deux echantillons ?  noidea.gif

 

Il faudra suffisement de période de la freq 22049 Hz pour que les echantillons se décalant, prennent plusieurs positions sur la sinusoïde afin d'ensuite par filtrage réconstituer parfaitement ta sinusoïde.

 

[ Dernière édition du message le 11/11/2010 à 20:49:47 ]

929

Si tu utilises une FE de 44,1 kHz, il te faudra exactement 22049000000  icon_exorbite.gif alternances de ta sinusoïde de freq 22049 avant de pouvoir la reconstituer parfaitement, soit une fréq 22049 Hz pendant une seconde.

 

 

C'est bien pour cela que l'on a une marge entre FE/2 et 20Khz !!

 

 

 

[ Dernière édition du message le 11/11/2010 à 20:56:15 ]

930

Citation de Playskool :

Mais 2 échantillons ça suffit pour reconstruire 22049Hz, rien à voir avec les autres problèmes (qui existent, hein, et pour lesquels les solutions de Lavry semblent très sérieuses).

On parie ? Je te place 2 échantillons sur une grille, tu dois tracer la sinusoïde qui passe par eux. mrgreen

Il y a deux moyens d’oublier les tracas de la vie : la musique et les chats.
Albert Schweitzer