DEBAT : est-ce qu'on a moins de profondeur/niveau avec un mix seulement software/ordi?
- 1 172 réponses
- 79 participants
- 93 965 vues
- 129 followers

maxxsoultronik

une petite question.
Je viens de me mettre au mixage d'album rock. J'avais une assez longue expérience dans la production de musique électronique et j'ai eu envie de me diversifier.
Mes premiers mixs sonnent bien, les labels et artistes sont content. Cependant, perfectionniste dans l'âme, j'ai un petit soucis. Bien qu'il ne soit pas encore masterisé, j'ai l'impression que mes mixent manquent de profondeur, d'un peu de niveau, de présence... C'est difficile à expliquer. J'arrive progressivement à améliorer ce problème en renforçant l'image stéréo, la compression, en triggant la batterie, etc. Mais même après des heures passées à bosser de très bonnes prises réalisées dans un studio pros, j'ai toujours ce petit problème de rondeur-puissance-profondeur qui me manque un peu...
Alors ma question est :
- est-il possible d'avoir un mixage excellent, puissant et prifond, juste avec des plugs ins (sans hardware, ni table de mixage)?
- est-ce que le mastering amène réellement de la profondeur au mixage?
- est-ce que ce manque de grain, de pêche est le revert de la médaille d'utiliser uniquement un ordinateur?
Me conseillerez vous de repasser à la fin toutes mes pistes mixées dans une ssl ou une neve et de corrigier le tout pour gagner un peu en grain et en pêche?
MERCI ;)

scare

Citation :
Dès qu'il y a circuit intégré, c'est une autre histoire...
Les CMS c'est pour le DIYER chinois de moins de 5 ans, avec ses petit doigt ça passe .
C'est vrai que voir une carte en cms, c'est pas la fête à popol !
Hors sujet :
le 1073 n'est pas si simple, regarde juste la doc sur le site de neve et essaye de comprendre comment mettre les résistances sur le switch elma à 3 étage
!
Jean luc, t'as sorti du lourd il me semble, je vais me potasser tout ça.
Construction du nouveau studio
Visitez le site THD STUDIO / page FB THD Studio
Dossier : Conversion analogique-numérique (pour les courageux)

Dr Pouet

Dr Pouet> LE bit de la modulation sigma delta est le dernier de la famille des 24, le petit, le LSB. Il ne peut en aucun cas remplacer le gros qui est 16 million de fois plus costaud, je pense que ton calcul est un chouille optimiste.
D'un point de vue théorie de l'information, il n'y a pas de soucis : on pourrait très bien "décider" (vision mathématique et pas du tout électronique) que
- le premier bit fait monter ou descendre de la moitié de la tension électrique gérée par le convertisseur
- le deuxième bit d'un quart de la tension
- le troisième d'un huitième
etc...
Par contre, comment ça marche, réellement, dans le circuit électronique...
Je crois que je l'ai déjà lu plein de fois, me souviens plus si j'avais compris ou pas, en tout cas je n'ai pas retenu...


J-Luc

Citation :
C'est vrai que voir une carte en cms, c'est pas la fête à popol !
Ma boîte en fait quelques millions par an sur Limoges et Angoulême (entre autres), c'est pas simple à industrialiser, c'est chiant à tester mais c'est rigolo.
Citation :
- le premier bit fait monter ou descendre de la moitié de la tension électrique gérée par le convertisseur
- le deuxième bit d'un quart de la tension
- le troisième d'un huitième
Convertisseur R/2R classique. Ce sont des convertisseurs parallèles, pas des sigma/delta.
Citation de Jeriqo :
ça voudrait dire que l'intégrateur agit dans le domaine analogique.
C'est quand même très très fréquent : une capa dans la contre-réaction d'un ampli op. R et C fixent la constante de temps d'intégration (premier ampli) :
Il y a deux moyens d’oublier les tracas de la vie : la musique et les chats.
Albert Schweitzer
[ Dernière édition du message le 10/11/2010 à 15:34:57 ]

Dr Pouet

Convertisseur R/2R classique. Ce sont des convertisseurs parallèles, pas des sigma/delta.
Certes, mais c'était une manière de dire que "le bit" en delta-sigma n'est pas le LSB, sinon il va effectivement en falloir 16 millions pour une sinusoïde proche de FE/2, et ça donnerait une fréquence d'échantillonnage 1-bit un peu élevée.

D'un point de vue théorique, il y a une correspondance directe.
Après, d'un point de vue technique, je veux bien croire que c'est une autre histoire, et que ce soit un chouille optimiste !

J-Luc

Citation :
Certes, mais c'était une manière de dire que "le bit" en delta-sigma n'est pas le LSB, sinon il va effectivement en falloir 16 millions pour une sinusoïde proche de FE/2, et ça donnerait une fréquence d'échantillonnage 1-bit un peu élevée.
Voilà, ben c'était là dessus que je calais (comme ils disent à Douvre). Rien dans les dizaines de schémas que j'ai vus ne permet de donner autre chose que 1 LSB comme valeur à l'unique bit du Sigma-Delta. le sommateur est bien un sommateur basique (voir l'algo cité plus haut : 10 bits : 1024 boucles).
Il y a deux moyens d’oublier les tracas de la vie : la musique et les chats.
Albert Schweitzer

jeriqo

Citation de : Dr Pouet
Citation :Convertisseur R/2R classique. Ce sont des convertisseurs parallèles, pas des sigma/delta.
Certes, mais c'était une manière de dire que "le bit" en delta-sigma n'est pas le LSB, sinon il va effectivement en falloir 16 millions pour une sinusoïde proche de FE/2, et ça donnerait une fréquence d'échantillonnage 1-bit un peu élevée.
Dans le cas d'un convertisseur à 1 bit (et pas multi bit comme le AKM cité), c'est bien un bit de poids faible, mais ce n'est pas un problème car on a déjà les 23 autres bits dans l'échantillon précédent : c'est du relatif, +/-1 par rapport à l'échantillon précédent.
Ceci à une fréquence suffisamment élevée pour ne pas avoir de différence supérieure à 1 bit entre 2 échantillons.
Ensuite on peut diminuer la fréquence si on augmente le nombre de bits (mais au final ca revient à se rapprocher PCM)
( et/ou en intégrant le signal comme l'explique J-Luc)
Après c'est une question de balance entre nombre de bits et fréquence.

J-Luc

Citation :
c'est du relatif, +/-1 par rapport à l'échantillon précédent.
Citation :
Ceci à une fréquence suffisamment élevée pour ne pas avoir de différence supérieure à 1 bit entre 2 échantillons.
La fameuse saturation de pente guette !
C'est ici que nos réflexions convergent sur la compréhension de ce type de convertisseurs.
Il y a deux moyens d’oublier les tracas de la vie : la musique et les chats.
Albert Schweitzer

Playskool17

Citation de : Dr Pouet
Citation :Certes, mais c'était une manière de dire que "le bit" en delta-sigma n'est pas le LSB, sinon il va effectivement en falloir 16 millions pour une sinusoïde proche de FE/2, et ça donnerait une fréquence d'échantillonnage 1-bit un peu élevée.
Oui mais non. Si j'ai bien compris (je sais, c'ets moche de démarrer avec une hypothèse pareille, mais j'ai rien trouvé d'autre), le bit est bien le LSB. En modulation delta, il faudrait donc effectivement 16 millions de bit pour passer de la valeur la plus haute à la plus basse, d'où une fréquence d'échantillonnage très élevée (2300 GHz d'après mes calculs....) si on veut une bande passante à 22kHz.
Sauf qu'ici on est en delta sigma, le signal est intégré en analogique avant d'entrer dans la partie conversion pure. Du coup, la condition de " non saturation ne dépend plus de la fréquence, uniquement de l'amplitude du signal (sans distinction de temps et de pente du signal originel donc). Donc y'a bon.
Par contre du coup, je ne comprends plus pourquoi 192 kHz peut poser un problème de précision (à part quand on repasse en 44.1 kHz bien sûr).

J-Luc

J'adhère avec ton calcul GigaHertzien, c'est visiblement pas comme ça que c'est construit.
Citation :
Par contre du coup, je ne comprends plus pourquoi 192 kHz peut poser un problème de précision
Bruit, temps de réponse du comparateur qui fait tout le boulot, précision du-dit comparateur (qui est quand même au poil de bit près) ...
Citation :
(à part quand on repasse en 44.1 kHz bien sûr).
J'avais trouvé un site qui explique qu'on moyenne 4 échantillons à 192kHz pour en avoir un à 44,1 et que ça a plein d'avantages dont un effet passe-bas anti-aliasing automatique. Donc no problemo.
Il y a deux moyens d’oublier les tracas de la vie : la musique et les chats.
Albert Schweitzer

Will Zégal

Citation :A la louche, j'estime le cout de fabrication d'une unité à 400/500 euros grand grand max (hors design et tout le tralala), juste la fabrication et l'assemblage. C'est vendu 3000, ce qui doit couvrir tout les autre frais et faire une marge.
Afin que ceux qui sont très loin des domaines d'industrialisation ne tombent pas de leur siège, il serait bon de rappeler qu'un écart de 1 à 5 entre le prix de fabrication d'un produit et son prix de commercialisation (sortie d'usine) n'a rien d'exceptionnel. Ni d'anormal ou de honteux compte tenu de tout ce qu'il y a à payer en plus de prix de revient brut (qui est lui-même supérieur à la somme des coûts de composants).
Viennent ensuite les intermédiaires qui doivent logiquement se rémunérer.
On voit bien dans certains domaines certains constructeurs s'affranchir des intermédiaires pour faire baisser les prix, mais le résultat n'est pas forcément significatif. Un bon exemple est Dell qui, s'il est bien placé au niveau prix, ne vend cependant pas 40 ou 50 % moins cher que les autres. Pourquoi ? Parce qu'il doit lui-même supporter le coût des dits services qui étaient auparavant assurés par des intermédiaires.
Pour finir, les domaines et produits qui autorisent une commercialisation directe par le constructeur sont rares. Soit des produits de grande échelle qui n'ont pas besoin d'être vus et essayés pour être achetés et ont un fort taux de fiabilité (les ordinateurs). Soit les produits haut de gamme vendus à très peu d'unités. A qualité équivalente, la différence de prix pour le consommateur et la différence de revenus pour le constructeurs n'est énorme par rapport aux circuits traditionnels.

Zerosquare

Citation de : J-Luc
précision du-dit comparateur (qui est quand même au poil de bit près)
Mine de rien, cette expression est excellente
Pour la conversion 192 -> 44.1, "moyennage" il faut l'entendre au sens large. Ce n'est pas une simple moyenne arithmétique mais un vrai filtre numérique, et il faut plus de 4 échantillons pour faire du boulot de qualité.

jeriqo

Citation de : Will Zégal
Hors sujet :Citation :A la louche, j'estime le cout de fabrication d'une unité à 400/500 euros grand grand max (hors design et tout le tralala), juste la fabrication et l'assemblage. C'est vendu 3000, ce qui doit couvrir tout les autre frais et faire une marge.
Afin que ceux qui sont très loin des domaines d'industrialisation ne tombent pas de leur siège, il serait bon de rappeler qu'un écart de 1 à 5 entre le prix de fabrication d'un produit et son prix de commercialisation (sortie d'usine) n'a rien d'exceptionnel. Ni d'anormal ou de honteux compte tenu de tout ce qu'il y a à payer en plus de prix de revient brut (qui est lui-même supérieur à la somme des coûts de composants).
Viennent ensuite les intermédiaires qui doivent logiquement se rémunérer.
On voit bien dans certains domaines certains constructeurs s'affranchir des intermédiaires pour faire baisser les prix, mais le résultat n'est pas forcément significatif. Un bon exemple est Dell qui, s'il est bien placé au niveau prix, ne vend cependant pas 40 ou 50 % moins cher que les autres. Pourquoi ? Parce qu'il doit lui-même supporter le coût des dits services qui étaient auparavant assurés par des intermédiaires.
Pour finir, les domaines et produits qui autorisent une commercialisation directe par le constructeur sont rares. Soit des produits de grande échelle qui n'ont pas besoin d'être vus et essayés pour être achetés et ont un fort taux de fiabilité (les ordinateurs). Soit les produits haut de gamme vendus à très peu d'unités. A qualité équivalente, la différence de prix pour le consommateur et la différence de revenus pour le constructeurs n'est énorme par rapport aux circuits traditionnels.
D'accord avec ceci, cependant qu'est ce qui empêche de mettre un convertisseur à $10 plutôt qu'un convertisseur à $5 dans une carte vendue $800 ?
>La justification d'en vendre une meilleure à $1200 ;)

Playskool17

Citation de : J-Luc
J'adhère avec ton calcul GigaHertzien, c'est visiblement pas comme ça que c'est construit.
Citation :
Par contre du coup, je ne comprends plus pourquoi 192 kHz peut poser un problème de précision
Bruit, temps de réponse du comparateur qui fait tout le boulot, précision du-dit comparateur (qui est quand même au poil de bit près)
...
J'ai pas vérifié les calculs de ton doc, mais à priori effectivement il explique que le bruit de quantification en sigma delta est rejeté vers les hautres fréquences (il subit un filtre passe-haut). Donc effectivement, pour un même convertisseur, si on veut vraiment du 192 kHz on aura plus de bruit qu'à 44.1. Ce truc est magique.

Will Zégal

D'accord avec ceci, cependant qu'est ce qui empêche de mettre un convertisseur à $10 plutôt qu'un convertisseur à $5 dans une carte vendue $800 ?
>La justification d'en vendre une meilleure à $1200
Pas seulement. Si tu es dans l'industrie, tu sauras que tous les composants d'un produit (et leur prix) entrent en compte. Il faut savoir qu'on applique des coefficients. Un converto à 10 $ au lieu de 5 ne représente donc pas simplement 5$ de plus sur le prix de vente final.
Si tu multiplies le prix de tous les composants par deux, tu n'as plus une carte à 800 €.
Inversement, mettre un composant sur-qualifié sur un produit n'a pas de sens : c'est juste un surcoût incohérent. Surcoût qui sera multiplié à l'arrivée. Or, 50 ou 100 € d'écart sur un prix de vente, mine de rien, ça compte.

Dr Pouet

Pour la conversion 192 -> 44.1, "moyennage" il faut l'entendre au sens large. Ce n'est pas une simple moyenne arithmétique mais un vrai filtre numérique, et il faut plus de 4 échantillons pour faire du boulot de qualité.
Si je ne m'abuse, c'est justement là qu'il faut idéalement remplacer chaque sample par une fonction sinc (sin(x)/x) (de la même amplitude).
D'accord avec ceci, cependant qu'est ce qui empêche de mettre un convertisseur à $10 plutôt qu'un convertisseur à $5 dans une carte vendue $800 ?
Je m'étais amusé avec mon ancien mac portable à dégrader le bit de poids faible d'un signal sonore, et ça s'entendait avec un casque branché sur la carte intégrée, preuve que les constructeurs ne mettent pas forcément une puce de conversion "premier prix" alors qu'ils le pourraient. Bon ok ça ne s'entendait qu'avec du silence comme signal sonore...

Sauf qu'ici on est en delta sigma, le signal est intégré en analogique avant d'entrer dans la partie conversion pure.
Pourrais-tu détailler ? Je crois que c'est à partir de là que je comprend plus !

Zerosquare

Citation de : Dr Pouet
Si je ne m'abuse, c'est justement là qu'il faut idéalement remplacer chaque sample par une fonction sinc (sin(x)/x) (de la même amplitude).
Tu ne t'abuses pas

Playskool17

Dr Pouet: Quelle partie ? L'intégration en analogique, ou l'intérêt de l'intégration en analogique ?
[ Dernière édition du message le 10/11/2010 à 18:51:51 ]

Playskool17

Bon, faut que je parte là, alors je me lance dans le vide, et je corrige un erreur au passage.
On considère un signal d'entrée de la forme f(t)= a * cos(2 Pi * f * t)
Au passage attention: "t" désigne le temps qui passe, "T" la durée entre deux prélèvements
Conversion du signal originel en direct: la condition de non saturation de pente impose:
T < Delta / (2*Pi*a*f)
Delta=1, Pi=Pi , a= 8388608 (24 bits divisés par deux), f=22500
On obtient T= 8,6e-13, soit une fréquence d'échantillonnage supérieure à 1100 Ghz.
Conversion du signal intégré: la condition de non saturation de pente devient T < Delta / a
Donc du coup j'obtiens T < 1,1e-7, soit une fréquence d'échantillonnage supérieure à 8.3 MHz.
On se rapproche des 6,1 évoqués plus haut, mais j'ai peut-être laissé passer une coquille, et je ne connais pas la Fe de ces engins.
[ Dernière édition du message le 10/11/2010 à 19:27:14 ]

Anonyme

je suis complètement largué!
C'était quoi déjà la question?
Citation :
mais à priori effectivement il explique que le bruit de quantification en sigma delta est rejeté vers les hautres fréquences
il y a un lien entre le BDQ et les fréquences?
[ Dernière édition du message le 10/11/2010 à 19:41:49 ]

Zerosquare

Oui. Sur un convertisseur classique, le bruit de quantification est réparti équitablement sur tout le spectre (c'est du bruit blanc, quoi). Le but du noise-shaper, c'est de faire diminuer la densité de bruit en basse fréquence (entre 0 et f/2, f étant la fréquence d'échantillonnage après décimation), avec pour effet secondaire de l'augmenter en hautes fréquences (entre f/2 et F/2, F étant la fréquence d'échantillonnage réelle du convertisseur).

Anonyme

un genre de quantification non uniforme en fait, mais au lieu que la quantification dépende du niveau, elle dépend de la bande de fréquence, c'est ca?

Zerosquare

Oui, on peut voir ça comme ça.

Anonyme


scare

Citation :
Sur un convertisseur classique, le bruit de quantification est réparti équitablement sur tout le spectre (c'est du bruit blanc, quoi)
Je suis d'accord sur ce modèle lorsque le signal analogique varie beaucoup en fréquence ou présente de grandes amplitudes, mais ce n'est pas tout le temps le cas :
Il arrive parfois que le bruit de quantification ne soit pas aléatoire et non uniforme. Par exemple lorsque le signal analogique est relativement stable pendant la durée de plusieurs échantillons ou quand les niveaux sont très très faibles.
Dans ces cas, la distribution du bruit de quantification est fortement corrélée à l'amplitude du signal analogique en entrée.
Par exemple, pour un signal analogique d'amplitude presque constante pendant plusieurs échantillons (+/- 0,5 LSB), le signal numérisé va rester bloqué sur une même valeur d'échantillon, même si le signal analogique varie de +/- 0,5 LSB.
Dans ce cas, au lieu d'être un bruit additif aléatoire, l'erreur de quantification va ressembler à un effet de seuil ou une étrange distorsion.
Construction du nouveau studio
Visitez le site THD STUDIO / page FB THD Studio
Dossier : Conversion analogique-numérique (pour les courageux)

J-Luc

Citation de Playskool :
Pi*a*f
Excuse moi mais lol tout de même.
Il y a deux moyens d’oublier les tracas de la vie : la musique et les chats.
Albert Schweitzer
- < Liste des sujets
- Charte