Qui peut m’expliquer la phase ?
- 53 réponses
- 12 participants
- 4 263 vues
- 11 followers
didiervdeb
2449
AFicionado·a
Membre depuis 17 ans
Sujet de la discussion Posté le 09/11/2015 à 10:43:53Qui peut m’expliquer la phase ?
Bonjour,
Je ne travaille qu’avec des VST, sauf pour la voix bien sûr, donc pas de problème véritable à l’enregistrement.
Cependant sur certains sons notamment des nappes ou des synthés complexes comme ceux d’omnisphère par exemple j’ai constaté un problème de phase lourd qui trouble l’ensemble du mix.
Par exemple j’ai un morceau ou il y’a une nappe sur toute la durée du titre. Si je mets le son en mono, plus de problème de phase, mais il perd toute son ampleur et sa beauté. J’ai testé un plug in qui fonctionne bien pour corriger ces décalages de phase, MautoAlign, mais pareil le son perd son ampleur et devient tout plat comme amputé.
S'il vous plaît, que faire pour garder la largeur du son et éviter ces problèmes de déphasage?
Merci à tous.
Je ne travaille qu’avec des VST, sauf pour la voix bien sûr, donc pas de problème véritable à l’enregistrement.
Cependant sur certains sons notamment des nappes ou des synthés complexes comme ceux d’omnisphère par exemple j’ai constaté un problème de phase lourd qui trouble l’ensemble du mix.
Par exemple j’ai un morceau ou il y’a une nappe sur toute la durée du titre. Si je mets le son en mono, plus de problème de phase, mais il perd toute son ampleur et sa beauté. J’ai testé un plug in qui fonctionne bien pour corriger ces décalages de phase, MautoAlign, mais pareil le son perd son ampleur et devient tout plat comme amputé.
S'il vous plaît, que faire pour garder la largeur du son et éviter ces problèmes de déphasage?
Merci à tous.
La musique est morte depuis bien longtemps, laisse tomber fils
Anonyme
1129
41 Posté le 21/11/2015 à 10:58:54
https://fr.audiofanzine.com/plugin-fx-divers/voxengo/PHA-979-v2/
En v'là un autre mais cent fois plus chiant à mettre en œuvre. Pourquoi faire simple quand on peut faire compliqué
De toute façon faut pas rêver, tous ces sons de synthé, ces nappes énormes ( lol, on pourrait faire un morceau rien qu'avec un seul son ) sont justement basés sur ces problèmes de phase.
- Normal... puisqu'ils occupent la totalité du champ stéréophonique.
- La formule la plus efficiente pour obtenir cette impression d'ampleur, cet espace symphonique, est d'utiliser deux '' presets '' de sons presque semblables tout en gardant la stéréo.
- On pane en L et R ces deux sons similaires mais qui ne le sont pas vraiment ( ce n'est pas une duplication de piste ). A l'oreille ou en interprétant le goniomètre, on se rend bien compte que même panés aux extrêmes L ou R, ces sons très larges dégueulent jusqu'au C ( le middle ) des pans de nos DAW.
- Et c'est là qu'intervient Psypan puisqu'il permet de réduire justement la largeur stéréo de ces sons en L et R et sans se prendre le bourrichon... y'a trois malheureux boutons. Comme expliqué plus haut, Cubase peut faire la même chose mais c'est moins flexible.
- C'est productif dans la mesure où on arrive à dégager le middle. Schématiquement on pourrait dire que l'espace L +30 et R -30 est vierge de tout son de nappe.
- Traduit en images, on pourrait dire : voilà j'ai en face à moi un mur qui fait 20m de large ( c'est la largeur de la scène, l'espace stéréo ) seulement voilà chuis con... quand j'ai construit mon mur, j'ai oublié de ménager un espace de 4m au centre pour pouvoir rentrer ma bagnole ( la voix de ta chanteuse et d'autres trucs ) Il faut donc que mes murs latéraux L et R ne fasse plus que 8m.
- Ces histoires de positionnement de sons deviennent caricaturales dans les titres antérieurs aux années 70 où au casque on a vraiment l'impression d'écouter 3 canaux et non pas de la stéréo : un canal central où il n'y a pratiquement que la voix et un canal gauche et droit où sont répartis tous les autres sons : batterie, basse, guitares, chœurs. On dirait qu'entre -10 et midi, il n'y a pas de sons, c'est scotchant. Et le pire dans tout ça c'est que ces sons coincés sur une si petite largeur sont clairs et bien distincts.
En v'là un autre mais cent fois plus chiant à mettre en œuvre. Pourquoi faire simple quand on peut faire compliqué
De toute façon faut pas rêver, tous ces sons de synthé, ces nappes énormes ( lol, on pourrait faire un morceau rien qu'avec un seul son ) sont justement basés sur ces problèmes de phase.
- Normal... puisqu'ils occupent la totalité du champ stéréophonique.
- La formule la plus efficiente pour obtenir cette impression d'ampleur, cet espace symphonique, est d'utiliser deux '' presets '' de sons presque semblables tout en gardant la stéréo.
- On pane en L et R ces deux sons similaires mais qui ne le sont pas vraiment ( ce n'est pas une duplication de piste ). A l'oreille ou en interprétant le goniomètre, on se rend bien compte que même panés aux extrêmes L ou R, ces sons très larges dégueulent jusqu'au C ( le middle ) des pans de nos DAW.
- Et c'est là qu'intervient Psypan puisqu'il permet de réduire justement la largeur stéréo de ces sons en L et R et sans se prendre le bourrichon... y'a trois malheureux boutons. Comme expliqué plus haut, Cubase peut faire la même chose mais c'est moins flexible.
- C'est productif dans la mesure où on arrive à dégager le middle. Schématiquement on pourrait dire que l'espace L +30 et R -30 est vierge de tout son de nappe.
- Traduit en images, on pourrait dire : voilà j'ai en face à moi un mur qui fait 20m de large ( c'est la largeur de la scène, l'espace stéréo ) seulement voilà chuis con... quand j'ai construit mon mur, j'ai oublié de ménager un espace de 4m au centre pour pouvoir rentrer ma bagnole ( la voix de ta chanteuse et d'autres trucs ) Il faut donc que mes murs latéraux L et R ne fasse plus que 8m.
- Ces histoires de positionnement de sons deviennent caricaturales dans les titres antérieurs aux années 70 où au casque on a vraiment l'impression d'écouter 3 canaux et non pas de la stéréo : un canal central où il n'y a pratiquement que la voix et un canal gauche et droit où sont répartis tous les autres sons : batterie, basse, guitares, chœurs. On dirait qu'entre -10 et midi, il n'y a pas de sons, c'est scotchant. Et le pire dans tout ça c'est que ces sons coincés sur une si petite largeur sont clairs et bien distincts.
Anonyme
1129
42 Posté le 21/11/2015 à 12:34:44
Mieux qu'un discours, un exemple audio.
La sonie originale du morceau a été retouchée du coup il y a une très légère saturation sur la voix mais bon : le son original n'est pas trop abimé. c'est intéressant de voir comment le goniomètre réagit et tout ce que l'on peut en déduire. Et qu'est-ce qu'il se passe lors de la réduction en mono ( qui à l'époque était courante )
Ce n'est peut-être pas évident sur ce fichier mais le goniomètre prend en compte l'intensité ( l'amplitude du signal )avec laquelle sont délivrés les sons ( ou les pistes )
Concrètement, il suffit parfois d'un son fort sur le middle pour remettre en question le taux de corrélation
Un autre archi connu remis au gout du jour par la pub
La sonie originale du morceau a été retouchée du coup il y a une très légère saturation sur la voix mais bon : le son original n'est pas trop abimé. c'est intéressant de voir comment le goniomètre réagit et tout ce que l'on peut en déduire. Et qu'est-ce qu'il se passe lors de la réduction en mono ( qui à l'époque était courante )
Ce n'est peut-être pas évident sur ce fichier mais le goniomètre prend en compte l'intensité ( l'amplitude du signal )avec laquelle sont délivrés les sons ( ou les pistes )
Concrètement, il suffit parfois d'un son fort sur le middle pour remettre en question le taux de corrélation
Un autre archi connu remis au gout du jour par la pub
[ Dernière édition du message le 21/11/2015 à 12:41:08 ]
didiervdeb
2449
AFicionado·a
Membre depuis 17 ans
43 Posté le 21/11/2015 à 13:44:07
ahghg j'ai pas le temps de tout tester... Je viens juste de comprendre psypan que tu m'as envoyé la semaine dernière tu me files trop de boulot lol
La musique est morte depuis bien longtemps, laisse tomber fils
manu147
335
Posteur·euse AFfamé·e
Membre depuis 16 ans
44 Posté le 09/12/2015 à 04:19:19
Je n'est pas lu tous le bla bla, mais pha 979 ou nastyVCS permettent de régler les déséquilibre entre l'alternance positive et négative et sa n'a vraiment rien de compliqué. Je vous conseille de regarder vos sons de temps en temps dans sound forge ou autre.
[ Dernière édition du message le 09/12/2015 à 04:26:31 ]
loicm
806
Posteur·euse AFfolé·e
Membre depuis 21 ans
45 Posté le 09/01/2016 à 00:26:40
Attention, mettre un delay sur une piste n'est pas équivalent a changer la phase.
La phase est le décalage à l'origine pour une fréquence donnée. Ca n'a pas de sens de parler de phase pour un signal comportant une infinité de fréquence. (on peut tout juste parler d'inversion de polarité).
Beaucoup de gens mélange la notion de phase. C'est impossible d'être en phase sur toutes les longueurs d'ondes dans une prise multi-micros.
C'est un abus de langage souvent dit par des gens qui ne comprenne pas ce qu'est la phase d'un signal.
Chaque longueur d'onde d'un signal complexe a une phase qui varie de 0 à 360 °. Selon la longueur de l'onde on comprend bien qu'il faudra un temps (ou une distance) différente pour que l'onde se retour en phase ou hors phase. Il est alors impossible de mettre en phase toutes les fréquences. 20 Hz = environ des dizaines de mètres et 20 KHz = environ des millimètres.
Mettre un delay c'est bouger toutes les phases de chaque longueurs d'onde d'une quantité différente. En pratique, ça donne du filtrage en peigne et c'est ce que vous entendez avec vos synthés ou en bougeant une piste d'overhead par rapport à l'autre. Ca donne un effet de largeur.
La phase est le décalage à l'origine pour une fréquence donnée. Ca n'a pas de sens de parler de phase pour un signal comportant une infinité de fréquence. (on peut tout juste parler d'inversion de polarité).
Beaucoup de gens mélange la notion de phase. C'est impossible d'être en phase sur toutes les longueurs d'ondes dans une prise multi-micros.
C'est un abus de langage souvent dit par des gens qui ne comprenne pas ce qu'est la phase d'un signal.
Chaque longueur d'onde d'un signal complexe a une phase qui varie de 0 à 360 °. Selon la longueur de l'onde on comprend bien qu'il faudra un temps (ou une distance) différente pour que l'onde se retour en phase ou hors phase. Il est alors impossible de mettre en phase toutes les fréquences. 20 Hz = environ des dizaines de mètres et 20 KHz = environ des millimètres.
Mettre un delay c'est bouger toutes les phases de chaque longueurs d'onde d'une quantité différente. En pratique, ça donne du filtrage en peigne et c'est ce que vous entendez avec vos synthés ou en bougeant une piste d'overhead par rapport à l'autre. Ca donne un effet de largeur.
Ronerone
1205
AFicionado·a
Membre depuis 20 ans
46 Posté le 09/01/2016 à 00:32:57
c'est bien le problème de pas mal de nappe de son déjà travaillées par les éditeurs. c'est le genre de chose que j'ai horreur de mixer pour d'autres...
Il t'envoient leur morceau plus ou moins mixé, avec ces nappes qui en foutent plein la vue (à première vue) mais lorsqu'il s'agit de rebosser tout ça, ben c'est la merde.
Idem avec les nappes blindées de reverb à l'avance, pour leur trouver une place, bonjour la galère.
Au final, on se retrouve à renvoyer un truc sur lequel on a galéré, dont le résultat reste propre mais qui en "jette" moins aux oreilles du géniteur.
Vive l'acoustique.
Il t'envoient leur morceau plus ou moins mixé, avec ces nappes qui en foutent plein la vue (à première vue) mais lorsqu'il s'agit de rebosser tout ça, ben c'est la merde.
Idem avec les nappes blindées de reverb à l'avance, pour leur trouver une place, bonjour la galère.
Au final, on se retrouve à renvoyer un truc sur lequel on a galéré, dont le résultat reste propre mais qui en "jette" moins aux oreilles du géniteur.
Vive l'acoustique.
Ronerone
1205
AFicionado·a
Membre depuis 20 ans
47 Posté le 09/01/2016 à 00:37:51
merde... je répondais suite aux posts de la page 2, hum, j'avais pas vu la suite.
enfin, mon avis reste le même
enfin, mon avis reste le même
didiervdeb
2449
AFicionado·a
Membre depuis 17 ans
48 Posté le 09/01/2016 à 05:58:20
Pas de soucis mais tu as bien résumé le truc quand même merci
La musique est morte depuis bien longtemps, laisse tomber fils
EraTom
2282
AFicionado·a
Membre depuis 13 ans
49 Posté le 09/01/2016 à 12:47:08
Citation :
Non. La phase est la "position instantané" d'un phénomène cyclique. Le "décalage à l'origine" est la phase initiale et l'origine est fixée de manière conventionnelle.La phase est le décalage à l'origine pour une fréquence donnée. Ca n'a pas de sens de parler de phase pour un signal comportant une infinité de fréquence. (on peut tout juste parler d'inversion de polarité).
La phase est alors l'intégration de la pulsation (par rapport au temps ou la position), proportionnelle à la fréquence.
Evoquer la phase d'un signal qui n'est pas périodique (ou pseudo-périodique) n'a évidemment aucun sens mais on évoque alors une densité de phase : Un spectre en fréquence.
C'est exactement le même principe que la densité spectrale de puissance.
Citation :
Ca revient à déplacer la "phase initiale" et c'est bien une façon de faire "varier" la phase au sens où tu l'entends.Attention, mettre un delay sur une piste n'est pas équivalent a changer la phase.
Mettre un delay, ou retarder un signal périodique, induit bien un décalage de phase et c'est le propre des phénomènes ondulatoires.
Mais ce n'est effectivement pas la seul manière de modifier les phases d'un paquet d'ondes.
Citation :
Ce n'est pas comme cela que ça fonctionne.Chaque longueur d'onde d'un signal complexe a une phase qui varie de 0 à 360 °. Selon la longueur de l'onde on comprend bien qu'il faudra un temps (ou une distance) différente pour que l'onde se retour en phase ou hors phase. Il est alors impossible de mettre en phase toutes les fréquences. 20 Hz = environ des dizaines de mètres et 20 KHz = environ des millimètres.
La vitesse d'un paquet d'onde est caractérisé par deux vitesses : La vitesse de phase et la vitesse de groupe.
La vitesse de phase correspond à la vitesse de propagation dans un milieu. Elle est égale à la pulsation sur le nombre d'onde (l'inverse de la longueur d'onde).
La vitesse de groupe est la variation instantanée de la pulsation par rapport au nombre d'onde.
Dans l'air la vitesse de propagation ne dépend pas de la longueur d'onde. Il n'y a alors pas de différence entre la vitesse de phase et la vitesse de groupe et ceci implique qu'il n'y a pas de dispersion du paquet d'ondes.
Le microphone qui sert à la captation, lui, n'est pas un système "à phase linéaire" et induit une distorsion de phase. S'il y a dispersion du paquet d'ondes c'est là que ça se passe et pas ailleurs.
loicm
806
Posteur·euse AFfolé·e
Membre depuis 21 ans
50 Posté le 09/01/2016 à 14:40:34
je suis ok avec ce que tu dis mais ce sera difficilement compréhensible pour des néophytes.
phase à l'origine, phase instantanée ... vecteur tournant ... difficile pour un néophyte de s'y retrouver.
l'argument du cos ou sin est effectivement (w*t+phi) avec phi la phase à l'origine et (w*t+phi) la phase instantanée.
Varier le temps revient a varier la phase : delta_phi=(2Pi*t/T) avec grand T la période du signal et t le temp de décalage entre les deux ondes de même fréquence.
Tu parles de spectre en fréquence mais en général dans les softs de MAO, la représentation montre juste l'amplitude en fonction de la fréquence et ne donne pas accès a la phase spectrale. La densité spectrale de puissance est juste le module au carré de la transformée de Fourier.
On perd l'info des phases, on ne garde que le module de cette fonction complexe.
Rare sont les représentations de la phase spectrale pour les gens qui font du son. Ni dans les datas des micros, préamp, plugins, etc ...
Les seules mesures que je connaisse sur les phases sont le bruit de phase qui est la densité spectrale du bruit de fluctuation des phases d'un signal et le sonogramme. Le spectrogramme te montre seulement l'amplitude spectrale ou la puissance spectrale comme tu l'as dit.
Le sonagramme est un graph à trois axes qui donne le temps, l'amplitude et la fréquence : on a alors tout, la phase spectrale, l'amplitude spectrale : c'est rarement utilisé par nous dans le son. En envoyant un dirac dans un système son, on voit alors très vite la dispersion totale du système.
Pas besoin de parler de délais de temps de groupe et de dispersion pour expliquer les différences de phase d'un signal complexe a des néophytes. Dans l'air sans dispersion, comme tu le dis, y'a pas de dispersion donc vitesse de phase = vitesse de groupe. Le vecteur K de propagation est bien le même pour ce qui nous concerne et donc il n'y a pas de chirp. K ne dépend pas de omega.
Il n'y a pas que le microphone qui puisse induire de la dispersion : le filtrage fait bien plus de ravage sur ce point que la dispersion d'un bon micro. Cette donnée n'est d'ailleurs jamais donnée par les fabricants. C'est là que se passe beaucoup de chose pourtant.
Mais le filtrage par nature introduit de la dispersion. S'amuser a vouloir mettre des micros en phase pour après filtrer le signal avec des EQ est juste un non sens. Même les algorithmes à phase linéaire n'y arrivent pas pour raison de causalité. Il faudrait un temps infini de calcul.
Il y a une petite boite analogique avec des passe tous qui permet de triturer la phase : l'IBP ( http://www.littlelabs.com/ibp.html )
Qui existe aussi en plus logiciel.
phase à l'origine, phase instantanée ... vecteur tournant ... difficile pour un néophyte de s'y retrouver.
l'argument du cos ou sin est effectivement (w*t+phi) avec phi la phase à l'origine et (w*t+phi) la phase instantanée.
Varier le temps revient a varier la phase : delta_phi=(2Pi*t/T) avec grand T la période du signal et t le temp de décalage entre les deux ondes de même fréquence.
Tu parles de spectre en fréquence mais en général dans les softs de MAO, la représentation montre juste l'amplitude en fonction de la fréquence et ne donne pas accès a la phase spectrale. La densité spectrale de puissance est juste le module au carré de la transformée de Fourier.
On perd l'info des phases, on ne garde que le module de cette fonction complexe.
Rare sont les représentations de la phase spectrale pour les gens qui font du son. Ni dans les datas des micros, préamp, plugins, etc ...
Les seules mesures que je connaisse sur les phases sont le bruit de phase qui est la densité spectrale du bruit de fluctuation des phases d'un signal et le sonogramme. Le spectrogramme te montre seulement l'amplitude spectrale ou la puissance spectrale comme tu l'as dit.
Le sonagramme est un graph à trois axes qui donne le temps, l'amplitude et la fréquence : on a alors tout, la phase spectrale, l'amplitude spectrale : c'est rarement utilisé par nous dans le son. En envoyant un dirac dans un système son, on voit alors très vite la dispersion totale du système.
Pas besoin de parler de délais de temps de groupe et de dispersion pour expliquer les différences de phase d'un signal complexe a des néophytes. Dans l'air sans dispersion, comme tu le dis, y'a pas de dispersion donc vitesse de phase = vitesse de groupe. Le vecteur K de propagation est bien le même pour ce qui nous concerne et donc il n'y a pas de chirp. K ne dépend pas de omega.
Il n'y a pas que le microphone qui puisse induire de la dispersion : le filtrage fait bien plus de ravage sur ce point que la dispersion d'un bon micro. Cette donnée n'est d'ailleurs jamais donnée par les fabricants. C'est là que se passe beaucoup de chose pourtant.
Mais le filtrage par nature introduit de la dispersion. S'amuser a vouloir mettre des micros en phase pour après filtrer le signal avec des EQ est juste un non sens. Même les algorithmes à phase linéaire n'y arrivent pas pour raison de causalité. Il faudrait un temps infini de calcul.
Il y a une petite boite analogique avec des passe tous qui permet de triturer la phase : l'IBP ( http://www.littlelabs.com/ibp.html )
Qui existe aussi en plus logiciel.
- < Liste des sujets
- Charte