réactions au dossier [Bien débuter] Qu'est-ce que la phase en audio ?
- 90 réponses
- 25 participants
- 5 984 vues
- 33 followers
Los Teignos
Lire l'article
Ce thread a été créé automatiquement suite à la publication d'un article. N'hésitez pas à poster vos commentaires ici !
__________________________________________________________________________________
Le GIEC chiffre à 3,3 milliards le nombre de victimes du réchauffement climatique. On en parle ?
Anonyme
C’est d’ailleurs sur ce phénomène que reposent les casques à annulation de bruit : le casque capte via un micro le bruit ambiant qu’il réintroduit en opposition de phase
Attention à la terminologie.
Dans ce cas on parle de polarité du signal. Le terme phase ne s'applique qu'à un signal sinusoîdal ou onde périodique.
[ Dernière édition du message le 26/10/2020 à 13:03:21 ]
iktomi
Wolfen
Attention à la terminologie.
Dans ce cas on parle de polarité du signal. Le terme phase ne s'applique qu'à un signal sinusoïdal ou onde périodique.
Je ne suis pas d'accord avec ça. Quand on fait une transformée de Fourier sur un signal, pour regarder ce qu'on appelle "son contenu fréquentiel", on utilise un outil qui normalement n'est fait que pour regarder des signaux sinusoidaux et périodiques, les séries de Fourier, pour faire tout un tas de choses (visualisation, traitements etc.) à l'intérieur d'un échantillon du signal, de taille limitée (par exemple 2048 samples), en considérant localement ce qui se passe dans cet échantillon comme périodique pour pouvoir en tirer des conclusions locales et plus globales sur un signal. C'est une manière d'énoncer le principe de la transformée de Fourier, qui sert à faire des analyseurs de spectre, de la convolution et tout un tas de trucs. Et dans ce contexte, la FFT (fast fourier Transform), l'outil qui renvoie les informations fréquentielles, donne comme info pour différentes fréquences une amplitude et une phase.
De la même manière, quand on regarde un fichier WAV, ça peut avoir du sens de le considérer comme un échantillon périodique de quelque chose qui aurait une taille infinie, et qui serait ce fichier WAV lu en boucle. Donc la notion de phase fonctionne dans ce cadre.
Je rajouterai qu'on parle quand même plus souvent de la phase par rapport à la réponse d'un filtre, comme celui d'un EQ, ce qui va avoir comme effet de mettre du bordel dans les informations de phase d'un signal, et créer des "problèmes de phase" de différentes manières si on s'amuse à mixer le signal non traité avec le signal traité par l'EQ, sauf si celui-ci est "à phase linéaire".
Une conséquence, vu que tout espace acoustique ou système d'enregistrement peut être vu en première approximation comme un filtre, c'est que si on enregistre une même source avec deux micros différents, on va avoir deux signaux numériques "corrélés", c'est-à-dire provenant de la même source, mais avec un contenu fréquentiel différent, de part les atténuations ou boosts de chaque système, mais aussi au niveau de la phase, et donc le mix des deux signaux aura là aussi son lot de "problèmes de phase".
Je pense que c'est très important de comprendre et de noter que le problème de phase ne vient pas juste du fait que les deux signaux soient ou parfaitement en phase ou complètement hors phase avec une inversion de polarité. Il y a aussi les états intermédiaires qui vont créer des atténuations du signal, et ce sur la totalité des fréquences ou seulement à certaines, à différents degrés, ce qui va créer tout un bordel potentiel divers et variés
Je terminerai en indiquant qu'on peut faire une utilisation créative de ces problèmes de phase, c'est le principe du chorus / flanger / phaser, même si dans ces 3 cas on ne les créé pas de la même façon. Et on se retrouve avec des trous fréquentiels espacés de manière identique ou de plus en plus proches selon la méthode.
Développeur de Musical Entropy | Nouveau plug-in freeware, The Great Escape | Soundcloud
GENESIS06220
JLDavid
RdjpR
RdjpR
Schizoide
Will Zégal
Joli cadre aussi.
rroland
des conseils pour éviter cela, et les outils pour le corriger quand c'est trop tard. Merci!
Surveiller l’analyseur de phase, il y en a généralement un inclus dans les outils de mesure dans le logiciel audio. Sinon, il existe des plug in gratuits, comme celui-ci :
https://fr.audiofanzine.com/plugin-analyseur/voxengo/correlometer/news/a.play,n.42988.html" rel="ugc noopener" target="_blank"> https://fr.audiofanzine.com/plugin-analyseur/voxengo/correlometer/news/a.play,n.42988.html
Pour les solutions : soit l’inverseur de phase au mixage sur l’une des deux pistes, mais cela agit à 180°.
Sinon, Little Labs fabrique d’excellents outils (qui travaillent par pas de quelques degrés), et cela existe aussi en plug in..
Il est aussi possible de bouger la piste à la main, de quelques millièmes de seconde, jusqu’à ce que les deux pistes soient en phase.
kosmix
Nous reparlerons donc de tout cela car si je veux être en phase avec le titre de cette émission
Putain Walter mais qu'est-ce que le Vietnam vient foutre là-dedans ?
Dr Pouet
Je pense que c'est très important de comprendre et de noter que le problème de phase ne vient pas juste du fait que les deux signaux soient ou parfaitement en phase ou complètement hors phase avec une inversion de polarité. Il y a aussi les états intermédiaires qui vont créer des atténuations du signal, et ce sur la totalité des fréquences ou seulement à certaines, à différents degrés, ce qui va créer tout un bordel potentiel divers et variés
Justement : parfaitement en phase, ou déphasé, ce sont des cas particuliers, indépendants de la fréquence. C’est plutôt dans les autres cas que le mot « phase » prend tout son sens.
D’une manière générale, la phase est un truc pas toujours intuitif.
Dr Pouet
Il est aussi possible de bouger la piste à la main, de quelques millièmes de seconde, jusqu’à ce que les deux pistes soient en phase.
Attention, là tu parles d’alignement temporel, ce qui est différent de la phase.
Pour une fréquence donnée (une sinusoïde), on peut convertir des millisecondes en degrés. Mais pour chaque fréquence différente le décalage en degrés sera différent (d’où le filtrage en peigne évoqué par Los Teignos).
Cas particulier : un décalage de 0s donne un déphasage nul indépendamment de la fréquence. Une inversion de polarité entraîne un déphasage de 180° quelle que soit la fréquence.
kosmix
Putain Walter mais qu'est-ce que le Vietnam vient foutre là-dedans ?
[ Dernière édition du message le 26/10/2020 à 16:24:26 ]
Grebz
rroland
Attention, là tu parles d’alignement temporel, ce qui est différent de la phase.
Entièrement d'accord, mais cela peut sauver les meubles.
La phase c'est un truc trop compliqué à gérer pour moi, il faudrait déjà que je sois capable d'en détecter les problèmes, or à l'oreille je détecte que dalle.
Il suffit d'écouter la piste stéréo en mono. Si les deux pistes sont hors phase, le niveau d'écoute va baisser, voire disparaitre si inversion totale de polarité.
Fmarine
Dr Pouet :
Attention, là tu parles d’alignement temporel, ce qui est différent de la phase.
Pour une fréquence donnée (une sinusoïde), on peut convertir des millisecondes en degrés. Mais pour chaque fréquence différente le décalage en degrés sera différent (d’où le filtrage en peigne évoqué par Los Teignos).
Cas particulier : un décalage de 0s donne un déphasage nul indépendamment de la fréquence. Une inversion de polarité entraîne un déphasage de 180° quelle que soit la fréquence.
CQFD
Caca In -> Caca Out
the bubble
y a t il une autre stratégie à adopter que d'inverser la phase pour corriger le problème?
merci!
[ Dernière édition du message le 26/10/2020 à 18:41:13 ]
iktomi
Trés bien expliqué merci vu la complexité de l'acoustique ,une des sciences les plus compliquée.
En fait toutes les sciences sont de complexité égales, c'est surtout une question de maitrise du sujet, d'avancée de la science en question, et d'approfondissement de sujet...
[ Dernière édition du message le 26/10/2020 à 19:08:27 ]
trazom
je viens de lire le sujet et vérifier mes mixs. certains sont sans soucis et d'autres avec des problèmes de phase soit sur des sons de basse [...]
Je comprends pas trop. Pour qu'il y ait un problème de phase, il faut qu'il y ait 2 pistes. Ta basse est enregistrée avec deux micros ? Ou doublée sur une piste avec un effet ? Sinon, elle n'est pas en phase avec quoi ?
Will Zégal
Jan mk2
Déjà, la partie différence d'intensité n'a rien à voir avec la phase. Et c'est pourtant ce que font tous les mixeurs lorsqu'ils manipulent un pan-pot.
Mais en ce qui concerne la différence de temps : un son qui arrive de la gauche est perçu normalement un peu plus fort et plus tôt par l'oreille gauche. Le fait qu'il soit perçu plus tôt est sensible dans la partie basse du spectre audio, ce qui semble confirmer l'hypothèse que l'oreille n'est pas tellement sensible à la phase. Car les longueurs d'onde dans le grave ne permettent pas de doute sur la relation de phase entre la droite et la gauche (elles sont plus grandes que la distance inter oreille), ce qui n'est pas le cas dans l'aigu.
Dans l'aigu, lorsque la longueur d'onde est inférieure à la distance entre les deux oreilles, on ne peut pas savoir quel est vraiment le retard, à cause du "modulo 2π". A 10kHz, la longueur d'onde est 340/10000 = 3,4cm. Soit quatre à cinq fois moins que la distance entre les deux tympans.
Pourtant, tout être humain qui entend une cloche sait d'où provient le son. Si la phase était cette source de connaissance, nous hésiterions entre plusieurs directions. C'est ce qui me fait penser (et pas que moi, sinon ça n'aurait pas d'intérêt) que c'est bien le retard qui est pris en compte, et pas la phase. La différence de phase est une conséquence du retard, et seulement une conséquence.
Au niveau de ce qu'on doit savoir lorsqu'on mixe en stéréo bi-canal sur deux enceintes, c'est suffisant. Mais en fait, la restitution du relief met en cause des notions plus étendues que ces seuls deux critères.
Alan Parson a peut-être dit : "Audiophiles don't use their equipment to listen to your music. Audiophiles use your music to listen to their equipment."
[ Dernière édition du message le 26/10/2020 à 22:13:27 ]
Jan mk2
Mais bon, c'est tout de même moins compliqué que la loi de Shannon/Nyquist qui fait couler beaucoup d'encre
Deux micros captant une même source à deux distances différentes, cela provoque en théorie un décalage de phase sur la partie son direct. Mais cette partie peut être assez minoritaire sur le micro éloigné dans une acoustique qui n'est pas très absorbante, et ceci sans même parler des courbes de phase de la chaîne de captation incluant les deux micros et leurs préamplificateurs. Cela se juge à l'écoute. L'expérience permet de ne pas faire de bêtise dans ce domaine.
Alan Parson a peut-être dit : "Audiophiles don't use their equipment to listen to your music. Audiophiles use your music to listen to their equipment."
[ Dernière édition du message le 26/10/2020 à 22:23:26 ]
BBmiX
que tu perçois mono , soit .
Si tu veut les percevoir en stéréo , la oui il faudra un déphasage .
Zoom sur un wav de BD par exemple , les 2 canaux sont parfaitement en phase ( et perçus mono ). mais chacun ont des uns et des zéros ( des hauts et bas ) qui se suivent , si on zoome à l’échantillon prés ou presque .
Je parle pour un son grave et court . plus compliqué comme l'as expliqué jan mk2 pour les différences de fréquences et d'harmoniques.
Et pour moi ; une phase est une simple polarité ...
(-; Be Funky ;-)
Jan mk2
Non la stéréo n'est pas que le fait d'un déphasage, c'est beaucoup plus compliqué que ça, ou plus simple lorsqu'on se contente de faire de la mono orientée sur deux enceintes.
La phase n'est pas une simple polarité. Un différence de phase ne peut être réduite à un retard que dans le cas d'un signal périodique, ce que la musique n'est pas.
Alan Parson a peut-être dit : "Audiophiles don't use their equipment to listen to your music. Audiophiles use your music to listen to their equipment."
- < Liste des sujets
- Charte

