Se connecter
Se connecter

ou
Créer un compte

ou
FR
EN

réactions au dossier [Bien débuter] Qu'est-ce que la phase en audio ?

  • 90 réponses
  • 25 participants
  • 5 984 vues
  • 33 followers
Sujet de la discussion [Bien débuter] Qu'est-ce que la phase en audio ?
qu-est-ce-que-la-phase-en-audio-3147.jpg
En phase, hors phase, en opposition de phase : Los Teignos a deux minutes pour vous expliquer ce qu'est la phase en audio. Top chrono !


Lire l'article




Ce thread a été créé automatiquement suite à la publication d'un article. N'hésitez pas à poster vos commentaires ici !

__________________________________________________________________________________
Le GIEC chiffre à 3,3 milliards le nombre de victimes du réchauffement climatique. On en parle ?

 

2
Citation :
C’est d’ailleurs sur ce phénomène que reposent les casques à annulation de bruit : le casque capte via un micro le bruit ambiant qu’il réintroduit en opposition de phase

Attention à la terminologie.
Dans ce cas on parle de polarité du signal. Le terme phase ne s'applique qu'à un signal sinusoîdal ou onde périodique.

[ Dernière édition du message le 26/10/2020 à 13:03:21 ]

3
Dis donc Teignos, j'espère que tu te fais payer tes 6 secondes supp à chaque vidéo ! :mrg:
4
Très bonne vidéo et les concepts sont bien expliqués :bravo:

Citation :
Attention à la terminologie.
Dans ce cas on parle de polarité du signal. Le terme phase ne s'applique qu'à un signal sinusoïdal ou onde périodique.

Je ne suis pas d'accord avec ça. Quand on fait une transformée de Fourier sur un signal, pour regarder ce qu'on appelle "son contenu fréquentiel", on utilise un outil qui normalement n'est fait que pour regarder des signaux sinusoidaux et périodiques, les séries de Fourier, pour faire tout un tas de choses (visualisation, traitements etc.) à l'intérieur d'un échantillon du signal, de taille limitée (par exemple 2048 samples), en considérant localement ce qui se passe dans cet échantillon comme périodique pour pouvoir en tirer des conclusions locales et plus globales sur un signal. C'est une manière d'énoncer le principe de la transformée de Fourier, qui sert à faire des analyseurs de spectre, de la convolution et tout un tas de trucs. Et dans ce contexte, la FFT (fast fourier Transform), l'outil qui renvoie les informations fréquentielles, donne comme info pour différentes fréquences une amplitude et une phase.

De la même manière, quand on regarde un fichier WAV, ça peut avoir du sens de le considérer comme un échantillon périodique de quelque chose qui aurait une taille infinie, et qui serait ce fichier WAV lu en boucle. Donc la notion de phase fonctionne dans ce cadre.

Je rajouterai qu'on parle quand même plus souvent de la phase par rapport à la réponse d'un filtre, comme celui d'un EQ, ce qui va avoir comme effet de mettre du bordel dans les informations de phase d'un signal, et créer des "problèmes de phase" de différentes manières si on s'amuse à mixer le signal non traité avec le signal traité par l'EQ, sauf si celui-ci est "à phase linéaire".

Une conséquence, vu que tout espace acoustique ou système d'enregistrement peut être vu en première approximation comme un filtre, c'est que si on enregistre une même source avec deux micros différents, on va avoir deux signaux numériques "corrélés", c'est-à-dire provenant de la même source, mais avec un contenu fréquentiel différent, de part les atténuations ou boosts de chaque système, mais aussi au niveau de la phase, et donc le mix des deux signaux aura là aussi son lot de "problèmes de phase".

Je pense que c'est très important de comprendre et de noter que le problème de phase ne vient pas juste du fait que les deux signaux soient ou parfaitement en phase ou complètement hors phase avec une inversion de polarité. Il y a aussi les états intermédiaires qui vont créer des atténuations du signal, et ce sur la totalité des fréquences ou seulement à certaines, à différents degrés, ce qui va créer tout un bordel potentiel divers et variés :mrg:

Je terminerai en indiquant qu'on peut faire une utilisation créative de ces problèmes de phase, c'est le principe du chorus / flanger / phaser, même si dans ces 3 cas on ne les créé pas de la même façon. Et on se retrouve avec des trous fréquentiels espacés de manière identique ou de plus en plus proches selon la méthode.

Développeur de Musical Entropy | Nouveau plug-in freeware, The Great Escape | Soundcloud

5
Trés bien expliqué merci vu la complexité de l'acoustique ,une des sciences les plus compliquée.
6
Next chapter please: des conseils pour éviter cela, et les outils pour le corriger quand c'est trop tard. Merci!
7
Ahhhhh, j'ai eu espoir que Los Teignos nous parle de l'outil AudioRadix Pi, c'est un outil qui m'intéresse fortement :O

RdjpR

8
Je suis tombé sur une vidéo récemment qui traitait de la phase :
9
Belle pastille, vivante et efficace. :bravo:

Joli cadre aussi.
10
Citation :
des conseils pour éviter cela, et les outils pour le corriger quand c'est trop tard. Merci!

Surveiller l’analyseur de phase, il y en a généralement un inclus dans les outils de mesure dans le logiciel audio. Sinon, il existe des plug in gratuits, comme celui-ci :
https://fr.audiofanzine.com/plugin-analyseur/voxengo/correlometer/news/a.play,n.42988.html" rel="ugc noopener" target="_blank"> https://fr.audiofanzine.com/plugin-analyseur/voxengo/correlometer/news/a.play,n.42988.html

Pour les solutions : soit l’inverseur de phase au mixage sur l’une des deux pistes, mais cela agit à 180°.
Sinon, Little Labs fabrique d’excellents outils (qui travaillent par pas de quelques degrés), et cela existe aussi en plug in..
Il est aussi possible de bouger la piste à la main, de quelques millièmes de seconde, jusqu’à ce que les deux pistes soient en phase.
11
Citation :
Nous reparlerons donc de tout cela car si je veux être en phase avec le titre de cette émission


:facepalm:

:bravo:

Putain Walter mais qu'est-ce que le Vietnam vient foutre là-dedans ?

12
Tout d’abord pour cette vidéo, excellente comme les précédentes ! :bravo:

Citation :
Je pense que c'est très important de comprendre et de noter que le problème de phase ne vient pas juste du fait que les deux signaux soient ou parfaitement en phase ou complètement hors phase avec une inversion de polarité. Il y a aussi les états intermédiaires qui vont créer des atténuations du signal, et ce sur la totalité des fréquences ou seulement à certaines, à différents degrés, ce qui va créer tout un bordel potentiel divers et variés


Justement : parfaitement en phase, ou déphasé, ce sont des cas particuliers, indépendants de la fréquence. C’est plutôt dans les autres cas que le mot « phase » prend tout son sens.

D’une manière générale, la phase est un truc pas toujours intuitif.
13
Citation :
Il est aussi possible de bouger la piste à la main, de quelques millièmes de seconde, jusqu’à ce que les deux pistes soient en phase.


Attention, là tu parles d’alignement temporel, ce qui est différent de la phase.

Pour une fréquence donnée (une sinusoïde), on peut convertir des millisecondes en degrés. Mais pour chaque fréquence différente le décalage en degrés sera différent (d’où le filtrage en peigne évoqué par Los Teignos).

Cas particulier : un décalage de 0s donne un déphasage nul indépendamment de la fréquence. Une inversion de polarité entraîne un déphasage de 180° quelle que soit la fréquence.
14
La phase c'est un truc trop compliqué à gérer pour moi, il faudrait déjà que je sois capable d'en détecter les problèmes, or à l'oreille je détecte que dalle.

Putain Walter mais qu'est-ce que le Vietnam vient foutre là-dedans ?

[ Dernière édition du message le 26/10/2020 à 16:24:26 ]

15
Les décalages de phase, ça peut aussi donner des effets intéressants ou on a l'impression que le son se déplace dans l'espace stéréo, voire donne la sensation de venir de l'arrière, du haut, du bas... C'est pas forcément très musical, mais pour qui arrive à le maîtriser, ça peut permettre des effets sonores originaux. Le problème, c'est que ça ne donne pas forcément le même résultat selon qu'on écoute avec un casque ou des enceintes. Donc pas très utile, mais amusant.
16
Citation :
Attention, là tu parles d’alignement temporel, ce qui est différent de la phase.

Entièrement d'accord, mais cela peut sauver les meubles.:mdr:

Citation :
La phase c'est un truc trop compliqué à gérer pour moi, il faudrait déjà que je sois capable d'en détecter les problèmes, or à l'oreille je détecte que dalle.

Il suffit d'écouter la piste stéréo en mono. Si les deux pistes sont hors phase, le niveau d'écoute va baisser, voire disparaitre si inversion totale de polarité.
17
Citation :
Dr Pouet :
Attention, là tu parles d’alignement temporel, ce qui est différent de la phase.

Pour une fréquence donnée (une sinusoïde), on peut convertir des millisecondes en degrés. Mais pour chaque fréquence différente le décalage en degrés sera différent (d’où le filtrage en peigne évoqué par Los Teignos).

Cas particulier : un décalage de 0s donne un déphasage nul indépendamment de la fréquence. Une inversion de polarité entraîne un déphasage de 180° quelle que soit la fréquence.


CQFD :bravo:

Caca In -> Caca Out

18
je viens de lire le sujet et vérifier mes mixs. certains sont sans soucis et d'autres avec des problèmes de phase soit sur des sons de basse, soit des échantillons de boites à rythmes (kicks notamment), ou des synthés faits maison à partir d'un enregistreur numérique et des samples. j'ai beau activer l'inversion de phase sur les pistes concernées, ça ne change rien au master. quand j'ai tenté d'inverser le kick, il était plus présent, pus percutant, mais paraissait toujours sur le côté négatif de l'analyseur de voxengo sur la piste master

y a t il une autre stratégie à adopter que d'inverser la phase pour corriger le problème?

merci!

[ Dernière édition du message le 26/10/2020 à 18:41:13 ]

19
Citation de GENESIS06220 :
Trés bien expliqué merci vu la complexité de l'acoustique ,une des sciences les plus compliquée.


En fait toutes les sciences sont de complexité égales, c'est surtout une question de maitrise du sujet, d'avancée de la science en question, et d'approfondissement de sujet...

[ Dernière édition du message le 26/10/2020 à 19:08:27 ]

20
Citation de the :
je viens de lire le sujet et vérifier mes mixs. certains sont sans soucis et d'autres avec des problèmes de phase soit sur des sons de basse [...]


Je comprends pas trop. Pour qu'il y ait un problème de phase, il faut qu'il y ait 2 pistes. Ta basse est enregistrée avec deux micros ? Ou doublée sur une piste avec un effet ? Sinon, elle n'est pas en phase avec quoi ?
21
Rappelons que sauf erreur de ma part, il faut bien un déphasage entre les signaux pour assurer la stéréo. Deux signaux en phrase parfaite donneraient un son mono.
22
Non cher Will, la stéréo n'est pas seulement le fait d'une différence de phase, et même surtout pas le fait d'une différence de phase (attendez la fin avant de me vouer au gémonies, svp). La stéréo est le fait de reproduire le relief sonore qu'on est capable de capter avec nos deux oreilles. Cette captation du relief est réalisé grâce à la différence d'intensité entre les deux oreilles (surtout dans la partie haute du spectre audio) et la différence de temps (surtout dans la partie basse du spectre).

Déjà, la partie différence d'intensité n'a rien à voir avec la phase. Et c'est pourtant ce que font tous les mixeurs lorsqu'ils manipulent un pan-pot.

Mais en ce qui concerne la différence de temps : un son qui arrive de la gauche est perçu normalement un peu plus fort et plus tôt par l'oreille gauche. Le fait qu'il soit perçu plus tôt est sensible dans la partie basse du spectre audio, ce qui semble confirmer l'hypothèse que l'oreille n'est pas tellement sensible à la phase. Car les longueurs d'onde dans le grave ne permettent pas de doute sur la relation de phase entre la droite et la gauche (elles sont plus grandes que la distance inter oreille), ce qui n'est pas le cas dans l'aigu.
Dans l'aigu, lorsque la longueur d'onde est inférieure à la distance entre les deux oreilles, on ne peut pas savoir quel est vraiment le retard, à cause du "modulo 2π". A 10kHz, la longueur d'onde est 340/10000 = 3,4cm. Soit quatre à cinq fois moins que la distance entre les deux tympans.
Pourtant, tout être humain qui entend une cloche sait d'où provient le son. Si la phase était cette source de connaissance, nous hésiterions entre plusieurs directions. C'est ce qui me fait penser (et pas que moi, sinon ça n'aurait pas d'intérêt) que c'est bien le retard qui est pris en compte, et pas la phase. La différence de phase est une conséquence du retard, et seulement une conséquence.

Au niveau de ce qu'on doit savoir lorsqu'on mixe en stéréo bi-canal sur deux enceintes, c'est suffisant. Mais en fait, la restitution du relief met en cause des notions plus étendues que ces seuls deux critères.

Alan Parson a peut-être dit : "Audiophiles don't use their equipment to listen to your music. Audiophiles use your music to listen to their equipment."

[ Dernière édition du message le 26/10/2020 à 22:13:27 ]

23
A part ça, je rejoins Phil29 pour dire que cet article laisse le doute entre la phase et le retard, ce qui est dommage car c'est justement l'origine de la grande confusion que font beaucoup de gens sur ce sujet il est vrai pas très simple.
Mais bon, c'est tout de même moins compliqué que la loi de Shannon/Nyquist qui fait couler beaucoup d'encre :mrg:

Deux micros captant une même source à deux distances différentes, cela provoque en théorie un décalage de phase sur la partie son direct. Mais cette partie peut être assez minoritaire sur le micro éloigné dans une acoustique qui n'est pas très absorbante, et ceci sans même parler des courbes de phase de la chaîne de captation incluant les deux micros et leurs préamplificateurs. Cela se juge à l'écoute. L'expérience permet de ne pas faire de bêtise dans ce domaine.

Alan Parson a peut-être dit : "Audiophiles don't use their equipment to listen to your music. Audiophiles use your music to listen to their equipment."

[ Dernière édition du message le 26/10/2020 à 22:23:26 ]

24
Non , les deux signaux ne se chevauchent pas , c'est 1 + 1 , ou 2 X mono . en " technique " .
que tu perçois mono , soit .

Si tu veut les percevoir en stéréo , la oui il faudra un déphasage .

Zoom sur un wav de BD par exemple , les 2 canaux sont parfaitement en phase ( et perçus mono ). mais chacun ont des uns et des zéros ( des hauts et bas ) qui se suivent , si on zoome à l’échantillon prés ou presque .

Je parle pour un son grave et court . plus compliqué comme l'as expliqué jan mk2 pour les différences de fréquences et d'harmoniques.

Et pour moi ; une phase est une simple polarité ... :idee2:

(-;  Be Funky  ;-)

Soundcloud

25
BBmiX, je crois qu'il manque des trucs dans ta compréhension du phénomène.
Non la stéréo n'est pas que le fait d'un déphasage, c'est beaucoup plus compliqué que ça, ou plus simple lorsqu'on se contente de faire de la mono orientée sur deux enceintes.
La phase n'est pas une simple polarité. Un différence de phase ne peut être réduite à un retard que dans le cas d'un signal périodique, ce que la musique n'est pas.

Alan Parson a peut-être dit : "Audiophiles don't use their equipment to listen to your music. Audiophiles use your music to listen to their equipment."