Se connecter
Se connecter

ou
Créer un compte

ou
FR
EN

réactions au dossier [Bien débuter] Qu'est-ce que la phase en audio ?

  • 90 réponses
  • 25 participants
  • 5 987 vues
  • 33 followers
Sujet de la discussion [Bien débuter] Qu'est-ce que la phase en audio ?
qu-est-ce-que-la-phase-en-audio-3147.jpg
En phase, hors phase, en opposition de phase : Los Teignos a deux minutes pour vous expliquer ce qu'est la phase en audio. Top chrono !


Lire l'article




Ce thread a été créé automatiquement suite à la publication d'un article. N'hésitez pas à poster vos commentaires ici !

__________________________________________________________________________________
Le GIEC chiffre à 3,3 milliards le nombre de victimes du réchauffement climatique. On en parle ?

 

Afficher le sujet de la discussion
26
Citation :
Deux micros captant une même source à deux distances différentes, cela provoque en théorie un décalage de phase sur la partie son direct.

N'est-il pas plus juste de parler de décalage temporel ?

Et d'ailleurs, si la différence de distance vaut D, ça vaudra D / 340 (m/s).


Citation :
Déjà, la partie différence d'intensité n'a rien à voir avec la phase. Et c'est pourtant ce que font tous les mixeurs lorsqu'ils manipulent un pan-pot.

Oui. Un pan-pot (potentiomètre panoramique) d'une table de mixage c'est 2 gains différents, liés l'un à l'autre. Du coup, c'est une stéréo assez artificielle et simpliste. Ça fonctionne pas trop mal. Mais quand on écoute un vrai enregistrement acoustique avec par exemple une paire de micros omnis, et bien dans ce cas on se rend compte que la spatialisation du son est bien plus réaliste.
27
Citation :
Un différence de phase ne peut être réduite à un retard que dans le cas d'un signal périodique, ce que la musique n'est pas.


Même pour de la musique en boucle ?
28
Il manque un concept clé dans le débat là, c’est celui de la corrélation.

Imaginons deux fichiers WAV mono. En gros la corrélation c’est à quel points ces deux sources audio ont quelque chose en commun du point de vue du traitement du signal. Si on prend un fichier audio et qu’on en fait une copie, les deux fichiers obtenus auront une corrélation parfaite. Si on en décale un des deux dans le temps par rapport a l’autre, cette corrélation sera toujours là mais amoindrie avec la longueur du décalage. Si on enregistre deux fois la même partie de guitare dans deux fichiers audio, ces deux résultats ne sont pas corrélés du tout. Si on repique un instrument avec deux micros a partir de la mëme interprétation, on obtient deux signaux un peu corrélés aussi.

Pourquoi je parle de ca ? Et bien le truc c’est que quand on mixe deux signaux corrélés, ca créé un résultat dans lequel on entend ces fameux problèmes de phase. De même, si vous avec un enregistrement stéréo, dans lequel la piste gauche et la piste droite ont un peu de corrélation, le mix mono va présenter aussi ces problèmes.

Du coup dans le contexte du mix on essaie de faire en sorte d’éviter au max la corrélation entre les pistes (par exemple en jouant deux fois la même partie plutot qu’en copiant une prise partout a l’identique). Sinon on cherche à la compenser, en alignant les sons pour réduire le nombre d’annulations, en écoutant avec ou sans inversion de phase ce qui a l’air d’être le moins pire, en utilisant des outils de rotation de phase, ou en utilisant des filtres a phase linéaire pour compenser exactement avec la compensation automatique de latence le bordel que le filtre peut mettre dans la phase...

Développeur de Musical Entropy | Nouveau plug-in freeware, The Great Escape | Soundcloud

29
x
Hors sujet :
Citation :
Gloire à la phase ! Non à l'antiphase !
30
Citation :
Un différence de phase ne peut être réduite à un retard que dans le cas d'un signal périodique, ce que la musique n'est pas.
Tout à fait. selon que l'on parle de musique( analogique et/ou numérique ) d'électricité , de prise de son , les termes changent et il est difficile de l'expliquer , de se faire comprendre ...
Comme tu dis la musique n'est pas un signal périodique constant , on ne compose pas du bruit blanc ou rose , ça deviendrait monotone :mrg:

Je sens qu'on a pas finis de discuter la dessus !!! je n'est pas la science infuse ,je doute aussi :clin:

Je parlais de sémantique ( l'emploi des mots ) et du contexte ou ils sont employés .

On devrait parler DES phases , car une phase seule , elle , elle s'en fiche , elle est en phase avec elle même :mdr:.
( corrélation ; co = 2 )

Donc dés qu'on amène une autre phase avec celle ci , que ce soit la même ( décalée en temps ou en intensité ) une autre (c'est à dire la même avec effet, eq ou filtre par exemple ) , là on à un phénomène qui change le son .
( et là je parle d'une seule ( mono ) , ça tord encore plus le cerveau si on parle de stéréo , et encore plus en prise de son ( vitesse do son IRL ) :eek2: :?!: ...

Au delà de tes arguments très juste , jan , je pense qu'il faut retenir également:

Citation :
Au niveau de ce qu'on doit savoir lorsqu'on mixe en stéréo bi-canal sur deux enceintes, c'est suffisant. Mais en fait, la restitution du relief met en cause des notions plus étendues que ces seuls deux critères


Citation :
Je pense que c'est très important de comprendre et de noter que le problème de phase ne vient pas juste du fait que les deux signaux soient ou parfaitement en phase ou complètement hors phase avec une inversion de polarité. Il y a aussi les états intermédiaires qui vont créer des atténuations du signal, et ce sur la totalité des fréquences ou seulement à certaines, à différents degrés, ce qui va créer tout un bordel potentiel divers et variés :mrg:


Citation :
Du coup dans le contexte du mix on essaie de faire en sorte d’éviter au max la corrélation entre les pistes (par exemple en jouant deux fois la même partie plutot qu’en copiant une prise partout a l’identique). Sinon on cherche à la compenser, en alignant les sons pour réduire le nombre d’annulations, en écoutant avec ou sans inversion de phase ce qui a l’air d’être le moins pire, en utilisant des outils de rotation de phase, ou en utilisant des filtres a phase linéaire pour compenser exactement avec la compensation automatique de latence le bordel que le filtre peut mettre dans la phase


Citation :
Justement : parfaitement en phase, ou déphasé, ce sont des cas particuliers, indépendants de la fréquence. C’est plutôt dans les autres cas que le mot « phase » prend tout son sens.
D’une manière générale, la phase est un truc pas toujours intuitif.


Plus la vidéo Evidemment .








(-;  Be Funky  ;-)

Soundcloud

31
Citation de Will :
Rappelons que sauf erreur de ma part, il faut bien un déphasage entre les signaux pour assurer la stéréo. Deux signaux en phrase parfaite donneraient un son mono.

Si on chipote un peu, tu as raison si on prend le terme stéréo au pied de la lettre. Le sens étymologique de stéréo est relief. Du coup, la mono orientée entre deux enceintes n'est pas à proprement parler une stéréo. Mais elle ne le serait pas non plus si on disposait de pan-pots qui agiraient sur le décalage temporel comme il le font sur le niveau.

Citation de Dr :
N'est-il pas plus juste de parler de décalage temporel ?

Tout à fait, pan sur mon bec ! J'aurais pu me défendre si j'avais écrit "décalages de phases" au pluriel, mais non, sur ce coup, c'est irrécupérable (de lapin).

Alan Parson a peut-être dit : "Audiophiles don't use their equipment to listen to your music. Audiophiles use your music to listen to their equipment."

32
Citation de BBmiX :
Tout à fait. selon que l'on parle de musique( analogique et/ou numérique ) d'électricité , de prise de son , les termes changent et il est difficile de l'expliquer , de se faire comprendre ...
Comme tu dis la musique n'est pas un signal périodique constant , on ne compose pas du bruit blanc ou rose , ça deviendrait monotone :mrg:

Ben... le bruit blanc n'est pas un signal périodique, pas plus que le bruit rose.
Quelques signaux périodiques en audio : sinus, dent de scie, carré. La condition sine qua non est que la fréquence doit être constante et chaque période identique.

Citation de BBmiX :
On devrait parler DES phases , car une phase seule , elle , elle s'en fiche , elle est en phase avec elle même :mdr:.
( corrélation ; co = 2 )
En fait on parle de phase alors que dans le cas qui nous préoccupe on devrait parler de relation de phase. Sinon, lorsqu'il s'agit d'un seul signal, on parle de phase absolue, c'est à dire par rapport à un référentiel de temps.

Citation de nii :
x
Hors sujet :
Citation :
Gloire à la phase ! Non à l'antiphase !

Non à l'anti phrase.

Alan Parson a peut-être dit : "Audiophiles don't use their equipment to listen to your music. Audiophiles use your music to listen to their equipment."

33
Merci pour ces précisions :bravo:

(-;  Be Funky  ;-)

Soundcloud

34
C'est pas simple ce truc. Je viens de lire tous les posts et...

brain-with-convolutions-associated-to-the-knot-vector-id686512454brain-with-convolutions-associated-to-the-knot-vector-id686512270silhouette-of-human-head-with-tangled-line-inside-like-brain-concept-vector-id1224212294
35
Citation :
Rappelons que sauf erreur de ma part, il faut bien un déphasage entre les signaux pour assurer la stéréo. Deux signaux en phrase parfaite donneraient un son mono.

Et bien non :mrg: En fait, quand on parle de déphasage entre deux signaux, on part du principe que ceux-ci sont corrélés d'une manière ou d'une autre. Or, ce qui créé une impression de stéréo, c'est justement la décorrélation, partielle (la même source en double dont une occurrence décalée dans le temps, ou bien la même source reprise par deux micros) ou complète (deux sons qui n'ont rien à voir l'un avec l'autre, comme deux prises successives ou un charley à gauche et une cymbale à droite)

Développeur de Musical Entropy | Nouveau plug-in freeware, The Great Escape | Soundcloud

36
Citation :
C'est pas simple ce truc. Je viens de lire tous les posts et...


Oui, ce n’est pas simple. Mais on n’a pas forcément besoin de tout comprendre dans la théorie et les explications. Les recettes de cuisine évoquées pour détecter, et résoudre les problèmes, sont suffisantes !
:boire:
37
Après, avec des reverb à convolution, on pourrait fabriquer une stéréophonie parfaitement réaliste.

On en parlait en 2011 :
https://fr.audiofanzine.com/techniques-du-son/forums/t.24161,comment-faire-une-vraie-stereo-a-partir-d-un-fichier-mono,post.6582892.html

Je ne sais pas s’il y a des outils qui font ça actuellement.
38
On ne peut parler d'un son stéréo en effet que s'il a corrélation de ce son entre les 2 (ou plus) voies, avec un décalage temporel ou/et de gain...
Ceci dit ça me fait penser aux bonnes vieilles musiques de jeux Amstrad (notamment le thème de Cybernoid que j'ai toujours adoré) qui étaient stéréo (les musiques) avec tous les "instrus" résolument mono ET certains exclusivement D ou G.

[ Dernière édition du message le 27/10/2020 à 11:34:37 ]

39
Citation :
C'est pas simple ce truc. Je viens de lire tous les posts et...

tant que tu reste en phase avec toi même :mrg:-:8O:

Citation :
Je ne sais pas s’il y a des outils qui font ça actuellement.


idem ; des outils " suiveurs " qui ferait ça tout au long d'un morceau , je n'y crois pas trop en fait .

(-;  Be Funky  ;-)

Soundcloud

[ Dernière édition du message le 27/10/2020 à 12:45:35 ]

40
Citation de GENESIS06220 :
Trés bien expliqué merci vu la complexité de l'acoustique ,une des sciences les plus compliquée.

Non mais LOL! :facepalm::8O:


 

41
Citation de Dr :
Une inversion de polarité entraîne un déphasage de 180° quelle que soit la fréquence.

De manière général ce n'est pas le cas, par exemple avec ce signal plus bas, duquel on montre deux périodes.
L'inversion de la polarité de donne pas le même résultat qu'un déphasage de 180°.
En fait un déphasage de 180° est équivalent à une inversion de polarité dans le cas ou le signal a une symétrie par rapport au point (milieu_de_la_période, 0). Avec une sinusoïde ça marche parce qu'on a la bonne symétrie.
techniques-du-son-3135869.png

42
43
En fait j'ai peut être compris ta phrase de travers.
La subtilité c'est qu'appliquer un déphasage de 180° à un signal "complexe" (contenant plusieurs fréquences) n'est pas appliquer un déphasage de 180° à chacune des composantes du signal séparément.

Dans l'exemple que je montre, j'ai appliqué un déphasage de 180° au signal entier, dans ce cas ce n'est pas équivalent à une inversion de polarité.
Si on décompose le signal en chacune de ses composantes fréquentielles et qu'on applique un déphasage de 180° à chacune des composantes séparément pour à la fin les recombiner, je suppose que tu as raison.

EDIT : Illustration
Cette fois ci avec un signal plus simple (composé de deux sinus)
On a bien le même résultat avec l'inversion de polarité et le déphasage par composante.
techniques-du-son-3135901.png

[ Dernière édition du message le 27/10/2020 à 14:35:38 ]

44
Oui Danbei, j'allais le dire. Il y avait un biais dans ton exemple. Car dans le premier schéma que tu montres, j'ai bien l'impression qu'il est appliqué un retard équivalent à une demi longueur d'onde de la fondamentale ce qui correspond dans son cas (et seulement pour elle) à une inversion de polarité.
De toutes façons, je n'ai pas beaucoup à me fatiguer, car c'est la définition de l'inversion de polarité dans toutes la littérature scientifique qui traite de ce sujet :bravo:

Alan Parson a peut-être dit : "Audiophiles don't use their equipment to listen to your music. Audiophiles use your music to listen to their equipment."

45
Citation de Danbei :
En fait j'ai peut être compris ta phrase de travers.


Non mais si vous êtes déphrasés pour parler de déphasage, on va pas s'en sortir ! :oops2:
46
Citation de Jan :
Oui Danbei, j'allais le dire. Il y avait un biais dans ton exemple. Car dans le premier schéma que tu montres, j'ai bien l'impression qu'il est appliqué un retard équivalent à une demi longueur d'onde de la fondamentale ce qui correspond dans son cas (et seulement pour elle) à une inversion de polarité.
De toutes façons, je n'ai pas beaucoup à me fatiguer, car c'est la définition de l'inversion de polarité dans toutes la littérature scientifique qui traite de ce sujet :bravo:


Ah oui exact. Ben justement là on voit bien la différence entre retard temporel (le premier cas) et changement de phase.
47
Citation :
Pourtant, tout être humain qui entend une cloche sait d'où provient le son. Si la phase était cette source de connaissance, nous hésiterions entre plusieurs directions.

Autant j'ai un peu raccourci en semblant limiter la stéréo a une question de phase, autant il m'a semblé que tu me répondais en parlant de spatialisation (surtout d'un son mono). La question de la stéréo n'est-elle pas un peu plus large ?
Je peux par exemple avoir une nappe de synthé centrée et pourtant stéréo.

Ce qui ne veut pas dire que je n'ai pas fait erreur, hein.
Wolfen a d'ailleurs été plus précis que moi en parlant de signaux corrélés.
Je suppose qu'on sera tous d'accord pour dire que ma nappe de synthé est composée deux de signaux / canaux non parfaitement corrélés et que c'est bien ça qui la rend stéréo, mais ce qui différencie les signaux droit et gauche est-il uniquement une question de temps pour arriver aux oreilles ou (aussi) une différence de phase entre les signaux ?
48
A ce moment-là, même avec un son purement mono sortant sur tes 2 voies, si elles sont suffisamment espacées et que tu te tiens excentré (voire très excentré) tu vas percevoir une différence (temporelle surement, voire de phase ?) qui n'existe pas dans ton morceau.
49
La différence sera plutôt une différence de volume.
Mais dans tous les cas est-ce qu'on peut parler de stéréo dans ce cas ? Deux sons identiques reproduits sur deux pistes, même réparties dans le champ stéréo, ne font jamais qu'un signal mono.
50
Est ce qu'il y a un rapport avec l'inversion de phase sur un micro guitare ?

GUITARTEC