Se connecter
Se connecter

ou
Créer un compte

ou
FR
EN

2 enregistrements d'un meme evenement a 16b/44.1khz....synchro ???!!

  • 75 réponses
  • 10 participants
  • 7 333 vues
  • 10 followers
Sujet de la discussion 2 enregistrements d'un meme evenement a 16b/44.1khz....synchro ???!!
bonjour,
Voilà, j'ai un enregistrement d'un concert, 16bit/44.1khz issu de mon aw4416 yamaha.
Une personne , présente au concert, l'a egalement enregistré avec un zoom, et m'a refilé les fichiers en 16bits/44.1khz
Super, me dis-je, je vais pouvoir tenter de recuperer une guitare absente du premier enregistrement, mais présente en façade, donc enregistrée via le zoom

Les deux enregistrements, ne commencent pas au meme moment, je les calent donc précisement sur un coup de caisse claire.....parfait....ils se synchronisent.....MAIS....MAIS....au bout de 45s, un phasing apparait et au bout de 1mn 30s c'est carrément un delai audible qui apparait.....mes deux enregistrement se désynchronisent:8O::8O:
bref, sur 1h de concert, je vous dit pas le décalage!!icon_facepalm.gif
Cela vous est-il deja arrivé ?? quelle en est la raison?? (les horloges controlant la frequences d'echantillonage ont de telles variables:8O:?? une incompréhension de ma part ??
Comme solution actuelle, je ne vois qu'un decoupage méthodique de l'enregistrement du zoom, toutes les 20/30s, pour recaler chaque petit morceau sur mon enregistrement de reference:?!::?!:....long!!!long....
Afficher le sujet de la discussion
26

Soit je ne comprends pas, soit on est HS. Pour ce que est du sujet de départ, les oreilles sont bien plus performantes que n'importe quelle aide visuelle à l'heure ou j'acris ces lignes, sauf à avoir la garantie que les deux signaux à alignés soient corrélés en phase sur toute la bande passante, ce qui est une situation de labo.

27
Si je peux me permettre, je crois que l'un et l'autre avez raison mais que vous ne parlez pas tout à fait du même usage.

Jan a raison de dire que fonder le jugement d'une bonne "corrélation" entre deux signaux audios uniquement sur l'estimation de l'intercorrélation n'est pas toujours pertinent.
Normaliser l'intercorrélation par les variances des deux signaux permet d'obtenir un descripteur un peu plus pertinent mais on obtient toujours un truc qui varient entre -1 et 1 : A partir de quel seuil peut-on considérer les phases réglées correctement ?
(sachant que le signal n'est pas stationnaire et que plusieurs sources sont mélangées...)

Danquit a lui aussi raison ; la façon la plus efficace de trouver le déphasage à appliquer à un signal pour le mettre en phase avec un autre (du moins minimiser l'erreur quadratique entre les deux i.e la puissance du signal résiduel) est de "tous" les tester (dans une excursion raisonnable) est de retenir celui qui maximise l'intercorrélation.

[ Dernière édition du message le 19/05/2014 à 23:31:56 ]

28

Citation de Eratom :

Danquit a lui aussi raison ; la façon la plus efficace de trouver le déphasage à appliquer à un signal pour le mettre en phase avec un autre et des "tous" les tester (dans une excursion raisonnable) est de retenir celui qui maximise l'intercorrélation.

 Oui, d'un point de vue énergétique c'est vrai, d'un point de vue de la maximisation du respect subjectif du signal c.a.d. du moindre mal pour les timbres, ça ne l'est plus. Et c'est ce qui m'intéresse ici.

29

Au fait, oui, tu peux te permettre ! mrgreen

30
Oh ben je n'aime pas donner l'impression de vouloir parler à la place de quelqu'un d'autre. :-p

Citation :
du moindre mal pour les timbres
Heureusement que la plupart des signaux (audios) où l'information de phase importe sont harmoniques.
Une "corrélation" pondérée par des modèles psychoacoustiques c'est envisageable mais c'est compliqué ; en réalité l'intérêt des labo et les études de l'impact de la phase sur la perception sont assez récents et il y a encore du boulot.
31
petit retour en arriere
Citation :
et il ne faut pas attendre 300ms pour que ça s'entende

bonsoir jan; oui bien d'accord que cela s'entend avant un decalage de 300ms...c'est ce que je decrivais comme un "phasing", "un chorus "...j'avais pris (peut etre a tort) ce decalage de 300ms comme etant perceptible comme un delai net a l'ecoute (2 evenement bien distinct) (là je parle de lecture simultanée du mix stéréo aw4416 ET du mix stéréo Zoom, du meme evenement sonore)
je continue mes decoupes toutes les 30s (sur mon mix zoom ) , en tentant à chaque fois de trouver une valeur de time*scretch correspondant au decalage de mes 2 mix stéréo...galère...j'avance tres doucement et suis tres tres moyennement content du resultat...

par contre apres j'avoue que je suis perdu dans votre discussion...JAN?? selon toi un decalage de 10 petit echantillons crée deja une perturbation (un decalage de phase? ) à l'ecoute ??? c'est vraiment pas beaucoup 10 echantillon a 44.1khz..... j'en suis a zoomer sur mes formes d'ondes (avec disons vue sur une 30aine de point/50aine, en recalant les pics (charley, sd) en faisant coller au mieux possible dans le meme temps les formes d'ondes qui se ressemble (mix aw4416/mix zoom).....rhaaa difficile de s'expliquer sans un graphique ou un saisi d'ecran... et je sais pas faire ses dernieres)....et comme je coupe/time scretch toutes les 30 secondes, à la relecture de l'ensemble, il y a audiblement un "changement" de timbre? phase? ambiance? perception sonore, toutes ces 30s..icon_facepalm.gif....plus jamais d'enregistrement numerique non synchro!!!! au fait ....les world clock out et in, que j'ai sur mon aw4416(jamais utilisé encore) , ressemble à des prises pour ......du cable d'antenne television....c'est ce type de cable qu'il faut utiliser ?? ou un cable spécifique ?? merci à vous !

[ Dernière édition du message le 19/05/2014 à 23:48:57 ]

32

Citation :

là je parle de lecture simultanée du mix stéréo aw4416 ET du mix stéréo Zoom, du meme evenement sonore

 Du même évènement sonore capté par deux machines différentes en deux endroits différents. D'un point de vue du respect de la phase, c'est énorme.

Oui, 10 échantillons, c'est déjà beaucoup. Deux échantillons permettent de coder un signal à 20kHz, un échantillon de décalage, c'est le 20kHz en opposition de phase. 10 échantillons, c'est le 2kHz en opposition de phase. Et dix échantillons de décalage entre les voies gauches et droites c'est un shift très audible (et pas subtile) du centre vers le côté non retardé.

Pour ton souci, Elastic Audio dan Pro Tools te permettrait de régler le problème en une paire d'heures.

33
On ne parle peut-être pas de la même chose, et il serait utile que Gros Corps Maladroit précise exactement ce qu'il veut faire avec les deux enregistrements.
Mais en ce qui concerne
Citation :

Prends deux sons mono que tu dispatches chacun sur deux pistes pannées full gauche et droite. Le premier tu le mixes au taquet, et le second, 10 dB en dessous, mais en inversant la polarité d'une des voies.

Colle un corrélateur sur le master.

Que dit le corrélateur ? Il te dit que tout va bien !

et
Citation :
Autre test : colle le même signal mono sur deux pistes pannées full gauche et droite, et décale une des deux de 10 échantillons. Que dit le corrélateur ? Il dit que tout va bien.
, pour le premier cas le corrélateur dont je parle me donnera un pic et un seul, négatif > -1 (si l'on n'a pas normalisé dans le calcul), donc mes signaux sont identiques, d'amplitudes différentes, et inversés (B-A BA de l'interrcorrélation).
Dans le deuxième cas, il donnera un pic à 1 (si j'ai corrigé le biais), décalé de 10 échantillons. Et si le décalage n'était pas exactement de 10 échantillons, il existe des méthodes pour le déterminer.
Edit :
Dans Cubase la fonction Warp libre semble adaptée pour un recalage temporel.

Passer pour un idiot aux yeux d'un imbécile est une volupté de fin gourmet. (G. Courteline)

[ Dernière édition du message le 20/05/2014 à 07:56:04 ]

34
Citation :
il serait utile que Gros Corps Maladroit précise exactement ce qu'il veut faire avec les deux enregistrements.

oui danguit, je n'ai peut etre pas précisé mon objectif:oops:...je reprends mes explications....j'ai sonorisé un petit concert + enregistrement de ce concert par mon aw4416....
dans le meme temps un collegue enregistrait avec un zoom dans le public
petite scene, petite salle, le zoom etait situé a 3/4m des enceintes de facade, 4/5m de la scene
En plein milieu du concert, je me suis aperçu que si j'avais bien tout mes instru en facade et en retour, j'avais fait un oubli dans mon enregistreur.....la guitare principale n'etait pas enregistrée dans mon aw4416 icon_facepalm.gifméa culpa!..... donc l'objectif de ma bidouille est de pouvoir récupérer (ou tenter de recupérer) dans le mix du zoom la guitare absente de mon mix aw4416......et pour cela il faut que mes 2 mix coiencident temporellement icon_facepalm.gif
35
Je comprends mieux, mais j'ai l'impression que tu vas avoir un problème car ton mix zoom comporte la guitare mais aussi toutes les autres composantes, avec des phase différentes de celles de tes pistes.
Mais là je laisse la place aux spécialistes.

Edit :
Si tu as toutes les autres pistes, il y aurait peut-être une méthode (lourde, que j'ai déjà utilisée dans un autre contexte, pas audio), sous réserve d'une resynchronisation correcte, du style :
- pour chaque piste trouver par corrélation le décalage temporel de la piste et du mix,
- soustraire au mix une fraction de la piste recalée pour minimiser le pic de corrélation.
- faire la même choses pour toutes pistes, et à la fin il resterait (si ça marche) la guitare et le bruit ambiant.
Bien compliqué et peu de chances de réussite je le reconnais.

Passer pour un idiot aux yeux d'un imbécile est une volupté de fin gourmet. (G. Courteline)

[ Dernière édition du message le 20/05/2014 à 08:37:51 ]

36
N'empeche que c'est quand même balot. Ca veut dire que si je fais jouer un click à 60 bpm pendant 24 heures et que je l'enregistre sur deux supports différents non clocké, je n'aurais plus le même nombre de mesures après enregistrement?

EDITH : 60 bpm ca fait 15 mesures par minutes (en 4/4)
Donc, logiquement, 900 mesures par heure

et donc sur 24 heures, je devrais couvrir 21600 mesures après réimport de mes enregistrements

Si l'un fait 21599 mesures et l'autre 21601, il va y avoir un problème... Notamment au niveau des sessions partagées qui ont le ven(dre)t en poupe ces temps-ci (cfr update PT11)

[ Dernière édition du message le 20/05/2014 à 08:45:44 ]

37
Citation :
je n'aurais plus le même nombre de mesures après enregistrement?
Sauf erreur il y aura le même nombre, mais avec une période un peu différente de 60 bpm (et pas forcément stable).

Passer pour un idiot aux yeux d'un imbécile est une volupté de fin gourmet. (G. Courteline)

38
Période?
39
Citation :
Période?
Ou fréquence peu importe, ce n'est pas exactement 60 bpm.

Passer pour un idiot aux yeux d'un imbécile est une volupté de fin gourmet. (G. Courteline)

40
Donc, ce que tu veux dire c'est qu'au final, on aura le même nombre de mesures mais qu'en fait chaque mesure va avoir son propre tempo qui oscille autour de 60bpm sans ne jamais être exacte ni synchro? C'est encore plus inquiètant! Cela Veut dire que même sur une chanson de trois minutes, le problème se pose!

Et quid de l'enregistrement MIDI et audio simultanément? Si j'enregistre, par exemple, une batterie via une carte son et un module de trigger de cette même batterie en MIDI, branchée sur une interface MIDI non clockée à la carte son (il n'y a d'ailleurs pas de WC input sur les interfaces MIDI à ma connaissance). Il va y avoir des décalages!

Z'êtes sur de ce que vous avancez? moi je pensais que le clocking c’était surtout pour éviter les décrochages.

[ Dernière édition du message le 20/05/2014 à 09:06:08 ]

41
Citation :
Z'êtes sur de ce que vous avancez? moi je pensais que le clocking c’était surtout pour éviter les décrochages.
A 100%. UNE horloge sert bien à ça, mais elle est commune à tout le système numérique.
Pour de l'échantillonnage, il faut que le jitter (la variation instantanée de la fréquence) soit assez faible pour ne pas être audible (sur une piste seule) et c'est bien le cas sur tous les CAN actuels même bas de gamme.
En revanche, quelque soit les jitter des CAN non-synchronisés on finira toujours pas observer une dérive.

Si l'on écarte le biais constant, la dérive d'une horloge causée par l'intégration du jitter forme ce que l'on appelle une marche aléatoire. Ça ressemble à un truc comme ça :
Walk1d_0.png
A chaque instant l'espérance mathématique du décalage (x(t) sur le graphique) est 0 mais sa variance (la dispersion statistique) augmente.

C'est rigoureusement le même problème que pour un ensemble de pendules, montres, etc. qui dérivent toujours : Même si chacune d'entre elles sont assez précises pour indiquer l'heure quotidiennement, il faut les resynchroniser régulièrement si l'on veut voir les aiguilles indiquer exactement la même chose.

Pour la trotteuse le décalage est observé au bout de quelques jours, pour les minutes il faut quelques semaines/mois, pour les heures quelques années.

Pour l'enregistrement audio, la dérive de quelques échantillons (de l'ordre de la ms) est observable au bout de quelques dizaines de secondes ; pour observer une dérive de l'ordre de grandeur du tempo il faudrait un enregistrement de plusieurs jour.


Les "world clocks" ne permettent pas d'améliorer le jitter des CAN que l'on utilise : Ce qui fait la perfo de jitter c'est la PLL en entrée de la carte son !
Par contre elles permettent de se prémunir des problèmes de dérive (tout le monde dérive conjointement avec la world clock) lorsque l'on réalise des enregistrements avec plusieurs CAN.

[ Dernière édition du message le 20/05/2014 à 09:36:13 ]

42
x
Hors sujet :
C'est là que l'on voit que certains (la plupart ?) fabricants de "Digital Master Clock" ont bien embrouillé les choses avec leurs discours commerciaux : Celles-ci ne permettent pas du tout d'améliorer le jitter et la dérive d'un CAN, elles permettent uniquement de "synchroniser les dérives" de plusieurs CAN ; ça ne s'adresse à aucun autre problème.
43

Hors sujet :

 Dans la mesure ou elle ne peuvent pas améliorer le jitter d'un CAN, c'est tout ce qu'on leur demande, le reste est de l'enfumage markéteux.

 

@Reno : il n'y a aucun problème lié aux variations des horloges pour le travail collaboratif car dans une STAN le tempo est lié mathématiquement à la fréquence d'échantillonnage. A 60 bpm et à 44,1kHz de Fe, tu as un temps qui dure 44 100 échantillons. Si dérive il y a, c'est la durée de ton temps qui va varier. Mais une fois tous les travaux synchronisés par la même horloge numérique, tous les tempos subirons la même dérive et la synchro musicale sera assurée.

44
Citation :
en fait chaque mesure va avoir son propre tempo qui oscille autour de 60bpm sans ne jamais être exacte ni synchro? C'est encore plus inquiètant! Cela Veut dire que même sur une chanson de trois minutes, le problème se pose!

c'est tout a fait cela Reno ! ça dérive allegrement :(, (meme evenement, 2 enregistreurs numerique NON SYNCHRONISés a 16bit/44.1khz)en mettant parfaitement synchro le premier coup de charley , toute les 30s/45s, cela devient franchement audible qu'il y a un decalage....(soit la durée de la seconde n'est pas fixe pour tout les ocnvertisseurs???, soit c'est les 44100 echantillons par seconde qui fluctue allegrement????)
le calcul que j'effectuait en arriere (calcul à la va-que -je-te-pousse) pour avoir une idée, m'indiquait une fluctuation de 0.0037%....ce qui etait plus que negligeable a mon sens....sauf que cela fait dans les 3700 ppm (partie par million) !! et dans une minute d'audio tu as 2.5 millions de samples:surpris:...ce qui supposerait une "dérive" de + de 7000 samples.....et Jan précise que 10 samples de differences c'est déjà l'opposition de phase pour du 2khz.....alors 7000....icon_facepalm.gif c'est carrément un effet de delay qui arriverun.gif :nawak::nawak: ... (tiens ?? du coup si je comprends bien, cela veut dire que ce que j'appelle le "delay" qui arrive avec le décalage ne concerne pas toutes les frequences de la meme façon :?!:...plus la frequence est elevée 20khz par exemple et plus rapidement , le decalage va se faire sentir... la "desynchronisation" touche d'abord les hautes frequences...en en dernier les infra-basses:?!: )

@Danguit .....je pense comprendre ce que tu propose.....j'avais un peu cela en tete (sur le principe je crois) ....mais en fait, je n'ai pas un enregistrement multipiste aw + un mix stéréo zoom...j'ai une stéréo mix aw + stéréo mix zoom......et je me disais qu'une fois tout ce petit monde "calé" au mieux....je pourrai tenter d'inverser les phases de mon mix aw pour l'additionner aux mix zoom....devrait me rester la guitare ??? et les click!icon_facepalm.gif et les probleme de phaseicon_facepalm.gif...et le bruit de fond:nawak:...et le bruit du public:ptdr::nawak:

Citation :
Si dérive il y a, c'est la durée de ton temps qui va varier
et en 2014 on sait pas faire des horloges qui ont une durée de la seconde fixe...vraiment fixe ?? une horloge atomique ??? mais cela doit fluctuer aussi :?!:

[ Dernière édition du message le 20/05/2014 à 10:18:34 ]

45

C'est la relation entre le délai et la phase qui varie en fonction de la fréquence.

46
Merci eratom et jan! J'ai pigé. En plus, une fois expliqué, ca parait evident! (surtout les 44100 echantillons relus par une seule clock) icon_facepalm.gif

Et quid de la relation MIDI <-> audio en enregistrement simultané depuis des hardware differents? ( en comptant biensur qu'on augmente la resolution MIDI bien au dela de 100 ticks)
47
Pareil, l'enregistrement Midi est temporellement figé à l'horloge de la machine. Si le signal entrant est synchronisé via Midi Clock, c'est pareil car la Midi Clock est calculée à partir de la fréquençe d'echantillonnage. tout mouvement de l'horloge numérique influe sur l'horloge Midi. Lorsque tout est réintégré dans la même machiné l'horloge numérique est commune et toutes les séquençes Midi le sont aussi.
Le problème est le même avec le son à l'image dès qu'on prends soin d'asservir le SMPTE à l'horloge vidéo, et le son à cette même horloge, tout glissement de l'horloge vidéo entraine une varaition proportionnelle de la Fe et du code temporel. Du coup, chaque image reste synchro avec le son qui va bien, et le code temporel qui correspond.

[ Dernière édition du message le 20/05/2014 à 14:14:46 ]

48
Ok, merci!

Par contre, est-ce que quelqu'un peut m'expliquer ceci :

Protocole de l'expérience :
Je place un tick audio sur une piste de ma STAN et je route la sortie de cette piste directement vers une sortie hardware de ma RME UCX (pas de plug-ins sur la piste ni de traitement audio dans le totalmix FX)
Je prend un cable TRS et je branche la sortie en question dans une entrée linge de la même fireface UCX
En parallèle de ça, je sors également la piste du Tick sur une sortie ADAT de la fireface UCX sur laquelle est branchée en ADA 8000 de Berhinger. L'ADA8000 est branché en wordclock sur la fireface UCX et l'info de la fireface m'affiche que tout est parfaitement synchro

sync.gif

Je branche la sortie du Berhinger à une autre entrée de la fireface UCX

J'enregistre les deux entrées sur deux pistes différentes de ma DAW.

Résultat :
Passage%201.png

On constate 2 choses :
1- La compensation de latence de ma STAN fait bien son job vu que la sortie UCX est parfaitement synchronisée sur le tick original
2- 5 samples de retard pour la sortie de l'ADA8000...

L'expérience à été faite avec plusieurs tailles de buffer différentes, avec des résultats toujours identiques.

Je me dis, OK, c'est de la faute du Berhinger.

Qu'a cela ne tienne, je fais la même expérience mais je remplace l'ADA8000 par une RME fireface 800 qui me sert alors uniquement de convertos de sortie ADAT (et clocké via WC)

Résultats :
Passage%202.png

Encore pire... 12 samples de retard cette fois...


Une autre personne avec qui je converse par mail à effecteur le test avec un Fireface 400 en master et une saffire pro 400 en adat out (aussi sycnhronisé via WC)

Résultats identique, si ce n'est que c'est le nombre de sample qui change

L'expérience à également été faite dans CUBASE et Studio one 2

Résultats identique.

Voici l'explication du technicien SCV Hi tech (distributeur RME en FRANCE)

Bonjour.

C'est effectivement plus que normalement pas possible, puisque les entrées ADAT des produits RME sont compensée par le FPGA maison, et ce depuis 2002, justement afin de garder la même latence, quelque soit le type et la norme, c'est le fameux Auto sync.

Par contre, que tu ais deux latences différentes sur tes deux produits, c'est tout à fait normal, ce ne sont pas les mêmes. Dans ce cas, c'est bien à toi de compenser de manière logicielle. Si tu veux avoir la même latence partout, c'est soit d'avoir uniquement un convertisseur, ou plusieurs modèles identiques, ou que tout ce petit monde soit synchronisé en Wordclock.

Sur Mac, le fait de créer un périphérique agrégé, cumule les deux latences pour tout le monde et solde le problème de réglage manuel, mais du coup ta latence est plus importante. Sur PC, c'est aussi possible, mais ça demande de tout prérégler soi-même.

Cordialement.

Support technique.


J'ai mis en gras la phrase qui me pose soucis... TOUT EST SYNCHRONISE en WORDCLOCK!!! Alors pourquoi?

La seule explication que je vois c'est que les convertos ne bossent pas à la même vitesse. En gros, la latence de sorties des deux covertos est différente, et ce, même si synchonisé via l'horloge.

Si vous avez des explications, je suis preneur! :-D

[ Dernière édition du message le 20/05/2014 à 15:20:53 ]

49
Je dirais que c'est le temps de calcul nécessaire à la conversion AN ou NA, tous les convertisseurs ont quelques samples de latence. Sur certaines interfaces bas de gamme, j'ai même parfois observé un léger décalage (1 sample ou 2) entre deux sorties de la même interface.
Je peux me tromper sur la cause cela dit.

Peace
Glob

L'abeille coule, l'abeille coule, l'abeille coule, l'abeille coule, l'abeille coule, l'abeille coule....

Bla bla bla

50
Par curiosité, si tu utilise la clock de celle qui est branché en adat, ça donne quoi ?

Et si tu test avec différentes entrés sorties de la même interface ?

Et avec deux cartes sons identiques en adat ?

[ Dernière édition du message le 20/05/2014 à 18:38:20 ]