2 enregistrements d'un meme evenement a 16b/44.1khz....synchro ???!!
- 75 réponses
- 10 participants
- 7 331 vues
- 10 followers

Gros Corps Maladroit

Voilà, j'ai un enregistrement d'un concert, 16bit/44.1khz issu de mon aw4416 yamaha.
Une personne , présente au concert, l'a egalement enregistré avec un zoom, et m'a refilé les fichiers en 16bits/44.1khz
Super, me dis-je, je vais pouvoir tenter de recuperer une guitare absente du premier enregistrement, mais présente en façade, donc enregistrée via le zoom
Les deux enregistrements, ne commencent pas au meme moment, je les calent donc précisement sur un coup de caisse claire.....parfait....ils se synchronisent.....MAIS....MAIS....au bout de 45s, un phasing apparait et au bout de 1mn 30s c'est carrément un delai audible qui apparait.....mes deux enregistrement se désynchronisent


bref, sur 1h de concert, je vous dit pas le décalage!!

Cela vous est-il deja arrivé ?? quelle en est la raison?? (les horloges controlant la frequences d'echantillonage ont de telles variables
 ??  une incompréhension de ma part ??
??  une incompréhension de ma part ?? Comme solution actuelle, je ne vois qu'un decoupage méthodique de l'enregistrement du zoom, toutes les 20/30s, pour recaler chaque petit morceau sur mon enregistrement de reference

 ....long!!!long....
....long!!!long....
Danguit

A une époque j'avais fait un comparatif entre tous les trucs que j'avais sous la main (il doit rester un tableau quelque part sur le forum), et effectivement il y a un décalage puisque les horloges ne sont pas exactement les mêmes. De plus il peut y avoir des variations à court terme, par exemple à la mise en route (stabilisation en température) ou en fonction de la température ambiante, etc.
De l'intérêt du synchrone.
Edit : sur une douzaine d'appareils il y avait un écart de -500 à +85ppm par rapport à ma référence, et même un PC portable à -6600ppm pour son chip son.
[ Dernière édition du message le 18/05/2014 à 11:44:52 ]

Gros Corps Maladroit

 !!
!!J'ai connu les differences de vitesse de rotation des magnétos a bandes......c'etais rien a coté
 ...effectivement synchronisation obligatoire !!  je vais voir dans tes écrits sur AF.merci
...effectivement synchronisation obligatoire !!  je vais voir dans tes écrits sur AF.merci
Gros Corps Maladroit

donc si 44100 echantillon a la seconde
en 1mn30s (delai distinct audible) j'ai grosso modo 4 millions de samples
considerant un delai audible a partir de 300ms (peut etre moins ?? 150ms??), cela correspondrait a 15000 samples de retard sur 4 millions...ce qui ferait un ecart de 3750ppm par rapport a ma reference.....et ben...pas top le zoom....et en plus il fonctionnait sur pile je crois (ça doit pas aider!)
[ Dernière édition du message le 18/05/2014 à 13:08:41 ]

Igreka De Zen

[ Dernière édition du message le 18/05/2014 à 13:10:24 ]

Gros Corps Maladroit

oui tout a fait, c'est une option a laquelle j'ai renoncé (peut etre a tord)
en audio ce serait du time-stretch, tu modifie la longueur globale de ton extrait audio, sans en modifier ni le tempo, ni la tonalité-hauteur (une "compression" temporelle en quelque sorte sans denaturation)....mais c'est chaud pour calculer le rapport necessaire entre les deux extraits.....si mon calcul au dessus est juste, le time-stretch devrait être de -3750ppm, c'est a dire de - 0.0037%

 +ou- mes erreurs et approximation  de calcul
 +ou- mes erreurs et approximation  de calcul
[ Dernière édition du message le 18/05/2014 à 13:21:33 ]

Danguit

pas top le zoom
Pour corriger, essayer GoldWave (version d'éval par exemple) et peut-être Audacity ou son DAW (pardon, STAN)préféré.

Gros Corps Maladroit

j'amalgame souvent daw et stan..pour parler de dawn
j'ai debuté assez recemment sur wavelab6....je le maitrise pas encore vraiment (je ne sais pas si je peux faire le meme type de decoupe/separation que dans audacity)
Audacity,je l'utilise plus facilement.....mais j'ai un doute sur un tel time-strecht de 0.003%...même pas sur que l'on puisse descendre en dessous de 1% sur audacity..... (donc decoupe à la main de petits morceaux et resynchronisation a l'oeil )
glod wave, je connais pas....je vais voir
[ Dernière édition du message le 18/05/2014 à 13:33:21 ]

Igreka De Zen

oui je pense que tu devrait insister un peu. Car justement, avec la méthode que je te propose tu n'as pas besoin de calculer quoi que ce soit. A ta place j'essaierais. Fais comme si tu travaillais de la vidéo, c'est à dire converti tout 25fps, du moins les fichiers qui te paraissent "décalés".
La seule différence dans ton cas c'est qu'il faut sortir non pas de la vidéo mais de l'audio. Mais le principe reste le même.

Gros Corps Maladroit

@yanarchy : ...malade....pas encore....mais maladroit depuis un moment
mais cela voudrait dire convertir mes fichiers .wav de son en fichier ???. video avec une resolution de 25frames/s....??? je vais voir ton logiciel "compressor"

Igreka De Zen


Igreka De Zen

mais cela voudrait dire convertir mes fichiers .wav de son en fichier ???
Je dirais en fichier "ce que tu veux", wav, aif, etc... ce qui t'arrange.
Je ne vois pas de raison pour que compressor refuse du wav puisque que c'est une des formats de rendu qu'il propose.

EraTom

Certains CAN disposent d'une sortie horloge et les autres CAN peuvent être synchronisés dessus ; pas la peine d'investir alors dans un équipement de plus.
A ce point là c'est tout de même pas mal ; le zoom n'a pas été déplacé pendant la prise ?
Enfin pour donner des ordres de grandeur : La vitesse de son dans l'air est ~340 m/s, en écartant la source et la captation d'1m on ajoute environ 3ms de retard. Un déplacement de 3m c'est vite fait sur une scène et ça donne un décalage bien audible de 9ms.
Pour ton problème immédiat, plutôt que de découper tu peux utiliser le time stretching" pour le recalage.
Sur Ableton Live ça s'appelle la fonction "warp", sur Pro Tools "elastic audio", etc...
Tu cales bien le début et la fin de l'enregistrement, puis en te baladant le long du morceau tu recales les transitoires pour qu'ils tombent en même temps.
Edit :
Ha, je viens de lire les posts précédents :P
[ Dernière édition du message le 18/05/2014 à 13:56:03 ]

Gros Corps Maladroit

 ....perso j'en serai a 0.0037%!
....perso j'en serai a 0.0037%!

Danguit


Gros Corps Maladroit

 ....youppi!! il ne me reste plus qu'a chercher le coefficient exact!
....youppi!! il ne me reste plus qu'a chercher le coefficient exact!
EraTom

Si l'enregistrement n'est pas trop long peut-être qu'un coeff suffit, sinon il faut l'ajuster régulièrement (d'où l'intérêt d'outils comme 'elastic audio').

Gros Corps Maladroit

et tu as raison.....la dérive n'est pas constante
 ....c'est une horreur a resynchroniser.....et pres d'une heure de concert........rhaaaaaaa..
....c'est une horreur a resynchroniser.....et pres d'une heure de concert........rhaaaaaaa.. .....il necessite verification toutes les 30/45s...........je retourne à mes time scrrretchhhh!
.....il necessite verification toutes les 30/45s...........je retourne à mes time scrrretchhhh!

EraTom


Anonyme

Cela dépend beaucoup du STAN que tu utilises, mais avec de la pratique, et un outil pas trop mal conçu, c'est une opération assez rapide. Par contre, le respect de la phase ne sera jamais aussi bon que si la synchro avait été bonne, et il ne faut pas attendre 300ms pour que ça s'entende, quelques échantillons sont suffisants.

Acaca

Fait un travail très précis sur un coup de charley (assez précis). En utilisant les ondes sur ta DAW donc, regarde ce que ça donne mais je pense qu'en regardant à genre 30 sec après, tu aura le temps de retard, peux être pourra tu en prendre compte pour caler les deux fichiers... C'est des maths, mais comme ton retard est exponentiel, je ne sais pas si ça peut marcher.. bricole et tu verra bien !

Anonyme

Rien à voir avec le clap. Le clap sert à avoir un point de synchro entre le son et l'image, mais ne garanti aucunement contre les dérives. Mais ce n'est pas un problème car d'une part au cinéma, les plans ne durent en général pas très longtemps, les machines possèdent des horloges assez précises, et la synchro entre l'image et le son est moins exigeante que celle dont on a besoin pour éviter les problèmes de phases entre pistes son.
Quand à utiliser les formes d'ondes, c'est vraiment un truc moins précis que le calage à l'oreille, pour tout un tas de raison que je n'ai pas le temps ni l'envie d'expliquer maintenant. La, pour le coup, l'oreille a des capacité qui vont bien au delà que ce que peut faire un alignement de waveformes dont on ne sait rien en ce qui concerne les relations de phase/fréquence.

Danguit

La, pour le coup, l'oreille a des capacité qui vont bien au delà que ce que peut faire un alignement de waveformes

Anonyme

Citation de Danguit :
Le jour ou l'oreille sera plus performante qu'une bonne vieille intercorrélation pour aligner deux signaux, j'aimerais bien voir la démo.
Sans souci. Tu peux faire l'expérience toi-même chez toi. Prends deux sons mono que tu dispatches chacun sur deux pistes pannées full gauche et droite. Le premier tu le mixes au taquet, et le second, 10 dB en dessous, mais en inversant la polarité d'une des voies.
Colle un corrélateur sur le master.
Que dit le corrélateur ? Il te dit que tout va bien !
Que disent tes oreilles ? Qu'il y a un souci de phase sérieux.
_________
Autre test : colle le même signal mono sur deux pistes pannées full gauche et droite, et décale une des deux de 10 échantillons. Que dit le corrélateur ? Il dit que tout va bien. Que disent tes oreilles ? Que le son ne provient plus du centre. Que disent tes oreilles lorsque tu presses le bouton "Mono" de ton Stan ou contrôleur de monitoring ? Qu'il y a un gros problème de timbre.
Sérieusement, le corrélateur est un baise couillon lorsqu'on ne maitrise pas et son usage, et une bonne connaissance des limites de cet usage. En fait, c'est un outil du passé qui n'a de réelle utilité que pour ceux qui n'ont pas assez éduqué leur oreille, ou lorsqu'on travaille dans des condition acoustiques qui peuvent nous tromper.
[ Dernière édition du message le 19/05/2014 à 22:27:30 ]

Danguit

- < Liste des sujets
- Charte
 
                            
 
                






