2 enregistrements d'un meme evenement a 16b/44.1khz....synchro ???!!
- 75 réponses
- 10 participants
- 6 986 vues
- 10 followers
Gros Corps Maladroit
Voilà, j'ai un enregistrement d'un concert, 16bit/44.1khz issu de mon aw4416 yamaha.
Une personne , présente au concert, l'a egalement enregistré avec un zoom, et m'a refilé les fichiers en 16bits/44.1khz
Super, me dis-je, je vais pouvoir tenter de recuperer une guitare absente du premier enregistrement, mais présente en façade, donc enregistrée via le zoom
Les deux enregistrements, ne commencent pas au meme moment, je les calent donc précisement sur un coup de caisse claire.....parfait....ils se synchronisent.....MAIS....MAIS....au bout de 45s, un phasing apparait et au bout de 1mn 30s c'est carrément un delai audible qui apparait.....mes deux enregistrement se désynchronisent
bref, sur 1h de concert, je vous dit pas le décalage!!
Cela vous est-il deja arrivé ?? quelle en est la raison?? (les horloges controlant la frequences d'echantillonage ont de telles variables?? une incompréhension de ma part ??
Comme solution actuelle, je ne vois qu'un decoupage méthodique de l'enregistrement du zoom, toutes les 20/30s, pour recaler chaque petit morceau sur mon enregistrement de reference....long!!!long....
Acaca
Fait un travail très précis sur un coup de charley (assez précis). En utilisant les ondes sur ta DAW donc, regarde ce que ça donne mais je pense qu'en regardant à genre 30 sec après, tu aura le temps de retard, peux être pourra tu en prendre compte pour caler les deux fichiers... C'est des maths, mais comme ton retard est exponentiel, je ne sais pas si ça peut marcher.. bricole et tu verra bien !
Anonyme
Rien à voir avec le clap. Le clap sert à avoir un point de synchro entre le son et l'image, mais ne garanti aucunement contre les dérives. Mais ce n'est pas un problème car d'une part au cinéma, les plans ne durent en général pas très longtemps, les machines possèdent des horloges assez précises, et la synchro entre l'image et le son est moins exigeante que celle dont on a besoin pour éviter les problèmes de phases entre pistes son.
Quand à utiliser les formes d'ondes, c'est vraiment un truc moins précis que le calage à l'oreille, pour tout un tas de raison que je n'ai pas le temps ni l'envie d'expliquer maintenant. La, pour le coup, l'oreille a des capacité qui vont bien au delà que ce que peut faire un alignement de waveformes dont on ne sait rien en ce qui concerne les relations de phase/fréquence.
Danguit
La, pour le coup, l'oreille a des capacité qui vont bien au delà que ce que peut faire un alignement de waveformes
Anonyme
Citation de Danguit :
Le jour ou l'oreille sera plus performante qu'une bonne vieille intercorrélation pour aligner deux signaux, j'aimerais bien voir la démo.
Sans souci. Tu peux faire l'expérience toi-même chez toi. Prends deux sons mono que tu dispatches chacun sur deux pistes pannées full gauche et droite. Le premier tu le mixes au taquet, et le second, 10 dB en dessous, mais en inversant la polarité d'une des voies.
Colle un corrélateur sur le master.
Que dit le corrélateur ? Il te dit que tout va bien !
Que disent tes oreilles ? Qu'il y a un souci de phase sérieux.
_________
Autre test : colle le même signal mono sur deux pistes pannées full gauche et droite, et décale une des deux de 10 échantillons. Que dit le corrélateur ? Il dit que tout va bien. Que disent tes oreilles ? Que le son ne provient plus du centre. Que disent tes oreilles lorsque tu presses le bouton "Mono" de ton Stan ou contrôleur de monitoring ? Qu'il y a un gros problème de timbre.
Sérieusement, le corrélateur est un baise couillon lorsqu'on ne maitrise pas et son usage, et une bonne connaissance des limites de cet usage. En fait, c'est un outil du passé qui n'a de réelle utilité que pour ceux qui n'ont pas assez éduqué leur oreille, ou lorsqu'on travaille dans des condition acoustiques qui peuvent nous tromper.
[ Dernière édition du message le 19/05/2014 à 22:27:30 ]
Danguit
Anonyme
Soit je ne comprends pas, soit on est HS. Pour ce que est du sujet de départ, les oreilles sont bien plus performantes que n'importe quelle aide visuelle à l'heure ou j'acris ces lignes, sauf à avoir la garantie que les deux signaux à alignés soient corrélés en phase sur toute la bande passante, ce qui est une situation de labo.
EraTom
Jan a raison de dire que fonder le jugement d'une bonne "corrélation" entre deux signaux audios uniquement sur l'estimation de l'intercorrélation n'est pas toujours pertinent.
Normaliser l'intercorrélation par les variances des deux signaux permet d'obtenir un descripteur un peu plus pertinent mais on obtient toujours un truc qui varient entre -1 et 1 : A partir de quel seuil peut-on considérer les phases réglées correctement ?
(sachant que le signal n'est pas stationnaire et que plusieurs sources sont mélangées...)
Danquit a lui aussi raison ; la façon la plus efficace de trouver le déphasage à appliquer à un signal pour le mettre en phase avec un autre (du moins minimiser l'erreur quadratique entre les deux i.e la puissance du signal résiduel) est de "tous" les tester (dans une excursion raisonnable) est de retenir celui qui maximise l'intercorrélation.
[ Dernière édition du message le 19/05/2014 à 23:31:56 ]
Anonyme
Citation de Eratom :
Danquit a lui aussi raison ; la façon la plus efficace de trouver le déphasage à appliquer à un signal pour le mettre en phase avec un autre et des "tous" les tester (dans une excursion raisonnable) est de retenir celui qui maximise l'intercorrélation.
Oui, d'un point de vue énergétique c'est vrai, d'un point de vue de la maximisation du respect subjectif du signal c.a.d. du moindre mal pour les timbres, ça ne l'est plus. Et c'est ce qui m'intéresse ici.
EraTom
du moindre mal pour les timbres
Une "corrélation" pondérée par des modèles psychoacoustiques c'est envisageable mais c'est compliqué ; en réalité l'intérêt des labo et les études de l'impact de la phase sur la perception sont assez récents et il y a encore du boulot.
- < Liste des sujets
- Charte