Spatialisation vidéo 360°
- 8 réponses
- 4 participants
- 1 406 vues
- 5 followers
topsykreet
17
Nouvel·le AFfilié·e
Membre depuis 13 ans
Sujet de la discussion Posté le 05/06/2015 à 16:38:24Spatialisation vidéo 360°
Salut à toutes et à tous !
Youtube est bien heureux de nous présenter depuis quelques temps ses vidéo 360°, Arte aussi ! Mais voilà, à chaque fois le son est en mono, où pire la spatialisation est aberrante une fois qu'on tourne dans la vidéo. Du coup voici ma question :
Quel logiciel utiliser pour que mon mix suive les mouvements de caméra de ma vidéo 360°. Plus clairement, la poule que j'ai à droite de ma vidéo passe à gauche au fur et à mesure que je pivote, mais pas son caquètement !
Si quelqu'un à une idée...
Youtube est bien heureux de nous présenter depuis quelques temps ses vidéo 360°, Arte aussi ! Mais voilà, à chaque fois le son est en mono, où pire la spatialisation est aberrante une fois qu'on tourne dans la vidéo. Du coup voici ma question :
Quel logiciel utiliser pour que mon mix suive les mouvements de caméra de ma vidéo 360°. Plus clairement, la poule que j'ai à droite de ma vidéo passe à gauche au fur et à mesure que je pivote, mais pas son caquètement !
Si quelqu'un à une idée...
loliatmusic38
1181
AFicionado·a
Membre depuis 21 ans
2 Posté le 05/06/2015 à 16:53:29
Un lien d'une vidéo ?
https://soundcloud.com/goodsound-fr
topsykreet
17
Nouvel·le AFfilié·e
Membre depuis 13 ans
4 Posté le 05/06/2015 à 17:16:05
En plus c'est dommage...
Sentir au son l'arrivée d'un objet dans une vidéo. Ce serait le pied !
Sentir au son l'arrivée d'un objet dans une vidéo. Ce serait le pied !
loliatmusic38
1181
AFicionado·a
Membre depuis 21 ans
5 Posté le 05/06/2015 à 22:12:56
Le son est en stéréo.
https://soundcloud.com/goodsound-fr
EraTom
2282
AFicionado·a
Membre depuis 13 ans
6 Posté le 09/06/2015 à 01:06:22
Pour l'image c'est comme la streetview de google map : Les images du film sont stockées comme si elles avaient été prises avec un fisheye.
Si le déplacement (simulé et contrôlable) de la caméra est uniquement une rotation (et c'est bien le cas ici) alors il n'est pas nécessaire de connaitre la distance de l'objet observé pour le "rétroprojeter" dans le plan image virtuelle (de la caméra "que l'on contrôle") ; la direction suffit.
Si l'on veut simuler la translation de la caméra... Il faut la distance des points en plus de la direction (d'où l'horrible fondu d'image lorsque l'on fait une translation sur streetview : L'information de distance des points observés n'est pas connue et il n'est alors pas possible de simuler l'effet de parallaxe continument).
Il doit être possible de faire la même chose avec le son avec une simulation binaurale. La distance de la source sonore n'a pas besoin d'être connue : On a une captation dont l'intensité sonore suffit à simuler la distance.
Par contre on a besoin des directions (entre la tête et les sources sonores) pour appliquer la bonne HRTF https://en.wikipedia.org/wiki/Head-related_transfer_function
Et pour que ce soit convainquant il faut que ça reste fidèle à une écoute "naturelle" : Les masterings trop compressés avec des sub à fond les ballons typiques des films Marvel détruisent l'illusion.
A défaut de pouvoir faire un travail aussi fin ; il doit bien avoir moyen de spanner correctement la stéréo en fonction de la position de la caméra (mais l'impression de déplacement ne sera pas aussi convaincant).
Si le déplacement (simulé et contrôlable) de la caméra est uniquement une rotation (et c'est bien le cas ici) alors il n'est pas nécessaire de connaitre la distance de l'objet observé pour le "rétroprojeter" dans le plan image virtuelle (de la caméra "que l'on contrôle") ; la direction suffit.
Si l'on veut simuler la translation de la caméra... Il faut la distance des points en plus de la direction (d'où l'horrible fondu d'image lorsque l'on fait une translation sur streetview : L'information de distance des points observés n'est pas connue et il n'est alors pas possible de simuler l'effet de parallaxe continument).
Il doit être possible de faire la même chose avec le son avec une simulation binaurale. La distance de la source sonore n'a pas besoin d'être connue : On a une captation dont l'intensité sonore suffit à simuler la distance.
Par contre on a besoin des directions (entre la tête et les sources sonores) pour appliquer la bonne HRTF https://en.wikipedia.org/wiki/Head-related_transfer_function
Et pour que ce soit convainquant il faut que ça reste fidèle à une écoute "naturelle" : Les masterings trop compressés avec des sub à fond les ballons typiques des films Marvel détruisent l'illusion.
A défaut de pouvoir faire un travail aussi fin ; il doit bien avoir moyen de spanner correctement la stéréo en fonction de la position de la caméra (mais l'impression de déplacement ne sera pas aussi convaincant).
topsykreet
17
Nouvel·le AFfilié·e
Membre depuis 13 ans
7 Posté le 25/06/2015 à 15:57:51
Je n'arrive toujours pas à trouver quoique ce soit sur le sujet ; j'ai l'impression que personne a penser que la stéréo devait être en adéquation avec l'image lors du mouvement.
EraTom
2282
AFicionado·a
Membre depuis 13 ans
8 Posté le 25/06/2015 à 17:50:33
Le problème c'est qu'il n'existe pas encore de norme ou de méthode éprouvée pour traiter le repérage et la spatialisation d'une source sonore à partir d'une prise son.
Il faudrait le faire en synthèse... Et oublier les mastering bourrins du cinéma grand spectacle actuel qui détruiraient l'illusion sonore.
Il faudrait le faire en synthèse... Et oublier les mastering bourrins du cinéma grand spectacle actuel qui détruiraient l'illusion sonore.
Banjo_70
85
Posteur·euse AFfranchi·e
Membre depuis 19 ans
9 Posté le 25/06/2015 à 18:19:54
Salut à vous,
L'enregistrement audio en 3D existe et n'est pas si compliqué a réaliser / traiter !
Regardez ce qui se fait en ambisonie, par exemple, cela ce fait avec 4 micros (ou un micro SoundField tout fait, mais c'est un autre budget...)
Pour le traitement, des logiciels libres tel que Non-Mixer permet la synthese de ce soundfield, avec des réverbs a convolution en 3D.
L'enregistrement audio en 3D existe et n'est pas si compliqué a réaliser / traiter !
Regardez ce qui se fait en ambisonie, par exemple, cela ce fait avec 4 micros (ou un micro SoundField tout fait, mais c'est un autre budget...)
Pour le traitement, des logiciels libres tel que Non-Mixer permet la synthese de ce soundfield, avec des réverbs a convolution en 3D.
- < Liste des sujets
- Charte