Top config PC MAO 2022 (test, bench, discussion, débat...)
- 1 183 réponses
- 68 participants
- 77 091 vues
- 82 followers
Darkmoon
Ce sujet est la suite logique des précédents du même noms :
Top config PC MAO 2018 (test, bench, discussion, débat...)
Top config PC MAO 2019 (test, bench, discussion, débat...)
Top Config M.A.O 2020
Top config PC MAO 2021 (test, bench, discussion, débat...)
(Dernière page ici.)
Nous causons config MAO, PC, optimisation, DAW, interface audio, façons de bosser. Nous parlons matos, processeur, etc. Aussi, certains d'entre nous aiguillent les newbs et/ou ceux qui posent des questions vers la machine la plus appropriée pour leur besoin.
Et, bien sûr, nous débattons parfois, mais dans la bonne humeur et le respect, parce que nous sommes passionnés, mais ne partageons pas tous forcément les mêmes idées et opinions (ce qui est très bien ainsi!).
Voilà! En nous souhaitant de bons échanges en cette nouvelle année 2022!
"Si t'enregistres à Poudlard, avec l'ingé son Dumbledore, les lois physiques tu peux t'en foutre. Mais dans l'monde réel, les lois physiques, les mesures, le dBFS, tout ça existe bel et bien." youtou
dogfacedgremelin
Proc Intel INTEL CORE I9-10900F avec 10 cores et Intel de 16 cores a 18 Cores pour Mac Pro avec pour la Ram de 64 a 128Go moins pour l’ Apple M1 Pro 32 Go
Daw protools / Logic / Luna / cubase
Environ 280 pistes sur le M1 Pro ou 350 sur le i9 mais sans pousser vraiment le truc et entre 400 et 800 pistes sur les proc Intel Des Mac Pro.
tout les projets sont réglés sur 128 de buffes à 96khz.
Les projets sont parfois en dolby atmos.
Aucune machines n’a été misent en défaut.
Par contre les templates ont été pensés et optimisés en fonction de chaque machines.
Elles sont utilisées pour de la production principalement pour des projets liés à l’image films petits ou gros budgets ou de la musique ou pub et spectacles type pyrotechnique.
Les disques dur sont des ssd classique ou nvme.
Chaque pistes disposent d’effets et articulations et routage sur d’autres pistes pour les effets globaux.
Carte son Apollo/RME/Antelope
Vsti spitfire/8dio/cinématique samples/ des vsti maison/Orchestral Tools/audiobro/EastWest
Donc avec les derniers proc Intel vous devriez avoir une perf équivalente au ancien Mac Pro de 2019 pour construire de gros projets type film si l’envie vous prends.
apprendre est une des choses les plus difficile à faire. Alors j'apprends chaque jours.
Sohsno01
Environ 280 pistes sur le M1 Pro ou 350 sur le i9 mais sans pousser vraiment le truc et entre 400 et 800 pistes sur les proc Intel Des Mac Pro.
Effectivement, ça devrait être suffisant
dogfacedgremelin
C'est la que je comprends que l’utilisation des ressources PC/MAC ou autre est bien différente de la votre au regard de ce que vous écrivez et ou à ce que je comprends et dans leurs gestion des vsti. Est-ce bien ou pas, j’entends juste que ce qui importe c'est le réalisme à l'écoute, coller au jeu de vrais musiciens est la priorités.
C'est surement là que le choix de la machine au regard du besoin et de la gestion du temps doit être bien pensé dès le départ.
Vous faite le projet entier sur vos machines compo + mixes. Eux dans certains cas il y a la composition d'un coté et le mixage de l'autre avec des personnes bien différents. Cela mobilise des besoins et des ressources différentes. Par exemple un des compositeurs utilise des apollos pour prendre en charge de manière transparente une grande partie des effets et décharger l'ordi et cela lui permet d'augmenter le nombre de pistes du projet ci-besoin (Plus de 800 pistes généralement a son niveau c'est une solution de mixe et routage astucieuse).
Au final cette importance que vous accordez au temps réel, n'a pour eux pas lieu d’être aussi poussée (pour suivre cette voie le matériel doit être calibré en conséquence ou faire une mise en place dans un lieu "Remote Control" par exemple), Cette notion de temps réel pour eux n'est valable qu'en fin de projet uniquement avec la mise en situation en présence de musicien de la seconde zéro jusqu’à celle de fin.
Évidement, le savoir et la mise application de différentes techniques de mixage et compositions à son importance dans cet ensemble de création pour gérer au mieux les ressources des DAW.
Du reste, je ne connaissais pas Ashton Gleckman, il fait un travail remarquable pour faire découvrir le travail derrière le son lié à l'image.
Néanmoins, j'ai entendu et vu les scores entiers de certains films qu'il utilise et il y a simplifié pas mal de choses, un peu comme un "seigneurs des Anneaux" condensé pour tenir dans les films. Ça a quand même le mérite de permettre de comprendre la direction pour réaliser ce type de projet et c'est très bien. J'ai aussi constaté dans ses vidéos que ici ou là quand il met quelques éléments dans les fichiers qu'il propose c'est en réalité parfois des sections entière, c'est un détail mais qui peut avoir son importance si d'aventure on les utilisent comme modèles (il la probablement fait pour gérer les ressources de sa DAW je suppose).
Le top config est donc un élément qui s’inscrit dans un ensemble hard + soft + interface utilisateur AMHA !
apprendre est une des choses les plus difficile à faire. Alors j'apprends chaque jours.
Sohsno01
Car ils ont au final développés chacun leurs techniques de production.
C'est la que je comprends que l’utilisation des ressources PC/MAC ou autre est bien différente de la votre
C'est curieux de dire que leurs techniques sont différentes pour ensuite les poser comme un bloc dans une opposition avec "nous" (qui avons aussi des techniques différentes, techniques que nous n'avons pas spécialement expliqué ici d'ailleurs)...
Tu sais, il y a de grandes chances pour que certains d'entre nous soyons des professionnels justement. (Enfin pas de grandes chances, c'est le cas)
Au jour d'aujourd'hui, quand tu as une commande pour la musique d'une émission quelconque, tu n'as pas forcément le budget et encore moins le temps pour pouvoir payer des instrumentistes et un mixeur... Donc oui, tu fais tout toi même sur une seule machine...
Ton message n'est-il pas un peu condescendant ?
dogfacedgremelin
ils gèrent aussi des budgets pour ce faire, et ce que j'ai mis est ce qu'il font au réel quotidiennement à différente échelle.
Si les informations ci-dessous ne servent a rien je peux enlever, mais elles viennent de personnes qui sont dans ce domaine ou qui sont en passent d'y parvenir. Ça peut en aider plus d'un je pense par ce que le décalage de la théorie et la pratique, la gestion du temps et des ressources est parfois facile combler, comprendre sans réinventer la roue. On peut aussi tout faire dans le dur, mais bon quand y a moyen de glaner quelques tips... perso j'ai bien apprécié les conversations avec eux instructif pour moi et ma vision de leur travail si d'aventure l'envie m'en prends je sais comment le faire
apprendre est une des choses les plus difficile à faire. Alors j'apprends chaque jours.
Sohsno01
Non du reste je ne pense pas ou alors je me suis mal exprimé.
ils gèrent aussi des budgets pour ce faire, et ce que j'ai mis est ce qu'il font au réel quotidiennement à différente échelle.
Si les informations ci-dessous ne servent a rien je peux enlever, mais elles viennent de personnes qui sont dans ce domaine ou qui sont en passent d'y parvenir. Ça peut en aider plus d'un je pense par ce que le décalage de la théorie et la pratique, la gestion du temps et des ressources est parfois facile combler, comprendre sans réinventer la roue. On peut aussi tout faire dans le dur, mais bon quand y a moyen de glaner quelques tips... perso j'ai bien apprécié les conversations avec eux instructif pour moi et ma vision de leur travail si d'aventure l'envie m'en prends je sais comment le faire
Non, il n'y a pas de soucis, c'est intéressant, mais je pense que ça ne concerne pas l'immense majorité des compositeurs de musique à l'image, tout ceux que j'ai connu, même ceux qui avaient fait des films avec du temps et le budget pour un orchestre passaient tout de même le plus clair de leur temps à faire de la musique pour des émissions, des séries ou des pubs pour lesquels il n'y a ni le budget, ni le temps de faire autrement que tout soi-même sur son pc. (ou son mac) Surtout que la réalité de ce monde, c'est plutôt "Eh coco, il faudrait que tu me change la fin, on voudraient plutôt comme ci ou comme ça, et si tu peux le faire pour demain matin, c'est bien, mais pas plus tard que demain après midi..."
Du coup le mixage que tu avais fait faire aux petits oignons... Il ne colle plus avec la fin, et tu es obligé de virer tout le mixage fait par un autre...
[ Dernière édition du message le 18/10/2022 à 15:18:53 ]
Danbei
Darkmoon
Ton message n'est-il pas un peu condescendant ?
Moi je trouve au contraire le message de dogfacedgremelin intéressant dans la mesure où, peu importe les détails, si ce n’est qu’il nous rappelle qu’il y a une multitude de façon de procéder, en plus des besoins, objectifs et impératifs qui diffèrent pour tous.
C’est d’ailleurs pourquoi nous sommes plusieurs à souvent avoir déjà dit qu’il ne sert à rien de conseiller une machine sans tout d’abord demander quels sont les besoins, les objectifs visés ainsi que la façon de procéder.
Mais concernant spécifiquement les façons de « procéder~bosser », j’ai envie de lister tout ce qui me vient à l’esprit après avoir lu les derniers messages :
- La taille du buffer! C’est déjà une variable qui a nécessairement bcp d’impacte et dont personne n’a le même besoin. Pro ou amateur, peu importe, moi, perso, je compose majoritairement « live » en jouant les notes à l’aide de ma YRG (guitare MIDI sans cordes, à touché sensitif) et dont la « sensation d’instantanéité de jeu » (parce que je joue des passages plutôt rapides) nécessite pour moi un buffer de 128smp (voir 64smp) maxi. Déjà, si je passe sur un clavier avec un jeu plus « lent », je peux m’accommoder d’un buffer à 256smp voir 512smp dans certains cas. Et sinon, avec un soft de notation et/ou directement via le piano roll (mais j’aime moins), la taille du buffer n’a alors plus aucune importance et peut être paramétrée au maximum que permet l’interface audio… …ce qui impacte de façon considérable les perfs/nombre d’instance pouvant jouer simultanément sans « glitch »,
- Le fractionnement ou non en diverses étapes (composition, enregistrements audio, mixage, etc.) qui, pour certains, se doivent de pouvoir être tous géré simultanément au sein d’un même projet unique et qui, pour d’autres, peuvent être traité indépendamment en divers « sous projet », ce qui, encore une fois en relation avec les besoins ou non du buffer, impacte considérablement chaque étape ,
- La façon d’exploiter les instances des « ROMpler » (Kontakt, EW Play, SINE Player, etc), c’est-à-dire le paramètre de leur propre buffer ainsi que le fait de charger 16 instruments au sein d’une même instance et de gérer chacune des articulations via KS/CC VS charger une instance par instrument/articulation correspondant chacune à une piste unique dans le DAW,
- Tout faire à l’aide d’un seul ordinateur VS de multiples machines en réseau via VEP ou autres,
- Bosser en 44.1kHz~48kHz VS en 96kHz,
- Utiliser ou non une interface de type UAD/Antelope permettant d’exploiter des plugins d’effets qui n’exploitent pas le CPU,
- Exploiter les réverbérations incluses des instruments des ROMpler (Kontakt, etc.) ce qui démultiplie le nombre de réverb en action VS nos propres 5 ou 6 réverbérations dans le DAW,
- La gestion des Buss, groupes et sous-groupes de pistes dans le DAW,
- Les banques de son utilisées. Comme je l’ai déjà mentionné, certaines sont plus ou moins bien bien conçues, structurées et scriptées et consomment bcp plus de ressources que d’autres qui offrent pourtant exactement les mêmes possibilités et la même « qualité ».
Bref, voilà pour ce qui me vient rapidement à l’esprit. Il va sans dire que le nombre de combinaisons de possibilités de façon de travailler est énorme et que cela rend toute comparaison quant à ce que permet ou non tel ou tel CPU — en situation réelle — difficile à effectuer.
Sinon, oui, quand le budget est illimité, n’avons qu’à prendre ce qui se fait de plus performant (et/ou de mettre en réseau et/ou d’adjoindre des interfaces de type UAD, etc.), mais pour les autres (et/ou les « amateurs »), cela peut en effet être une bonne idée de séparer les diverses phases en de multiples sous projet, P. Ex., une avec une certaine latence et uniquement une « reverb d’ensemble générale » juste pour que le son soit « moins dure » uniquement pour la phase de composition au clavier. Une autre phase pour le « pré mixage » et retouches au piano roll, tjrs avec les pistes VSTI, mais où le buffer peut être augmenté. Ensuite une 3e phase où chacune des pistes est exportée en audio pour le mixage final avec le buffer au max, ce qui nous permet alors d’exploiter des dizaines de reverbs gourmandes et autres plugins d'effets. Etc.
Bref, ça peut paraitre lourd et contraignant a priori, surtout qu’on se dit que, de nos jours, nous devrions pouvoir tout faire au sein d’un même et unique projet, mais en fait il ne s’agit que d’établir une structure, une méthode et après quelque temps l’habitude fait son œuvre. De plus, il y a aussi des avantages à procéder par étape (enfin, pour certains individus comme moi) telle que, entre autres, nous « obliger » à faire des choix et à nous y tenir
Bref. Tout ça pour dire que je suis d’accord avec Danbei : prendre connaissance, dans le détail, de la façon de bosser de certains autres « compositeurs » ne peut qu’être intéressant et enrichissant, même si ça ne correspond pas forcément à notre façon de bosser! Ça m’intéresse moi aussi!
"Si t'enregistres à Poudlard, avec l'ingé son Dumbledore, les lois physiques tu peux t'en foutre. Mais dans l'monde réel, les lois physiques, les mesures, le dBFS, tout ça existe bel et bien." youtou
[ Dernière édition du message le 18/10/2022 à 17:45:11 ]
Sohsno01
Bref. Tout ça pour dire que je suis d’accord avec Danbei : prendre connaissance, dans le détail, de la façon de bosser de certains autres « compositeurs » ne peut qu’être intéressant et enrichissant, même si ça ne correspond pas forcément à notre façon de bosser! Ça m’intéresse moi aussi!
Je n'ai jamais dis le contraire ! J'ai juste relevé le début du message si tu fais attention, pas le reste... Et il s'avère que cétait juste une tournure maladroite, du coup, n'en faisons pas un fromage.
[ Dernière édition du message le 18/10/2022 à 18:44:53 ]
Snowfall
Aujourd'hui ce qui me bloque le plus au final c'est mon interface qui ne permet pas d'avoir un buffer plus grand que 1024, plus que la RAM ou même parfois le CPU malgré sa décennie.
Sohsno01
Aujourd'hui ce qui me bloque le plus au final c'est mon interface qui ne permet pas d'avoir un buffer plus grand que 1024, plus que la RAM ou même parfois le CPU malgré sa décennie.
C'est quoi ton interface ? Perso j'ai la rme aio, et ça fait bien le café pour pas très cher. Elle va de 32 à 4096 samples.
Pour le coup, il me semble qu'un problème de buffer vient essentiellement d'un CPU surchargé.
Snowfall
Eric Music Strasbourg
Les reverb evoquaient pas les uns ou les autres sont parfois si gourmandes que l'on peut tomber à 50 ou 60 pistes péniblement.
Comme je l'avais deja signalé des instruments à modelisation physique comme audiomodeling swam string woodwind brass ne se gèrent pas de la même facon.. car là le prix de conso cpu n'a plus rien à voir avec kontakt halion play ou autre mais le résultat non plus.
Pour les instruments solo c'est le top mais il faut savoir en limiter le nombre d'instances afin de laisser de la place pour les lecteurs de samples classiques.
Ensuite les instruments swam ont besoin de reverb prenant en compte les positions exactes des instruments dans l'espace recréé par les reverb à convolution qui pour certaines tiennent compte des risques d'effets de phase. Là encore on gagne en réalisme mais le cpu souffre aussi.
En fait on s'en tape un peu du nombre de pistes même si ça reste une indication à titre de comparaison faut il encore comparer avec la même méthode meme fichier... freudon a une bonne méthode je trouve puisqu'il compare à priori sur des banks de sons qu'il utilise et travail à priori sur le meme genre de workflow.
Pour moi ça ne me servirait à rien parce que mon workflow est totalement différent les vsti utilisés aussi les reverb également.
Après savoir combien d'instances de kontakt je peux charger en continuant à travailler je l'avais fait mais vraiment pour comparer le i9 et le ryzen 5900x.
Je l'avais fait aussi avec les swam mais j'ai oublié les résultats.
Autre point 200 ou 350 pistes ok mais quid de la gestion video.
En orchestral on travaille en tous cas je bosse avec la video. Un fichier mp4 en uhd ben ça bouffe de la ressource sauf que dans mon cas c'est nécessaire. En ce moment je bosse sur un long métrage (seconde guerre mondiale) le boulot est colossal.
Pour donner un exemple. Récupération des fichiers iso.
Eclatage des pistes.
Trie dans les différents stems.
Montage (d'habitude ca ne se fait pas sur nuendo mais sur davinci ou première....
Ensuite remise en phase des différents micros.
Nettoyage des pistes.
Création des foley via krotos...
Création des musiques.
Mixage du tout.
X export pour validation real&prod.
Tout ça c'est beaucoup d'espace disque..de cpu...
On peut certes prendre le projet et faire x projets du même projet. un pour les effets, l'autre pour les dialogues puis on prémix le tout et on bosse à côté la musique.
Alors on peut exporter les vsti en audio sauf que ça demande du temps et sur un long métrage la deadline n'est pas negociable et quand tu dois revoir un bout de .
la compo repasser de l'audio en.vsti c'est très très pénible.
Je ne parle même pas des doublages (l'adr ça consomme aussi) et ça demande de la fluidité donc de la ressource cpu.
Ou bien d'une modification le de la timeline parce qu'on a fait un insert ou couper une scène pour x raisons. Sauf que ça demande un recalage du tout au time code une remise en phase des micros parce qu'on peut perdre le rephasage à cause des éditions, des inserts...
Après mon exemple est très particulier puisque je cumule les postes c'est assez rare.
Bref pour moi un nombre de piste ne m'aide pas même si ça me donne une idée des capacités du cpu de sa chauffe...
Sauf que 200 pistes de play c'est pas 200 pistes de kontakt ou 200 pistes de krotos.
L'idéal serait d'avoir un magasin qui accepte de monter 2 ou 3 machines et de tester deja la compatibilité.
Ldlc à strasbourg a accepté de me laisser tester une carte mere plus cpu et ram avec ma carte uad pcie quad plus mes
cartes apollo 8. Ceci m'a évité l'achat d'une carte mère incompatible à l'époque le thunderbolt ça n'était pas une compatibilité certifiée.
Si j'étais fortuné (mais je ne suis pas à pleindre) je ferai x machines testables par qui veut mais ça c'est dans un autre monde.
Dernier point je bosse avec divisimate, ça permet de gagner du temps mais ça demande des ressources cpu pour faire ce que je souhaitais.
Ceci dit je comprends que l'on demande avant d'acheter parce qu'après c'est trop tard.
Et on a même pas parle d'un mix en atmos.
Je n'ai ni le lieu ni le matériel pour faire ça mais c'est encore plus de ressources.
Eric
[ Dernière édition du message le 18/10/2022 à 21:59:14 ]
Darkmoon
Citation de Sohsno01 :Je n'ai jamais dis le contraire ! J'ai juste relevé le début du message si tu fais attention, pas le reste... Et il s'avère que cétait juste une tournure maladroite, du coup, n'en faisons pas un fromage.
Je suis d’accord, pas de fromage!Moi aussi il n’y a que le début de mon msg qui fait allusion que je trouve celui de dogfacedgremelin intéressant. Pour le reste que je développe ensuite, c’est pour participer et énumérer tout ce qui entre en jeu, dans l’attente de la réponse que tu feras à Danbei qui te demande d’expliquer les différences que tu as identifiées dans les manières de travailler (et dont je dis à la fin de mon msg que ta réponse m’intéresse aussi!
)
"Si t'enregistres à Poudlard, avec l'ingé son Dumbledore, les lois physiques tu peux t'en foutre. Mais dans l'monde réel, les lois physiques, les mesures, le dBFS, tout ça existe bel et bien." youtou
Danbei
C'est une Scarlett 2i4 de première génération, qui fonctionne très bien pour mes besoins, mais je me disais qu'un buffer plus long devrait sans doute aider en toute logique, non ?
Si on regarde le benchmark de Scanproaudio par exemple :
- Pour le test DSP de 64 à 512 c'est les mêmes perf, bon là c'est franc
- Pour le test VSTi, l'augmentation relative baisse à chaque étape :
Je calcul le facteur d'amélioration par rapport aux perf du meilleur proc le 10980xe.
- 64 -> 128 : x1.9
- 128 -> 256 : x1.5
- 256 -> 512 : x1.3
[ Dernière édition du message le 18/10/2022 à 22:27:41 ]
Sohsno01
C'est une Scarlett 2i4 de première génération, qui fonctionne très bien pour mes besoins, mais je me disais qu'un buffer plus long devrait sans doute aider en toute logique, non ?
Moins que de passer de 256 à 1024, mais un poil quand même... C'est quoi ton processeur ?
Sohsno01
xHors sujet :
Je suis d’accord, pas de fromage!Moi aussi il n’y a que le début de mon msg qui fait allusion que je trouve celui de dogfacedgremelin intéressant. Pour le reste que je développe ensuite, c’est pour participer et énumérer tout ce qui entre en jeu, dans l’attente de la réponse que tu feras à Danbei qui te demande d’expliquer les différences que tu as identifiées dans les manières de travailler (et dont je dis à la fin de mon msg que ta réponse m’intéresse aussi!
)
ah c'est à moi qu'il parlait ? J'ai cru que c'était à dogfacedgremelin, c'est lui qui parlait de différences... Après, si c'est juste à propos de l'échange avec Freudon, on étaient sur le fait de séparer ou non les articulations d'un même instrument midi sur plusieurs pistes. L'avantage comme disait Freudon, c'est qu'il peut muter certaines pistes et du coup alléger la charge, perso je garde tout sur la même, c'est plus clair, surtout quand on change d'articulation plusieurs fois dans la même phrase ! Par contre, là ou personnellement j'utilise plusieurs pistes, c'est pour enregistrer les vélocités ou tout autre modification midi, je trouve ça plus pratique. Après l'orchestrale, c'est un peu à part, parce qu'il n'y a pas 50 FX à mettre, mais sinon, il y a ceux qui travaille avec un son brut, et ceux qui mixent en même temps. Pour avoir tester les deux manières, je préfère mixer en même temps, surtout pour les compositions électro, parce que le son que j'entends à une influence sur ma manière de composer, et que si je mixe après, je n'ai plus envie d'entendre les mêmes choses, et je passe mon temps à rechanger des choses pour les faire correspondre au nouveau son. (Du coup ça n'en fini pas)
Quand je parle de mixer, je parle juste DYN/EQ/FX, pour ce qui est des volumes et des automations, ça ne me dérange pas de les faire dans une étape ultérieur.
Du coup il me faut un pc qui arrive à suivre !!!
Sinon, au niveau des différences dans la manière de travailler, elles sont assez innombrables ! Déjà au niveau de l'inspiration, est-ce que on part d'une idée qu'on veux absolument coucher dans le DAW, est-ce qu'on part d'un son qui va nous inspirer telle ou telle phrase ?
Même au niveau du rendu définitif, par exemple, je viens de finir un petit morceau orchestral qui a pour vocation d'être joué par un orchestre en live. Bon, du coup, je ne me suis pas amusé à fignoler les dynamiques ni même le son, puisque le but est juste d'éditer des partitions...
On peut aussi différencier ceux qui écrivent un morceau à partir d'une grille d'accords, et ceux qui écrivent une grille d'accords par rapport à une mélodie.
J'avais une conversation intéressante la dessus avec un chef d'orchestre fan d'histoire de la musique, qui m'expliquait que beaucoup de concertos étaient justement composés uniquement à partir de la mélodie du soliste, et que toute l'orchestration venait après. Mais on peut tout aussi bien faire l'inverse, ça donne des défis intéressants, voir faire les deux en même temps, et du coup, l'harmonie influence la mélodie, qui influence l'harmonie, et on peut se retrouver dans des terres sonores qu'on avaient pas envisagé...
Dans les façons amusante de travailler, ça me rappelle une anecdote, un compositeur qui avait fait la musique d'un film, et au moment de faire enregistrer la composition par un orchestre, la production a décidé que ça couterait moins cher de louer les services d'un orchestre en Roumanie. Du coup, il a dirigé tant bien que mal l'orchestre en visio-conférence. Avec la latence, il a finit par juste donner les instructions, c'était folklorique. Il y a aussi tout les débuts du cinéma hollywoodien, ou les compositeurs étaient limite attaché à une chaise, et composaient à la chaine sans avoir vu autre chose que le script, ils utilisaient les formules toutes faites qu'on apprends à berckeley collège sur les émotions (Tristesse, neutre, joie, magie, suspense, action) Les partitions étaient envoyé directement aux studios d'enregistrement à coté, ou les musiciens enchainaient les films toute la journée.
Bon, je vais m'arrêter là, j'ai l'impression de parler tout seul, et de toute façon c'est sans fin !
dogfacedgremelin
Dans mes échanges les compositeurs m’ont souvent indiqués qu’ils ajoutent ça dès qu’il est possible de modifier pour ajouter du réalisme comme dans kontak par exemple
apprendre est une des choses les plus difficile à faire. Alors j'apprends chaque jours.
Snowfall
Citation de Snowfall :En principe ça devrait pas beaucoup changer, en fait dans un environnement idéal (OS temps réel, pas d'autres logiciel qui tourne), on devrait avoir les mêmes perf quelque soit la taille du buffer. Malheureusmeent on est jamais dans cette environnement idéal donc il faut augmenter le buffer. Mais en général à partir d'un certains point, 256/512 on est déjà "stable" donc on a plus grand chose à gagner à aller plus haut.C'est une Scarlett 2i4 de première génération, qui fonctionne très bien pour mes besoins, mais je me disais qu'un buffer plus long devrait sans doute aider en toute logique, non ?
Si on regarde le benchmark de Scanproaudio par exemple :
- Pour le test DSP de 64 à 512 c'est les mêmes perf, bon là c'est franc
- Pour le test VSTi, l'augmentation relative baisse à chaque étape :
Je calcul le facteur d'amélioration par rapport aux perf du meilleur proc le 10980xe.
Il y a fort à parier qu'à 1024 ce soit à peine meilleur qu'à 512 et 2048 là plus grand chose à espérer.
- 64 -> 128 : x1.9
- 128 -> 256 : x1.5
- 256 -> 512 : x1.3
Pourtant quand ça craque, j'ai bien un gain à passer de 512 à 1014 à titre personnel. J'ai des banques où 1024 ça commence à être sérieusement juste, mais du coup je comprends mieux puisque la différence avec 512 est semble-t-il minime. Je ne savais pas du tout, c'est bon à savoir.
Une question du coup, c'est purement marketing de proposer un buffer de plus de 1024 ?
Citation de Snowfall :C'est une Scarlett 2i4 de première génération, qui fonctionne très bien pour mes besoins, mais je me disais qu'un buffer plus long devrait sans doute aider en toute logique, non ?
Moins que de passer de 256 à 1024, mais un poil quand même... C'est quoi ton processeur ?
Un 4770K que je vais changer d'ici quelques jours. J'avais d'ailleurs pendant un temps hésité à changer l'interface plutôt que le CPU, pensant qu'aller au-delà de 1024 règlerait mes problèmes. D'après ce que j'ai compris, ça n'aurait servi à presque rien.
Sohsno01
Pour vos articulations et pour améliorer le jeu de l’instrument vous faites des macros et scripts ?
Dans mes échanges les compositeurs m’ont souvent indiqués qu’ils ajoutent ça dès qu’il est possible de modifier pour ajouter du réalisme comme dans kontak par exemple
Non, j'utilise principalement bbcso qui est fermé, on ne peut pas mettre les mains dans le cambouis. Mais même si je pouvais, je ne pense pas que je le ferais, pour moi le problème du réalisme ne vient pas tant du son que de l'interprétation. Du coup, je modifie souvent la position et la vélocité des notes une à une, un trait rapide va être joué devant le temps, un trait lent après. Même chose pour un trait joyeux et un triste. Et surtout, modifier la vélocité à l'intérieur d'un même trait, aucun instrumentiste ne joue toutes ses notes avec la même intensité, c'est en permanence une montée et une baisse d'intensité. Une autre chose que je fais, et que d'ailleurs je regrette de ne pas avoir fait dans ma dernière création, c'est de jouer avec le tempo pendant tout le morceau. Dans un moment de tension, passer de par exemple 120 à 122 (de manière linéaire bien sur) va provoquer une "impression" réaliste, pareil derrière un moment d'apothéose ou ça se calme, on a encore un peu la fougue du passage qui décroit de 122 à 120 par exemple. On peut aussi modifier la vélocité générale d'un instrument en fonction des autres, de la même manière qu'un instrumentiste est influencé par ce qu'il entend autour de lui dans l'orchestre, s'il y a d'un coup plus de masse sonore, il va jouer instinctivement plus fort, et inversement, il va laisser la place à un lead. Une autre chose que je regrette de ne pas avoir fait plus tôt (encore faut-il avoir le plugin qui le permette) c'est de jouer avec les micros. Pour chaque section, faire un mix différent, très légèrement plus d'ambiance et moins de présence pour les contrebasses et vents que pour les violons et violoncelles par exemple.
Et sélectionner ses réverbérations avec soin, ajouter un plus grand predelay pour les instruments les plus éloignés, etc...
Après la notion de réalisme est parfois un peu étrange, je me souviens une ou deux fois pendant un concert dans une salle à l'acoustique particulière, m'être dis qu'on avait l'impression d'entendre un vst... (Le comble)
Voilà quelques unes des choses que je fais personnellement...
[ Dernière édition du message le 19/10/2022 à 08:56:37 ]
Sohsno01
Un 4770K que je vais changer d'ici quelques jours. J'avais d'ailleurs pendant un temps hésité à changer l'interface plutôt que le CPU, pensant qu'aller au-delà de 1024 règlerait mes problèmes. D'après ce que j'ai compris, ça n'aurait servi à presque rien.
Un 4770 et tu es limité aussi vite ? curieux, tes plugin doivent vraiment être trèèèès gourmand, c'est quoi ?
Snowfall
Citation de Snowfall :
Un 4770K que je vais changer d'ici quelques jours. J'avais d'ailleurs pendant un temps hésité à changer l'interface plutôt que le CPU, pensant qu'aller au-delà de 1024 règlerait mes problèmes. D'après ce que j'ai compris, ça n'aurait servi à presque rien.
Un 4770 et tu es limité aussi vite ? curieux, tes plugin doivent vraiment être trèèèès gourmand, c'est quoi ?
Cycles et Landforms de Slate & Ash, les simu' de Neural DSP et les reverbs en général, Blackhole n'est pas loin d'être inutilisable en temps réel. La Plate d'Arturia a beaucoup de mal aussi.
Cela étant dit, je précise que c'est pour de l'ambient/drone, donc il y a tout un bazar au niveau des plugins que je pourrais en temps normal ajouter durant le mixage, mais vu le genre je suis obligé de les avoir en temps réel pour créer les couches, et même en 1024 au niveau du buffer ça devient de plus en plus ingérable.
Pour une utilisation plus standard où les effets pourraient être ajoutés après l'enregistrement, le CPU n'aurait aucun problème je pense, mais dans mon cas ça devenait ingérable.
[ Dernière édition du message le 19/10/2022 à 09:40:03 ]
Danbei
Citation de Darkmoon :xHors sujet :
Je suis d’accord, pas de fromage!Moi aussi il n’y a que le début de mon msg qui fait allusion que je trouve celui de dogfacedgremelin intéressant. Pour le reste que je développe ensuite, c’est pour participer et énumérer tout ce qui entre en jeu, dans l’attente de la réponse que tu feras à Danbei qui te demande d’expliquer les différences que tu as identifiées dans les manières de travailler (et dont je dis à la fin de mon msg que ta réponse m’intéresse aussi!
)
ah c'est à moi qu'il parlait ? J'ai cru que c'était à dogfacedgremelin, c'est lui qui parlait de différences...
Cela étant dit, merci Sohsno01 pour tes interventions, j'avais pas pensé à tes idées pour le réalisme (notamment la vélocité d'un instrument en fonction des autres), intéressant !
[ Dernière édition du message le 19/10/2022 à 10:30:10 ]
Danbei
Une question du coup, c'est purement marketing de proposer un buffer de plus de 1024 ?
[ Dernière édition du message le 19/10/2022 à 10:29:12 ]
Sohsno01
https://www.youtube.com/watch?v=C5UUsZRHGIc
- < Liste des sujets
- Charte