Top config PC MAO 2019 (test, bench, discussion, débat...)
- 1 600 réponses
- 70 participants
- 102 890 vues
- 80 followers

Darkmoon

Ce sujet est la suite logique de celui intitulé :
Top config PC MAO 2018 (test, bench, discussion, débat...)
(Dernière page ici.)
...où nous avons effectué plusieurs tests, dès le printemps 2018, concernant les nouveaux processeurs du moment, comme le i7 8700k, sous différents DAW/STAN (station de travail audio numérique).
Nous poursuivons donc ici à causer des nouveaux processeurs du moment, comme le i7 9700k et i9 9900k sous Socket 1151, ceux de la série X, comme les i9 9820X, 9800X, 9920X, 9940X, 9960X, 9980XE sous Socket 2066, et, bien sûr, les Ryzen 7 3700X, 3800X, 3900X et les Threadripper 1900X, 1920X, 1950X, 2920X, 2950X, 2990WX.
Mais tous sont bienvenus, peu importe leur processeur!

Nous effectuons parfois des tests et des benchs. Nous causons aussi de configuration MAO et d'optimisation, de notre façon de bosser dans tel ou tel DAW, etc. Nous partageons nos machines et configs et aiguillons les newbs et/ou ceux qui posent des questions vers la machine la plus appropriée pour leur besoin et, bien sûr, nous débattons parfois, mais dans la bonne humeur et le respect, parce que nous sommes passionnés, mais ne partageons pas tous forcément les mêmes idées et opinions (ce qui est très bien ainsi!).
Voilà, en souhaitant de bons échanges à tous!

"Si t'enregistres à Poudlard, avec l'ingé son Dumbledore, les lois physiques tu peux t'en foutre. Mais dans l'monde réel, les lois physiques, les mesures, le dBFS, tout ça existe bel et bien." youtou
[ Dernière édition du message le 11/09/2019 à 04:37:29 ]

cortez77


jm_83

donc pas. de soucis, le chipset X370 était le haut de gamme il y a 2 ans.
Pour l'alimentation ok 650 W c'est largement plus qu'il n'en faut.
[ Dernière édition du message le 14/07/2020 à 23:42:29 ]

Eric Music Strasbourg

alors j'ai fini la config asrock taichi x570 plus ryzen 9 3900x 64 giga 3000 deux disk nvme
carte fille asrock thunderbolt 3 aic r2.0.
carte graphique 1030
les périphériques thunderbolt sont tous reconnus.
la carte apollo quad th2 avec adaptateur est reconnue.
les cartes uad pcie 2 sont totalement reconnue uad 2 duo ou quad (les ocots aussi)
w10 1909 (ne pas installer la 2020)
on arrive à descendre à 3ms de latence mais je préfère rester à 7 ou un peu plus et avoir un maximum de vsti jouables.
en tous cas ca déménage!!!!
ceci dit comme l'a deja indiqué darkmoon intel gere mieux les basses latences.
autre point j'ai fait tourner ma carte apollo 8 th2 en firewire (c'était une czrte apollo8 firewire auquel j'ai ajouté l'option card th2 à l'époque.
point de vue latence en firewire 800 on est à 13.996 en 512 smpl
point de vue latence en th3 via adaptateur on est à 13.696 en 512 smpl
bien peut de différences en ce qui concerne la latence...
par contre en stabilité de connexion peut être que le th3 gagne un peu... à forte charge (nombreuses pristes audio TH3 semble avoir un avantage.
dernier point intel sort le th4 fin d'année sur les premiers ordinateurs... moi j'arrete la les conneries parce que pour saturer un th3 il faut se lever tot! bon il est 6h56 ca va !
pour une latence basse sans craquement (glitsch) un i 90 10900k fera il faut le dire est rester honnête! mais le prix n'est pas le meme! 650euros pour le i9 10900k (en plus introuvable y a pas de stock) contre 473 euros pour
le ryzen 9 3900x.
j'ai comparé mon i9 9900k et mon ryzen 9 3900x. le ryzen generera plus de vsti et plus de note si je laisse la latence à 13ms en 512smpl. si je descends à 3ms en 64 samples ca glitsch!!!
le i9 9900k moins d'instances de vsti mais à 3ms il s'en fout!!!
bref en conclusion un diesel va plus loin qu'une ferrari, mais il y va moins vite...
je pense avec toutes ces expériences que le meilleur choix actuel est le i9 10900k
dernier point un lien sur le test du i9 10980xe. ce processeur dans les bench explose tout y compris le i9 9900k (oui j'ai bien écris i9 9900k) sauf que dans les jeux il fait moins bien que ce dernier! le i9 9900k fait mieux qu'un 10980xe...
https://www.hardwarecooking.fr/test-intel-core-i9-10980xe/5/
on en revient a cet équilibre d'avoir la fréquence la plus élevée possible avec le plus de coeurs possible le tout optimisé pour cubase & w10. a ce jour l'optimisation est faite pour le i9 10900k par pour un i9 10980xe et ni pour le ryzen9 3900x...
quand on "sature" (sans glitsch) sur la jauge cubase et que le processeur ryzen 9 3900x en oc à 4.3 (60 à 70 degrés environ en pleine charge) sur tous les coeurs tourne à moins de 30% le problème est ailleurs... sauf que quand on a optimisé sa machine en alimentation, pcie usb processeur, programme arrière plan etc ben il ne reste que l'explication que darkmoon a donné c'est la structure même des processeurs amd qui nous limitera en ce qui concerne la latence.
du coup je me dis qu'il est urgent d'attendre la réaction d'intel et son passage en 7nm qui changera tout en terme de température!!!! et donc de conso
Eric
[ Dernière édition du message le 16/07/2020 à 06:56:59 ]

Freudon

on arrive à descendre à 3ms de latence mais je préfère rester à 7 ou un peu plus et avoir un maximum de vsti jouables.
en tous cas ca déménage!!!!
ceci dit comme l'a deja indiqué darkmoon intel gere mieux les basses latences.
quand on "sature" (sans glitsch) sur la jauge cubase et que le processeur ryzen 9 3900x en oc à 4.3 (60 à 70 degrés environ en pleine charge) sur tous les coeurs tourne à moins de 30% le problème est ailleurs... sauf que quand on a optimisé sa machine en alimentation, pcie usb processeur, programme arrière plan etc ben il ne reste que l'explication que darkmoon a donné c'est la structure même des processeurs amd qui nous limitera en ce qui concerne la latence.
Pourquoi vouloir systématiquement overclocker
J'ai un 3900x moi aussi et oui je trouve que ça déménage.(moi je compare a mon ancien FX8350)
De toute façon il arrive toujours un moment ou on est a la limite et je préfère un processeur stable
qui enlève un des paramètres aléatoires qui peut ou pourrait poser problème.
C'est très compliqué de comparer car même en étant sur le même daw cubase(pour moi 10.5.20) et windows 10,
pleins d'autres paramètres sont a prendre en compte:
le nombre de pistes activées et de plugins
le type de carte son en usb firewire thunderbolt et la marque
la carte mère et la gestion de tous les ports
la mémoire vive(fréquences quantité de ram marque)
les disques systèmes et de sessions(ssd-nvme HDD 7200trs et le nombre connectés)
une alimentation stable
un boitier bien refroidi
etc...
Cela n'engage que moi mais je pense que la mao et l'overclocking ne sont pas fait l'un pour l'autre
car je vois que sur la plupart des forums tout le monde cherche en priorité un système stable
ce qui est le plus important en enregistrement audio
et donc on essaye tous de régler aux petits oignons nos configs et nos logiciels en fonction
des préconisations des différents éditeurs ou fabricant de matériel
et aucun d'eux ne s'aventurent a parler d'overclocking.
[ Dernière édition du message le 16/07/2020 à 11:28:17 ]

Eric Music Strasbourg

Pourquoi vouloir systématiquement overclocker
Salut Freudon,
parce que quand tu utilises dans banks de sons du type audiomodeling ou samplemodeling tu vas beaucoup plus loin en terme d'expressivité.... le vibrato en vitesse comme en profondeur sont facilement paramétrables et contrôlables en temps réels.
pour des set orchestraux ca change tout!
du coup quand tu joues un accord composé de 8 notes pour jouer des violons temps réel tu utilises 50% de ton cpu!!
A partir de là il y a deux solutions
1) revenir aux samples traditionnels avec toute la frustration que celà implique. je ne sais pas si tu as deja jouer sur un yamaha vl1 (le son de saxo par exemple) c'est juste de la folie. aujourd'hui audiomodeling fait la meme chose avec un breath control. (mai sje crois que tu en as un tu en avais parlais me semble t'il dans un de tes posts).
2) avoir une machine ultra puissante pour avoir un mix des deux technologie. d'un coté pour les solo jouer les instrument à modélisation physique, de l'autre du sample.
mais il y a une troisimes solution qui est selon moi moins pratique.
3) avoir un systeme en réseau avec vienna . mais il y a des contraintes. par exemple exporter les violons dont je parlais demande autant d'instances de vienna que de portées. on doit considérer que chaque violon est monodique voir duophonique maximum. bien sur on peut jouer plusieurs canaux midi via vienna. mais alors l'export audio de la piste (si nécessaire) sera en stéréo avec une seule piste pour les 8 notes donc 8 portées donc 8 pistes... solution qui ne me convient pas personnellement.
ceci donc explique celà... voila pourquoi je suis obligé d'oc.
autre raison lorsque je laisse le systeme géré les fréquences je remarque que j'ai plus de glitsch que quand je demande une frequence constante.. ceci dit j'ai decouvert ce matin un dossier qui me laisse sans voix.
je pensais que la fréquence mémoire était peu importante sur l'optimisation de la mémoire. sauf que ça n'est pas vrai...
pour une optimisation il faut du 3733 mhz... ca n'est pas ce que j'avais lu à gauche à droite. le dossier en question est vraiment fabuleux car il test non seulement les performance cpu mais mémoire aussi et ce pour des buffers de 64 / 128 / 256 / 512 samples!
on voit alors l'impact de la course au 3 ms de latence. ça coûte un max d'instance et de polyphonie.
si je compose avec des instances de vsti à base de samples c'est un peu moins tendu que audiomodeling et samplemodleing.
mais ceci dit il faut regarder les banks de sons actuels, je joue une note sur kontakt et je vois 4,6 voir 10 notes de polyphonie.... là aussi il faut donc gérer la véritable polyphonie consommée..
https://www.scanproaudio.info/tag/dawbench/
Cela n'engage que moi mais je pense que la mao et l'overclocking ne sont pas fait l'un pour l'autre
car je vois que sur la plupart des forums tout le monde cherche en priorité un système stable
ce qui est le plus important en enregistrement audio
tu as parfaitement raison. ceci dit avec cpuz et un bench on sait si on est stable ou non... mais alors il faut etre raisonnable un peu d'oc peut apporter en vouloir trop n'apporte qu'instabilité.
je ne sais pas si mes explications sont claires et surtout je ne sais pas si tu utilises audiomodeling et samplemodeling si tu as l'occasion de tester tu vas vite comprendre le problème... à ca s'ajouter les systeme du type mira de vsl...
là encore conso cpu pour chaque l'instrument afin de le placer au bon endroit dans l'espace...
il y a 20 ans, on faisait aussi de la ziq, on avait aussi des reverb à convolution.. la premiere que j'ai vu c'était en 1998 . je l'ai installée sur mon pc... il ne pouvait jouer qu'une piste.... le cpu consommait toutes les ressources.
au fil du temps nos cpu deviennent de plus en plus puissant, mais les développeurs sont allés vers de plus en plus de possibilités, de précision de calcules, d'options du type placement de l'instrument... bref nos cpu font de mieux en mieux nos soft en demandent de plus en plus. une course sans fin.
Eric
[ Dernière édition du message le 16/07/2020 à 13:43:41 ]

Freudon

Merci pour ton explication
parce que quand tu utilises dans banks de sons du type audiomodeling ou samplemodeling tu vas beaucoup plus loin en terme d'expressivité.... le vibrato en vitesse comme en profondeur sont facilement paramétrables et contrôlables en temps réels.
pour des set orchestraux ca change tout!
Je ne possède pas de banque Audiomodeling ou Samplemodeling
mais je suppose que cela doit être un peu comme la banque Spitfire audio Solo Strings
avec le Solo Violin Total Performance et le Cello aussi dans une moindre mesure
qui utilise beaucoup de ressources.
Mon ancien FX8350 avait du mal a suivre et c'est pourtant un 4 coeurs 8 threads.
Maintenant avec mon 3900x plus de soucis.
Mais là il est vrai que l'on parle d'enregistrement en temps réel.
Ce n'est pas ma façon d'écrire sauf juste a trouver les idées.
Un séquenceur comme cubase que j'ai découvert pour ma part il y a peu permet de faire un travail chirurgical.
Et c'est ce travail qui lui seul peut permettre d'approcher le jeu de tout un orchestre de joueurs professionnels.
Après bien sur en fonction du niveau instrumental de chacun je me doute que beaucoup peuvent s'éclataient
avec toutes les banques qui sortent au fur et a mesure ainsi qu'aux nouveaux matériels.

Mus'images

vous avez vu passer cette news ?
https://www.hardwarecooking.fr/amd-annonce-ryzen-threadripper-pro/
Serait-ce la réponse d'AMD face à certains retours très négatifs en MAO, avec une gestion de la RAM catastrophique lors de sessions exigeantes ? Impossible de se prononcer à l'heure actuel, mais à surveiller de près.
Sinon je suis tombé sur une vidéo avant hier soir, où le mec explique la différence entre le "CPU Performance" et le "Real-Time Performance":
La conclusion rejoint tout ce qu'a pu expliquer Darkmoon, et c'est plutôt frustrant car malheureusement lors de la conception d'un super PC pour la MAO, il ne faut pas se soucier "Que" du nombre de coeurs, mais surtout de tout ce qu'il y a autour pour éviter d'être vite embêté par le "Real-Time Performance".
[ Dernière édition du message le 16/07/2020 à 14:56:27 ]

Freudon

je pensais que la fréquence mémoire était peu importante sur l'optimisation de la mémoire. sauf que ça n'est pas vrai...
pour une optimisation il faut du 3733 mhz... ca n'est pas ce que j'avais lu à gauche à droite. le dossier en question est vraiment fabuleux car il test non seulement les performance cpu mais mémoire aussi et ce pour des buffers de 64 / 128 / 256 / 512 samples!
C'est de ce dossier que tu veux parler.
https://www.cgdirector.com/best-memory-ram-amd-ryzen-cpus-3600-3700x-3900x/
ou celui là peut-être
https://www.scanproaudio.info/tag/dawbench/
D'après plusieurs sites la fréquence optimum pour les ryzens 3000 serait de la 3600mhz.
C'est ce que j'avais déjà signalé plus haut.
Moi je suis en 3200mhz avec 64 gigas mais si je passe a 128 j'opterai pour de la 3600mhz.
[ Dernière édition du message le 16/07/2020 à 15:12:03 ]

Eric Music Strasbourg

oui le dossier https://www.scanproaudio.info/tag/dawbench/ . je n'avais pas vu que tu l'avais mis. c'est une mine d'or
pour audiomodeling en fait il n'y a pas de sample... c'est comme pour les pianos pianoteq... c'est une sorte d'equation mathématique qui va calculer ce que donnerai le son suivant différent parametre comme la pression du souffle l'inclinaison de la tete (avec un breath contrôleur)...
d'apres ce que j'ai pu voir spitfire utilise de ssamples... je ne suis pas certains que tu puisses modifier en temps réel la vitesse et la profondeur du vibrato chez spitfire.. si quelqu'un à l'info ca m’intéresse.
pour samplemodeling le systeme est différents les samples sont lus mais une multitude de samples gérant les vibrato existent. c'est la modulation qui va choisir quells samples doivent etre lus... le cc13 lui va gérer la vitesse du vibrato.
il y a donc deja trois inconues dans le choix des samples à charger et jouer en live.
1) le cc11 ou 2 pour l'intensité
2) le cc1 pour le taux de vibrato
3) le cc13 pour la vitesse du vibrato
il y en a d'autre par exemple le nombre de violoniste. ainsi tu peux faire 8 violoniste puis passer à 12 puis à 16 par exemple avec une pédale d'expression réglé sur le bon cc (dont je ne me souviens plus le numero

c'est vraiment quelque chose d'incroyable point de vue réalisme. de la meme façon si tu lie deux notes d'une façon particuliere les deux notes seront liés en glissando...
j'ai un peu envie de dire que les keyswitch sont remplaçables avec cette manière de créer et donc de gérer cette bank...
le problème c'est le prix!!! mais ça vaux le coût et largement pour faire le l'orchestral.
il n'y a qu'un probleme à cette technologie la maitrise du breath control... d'ailleurs j'attends la prochaine version midi2.0 qui aura une plage bien plus grande mais saurais-je (si je suis encore de ce monde) maîtriser comme un vrai joueur de trombone de trompette ou de cors français les taux de pressions et la rapidité à avoir...
pour la fréquence mémoire oui 3600 ou 3733. c'est ce qu'explique le mec dans dawbench. tu gagnes 10 à 15 instances ca n'est pas rien.... moi je suis en 3000 faute de budget pour l'instant...
tiens moi au courant en mp pour les 3600 quand tu les auras installés si tu retrouves ce gain de 10% environ.
Eric
[ Dernière édition du message le 16/07/2020 à 16:57:30 ]

Darkmoon

Sinon je suis tombé sur une vidéo avant hier soir, où le mec explique la différence entre le "CPU Performance" et le "Real-Time Performance" [...] La conclusion rejoint tout ce qu'a pu expliquer Darkmoon, et c'est plutôt frustrant car malheureusement lors de la conception d'un super PC pour la MAO, il ne faut pas se soucier "Que" du nombre de coeurs, mais surtout de tout ce qu'il y a autour pour éviter d'être vite embêté par le "Real-Time Performance".
Oui, cette vidéo, je l'ai postée plusieurs fois sur AF! Elle est même devenue « une classique » sur plusieurs forums (surtout anglophone) traitant de MAO, avec ces 2 autres vidéos d'ailleurs :
Monty Montgomery : D/A and A/D | Digital Show and Tell
Ethan Winer : Audio Myths Workshop
Pour ceux qui connaissent déjà, juste à passer, mais en rapport avec la vidéo partagée par Mus'images, je vais rappeler (en français contrairement à la vidéo) pourquoi la jauge CPU de nos DAW n’indique pas forcé 100% avant de « glitcher » et pourquoi la jauge de nos DAW peut indiquer une valeur tout à fait différente de la jauge CPU de L’OS :l
Avant tout, concernant le nombre de cœurs/threads d’un ordinateur et des jauges CPU des DAW et de l’OS, dans un contexte MAO, faut savoir que :
1- ça concerne tous les DAW/STAN, tous les OS/plateforme (Win/Mac/Linux) et tous les plugins!
2- oui, certaines DAW et certaines pulgins sont plus ou moins bien optimisées pour exploiter plus d’un cœur/thread, mais...
Dans un DAW/STAN certaines opérations ne peuvent tous simplement pas être calculé en parallèle par plusieurs cœurs/threads. C’est tout simplement impossible techniquement~physiquement à cause de l’implication du temps réel.
C’est ce qu’explique Richard Ames dans la vidéo en anglais qu’a partagé Mus'images. L’audio, même si ça peut paraitre contre-intuitif a priori est l’activité qui demande le plus de ressources (et la plus sujette à la notion de « bottleneck » ou « goulot d’étranglement » en français).
Parce qu’en montage vidéo/3D, ben l’on effectue des corrections et ajustements et l’on appuie ensuite sur « play », on réajuste et l’on réappuie sur « play », ainsi de suite. L’on ne corrige pas tout en faisant jouer la vidéo. Alors qu’en musique, c’est différent, on laisse jouer pendant que nous effectuons des ajustements. Voilà pourquoi le temps réel est bcp plus important en musique!
Et c’est ce qui explique, dépendamment de la façon dont on travaille, qu’il est souvent plus efficace d’acquérir un CPU avec moins de cœurs, mais avec une plus haute cadence GHz quand on utilise des DAW.
Parce que les divers traitements (calculs) ne peuvent pas toujours s’effectuer en parallèle (= tous les cœurs qui travaillent en même temps) dans les DAW. Autrement dit, l’ensemble des calculs que requièrent nos VSTI/VST n’est pas systématiquement dispatché de façon égale entre tous les cœurs de processeur. Parce que certaines chaines d’effets ne peuvent être traitées qu’en série (donc par un seul et unique cœur). Sans compter que le processeur doit attendre que tous les autres composants et périphériques en cause lui renvoient les infos nécessaires!
Par exemple, si vous avez dans une piste/tranche de plusieurs effets (disons un EQ, suivit d’un comp, suivit d’un enhancer, etc.), le DAW ne peut pas utiliser n cœurs afin de traité simultanément ces 3 effets parce que c’est virtuellement impossible!
Pourquoi? Parce qu’avant de pouvoir calculer et appliquer le résultat du dernier effet, il doit nécessairement calculer le résultat du premier, du deuxième et du troisième. Du coup, quand un cœur/thread calcule le résultat du premier effet, il est impossible qu’un autre cœur/thread puisse effectuer simultanément le calcul de l’effet qui suit (dans une même chaine d’effet/tranche) au même instant t puisqu’il ne connaît pas encore le résultat de l’effet précédent!
Pour faire une image plus parlante, disons que vous avez 12 employés devant construire une maison, c’est-à-dire monter les murs de votre maison, les peindre et au final décorer votre maison, tous prêt à bosser en parallèle, simultanément, ben ces derniers ne pourront de toute façon pas commencer à peindre avant que la charpente et les mures ne soient montées et encore moins commencer à accrocher des tableaux aux murs et des rideaux aux fenêtres avant que la peinture ne soit terminée. Donc puisqu’ils ne pourront de toute façon pas tous bosser en parallèle simultanément, mais devront bosser « en série », c’est à dire à la suite des uns des autres, peu importe leur nombre, au moment où les « cœurs~employés » montent les murs, tous les autres, mêmes si non-exploités, ne peuvent rien faire d’autres qu’attendre! Donc aussi bien avoir moins d'employés, mais extrêmement rapides VS plusieurs employés, mais moins rapide (parce que les murs seront montés plus rapidement et que suivra donc plus rapidement la suite des travaux « en série »).
Aux plus perspicaces qui se diront : « mais pourquoi tout simplement ne pas affecter tous les « cœurs~employés » à chaque opération ? Même lors des traitements en série? Genre, les 12 employés montent les murs, ensuite les 12 peinturent les murs, ensuite les 12 accrochent les tableaux et rideaux aux murs et puis basta! »
Bien joué!
Sauf qu'ils devront alors tous communiquer ensemble pour travailler en symbiose, ce qui ajoutera du temps supplémentaire!
Bon, l'explication réelle est très technique, mais, grosso modo, pour vulgariser~simplifié, c'est qu'il est plus coûteux en temps, pour le système, de communiquer et d'attendre les « réponses » de chaque cœur que lorsqu'une chaîne de traitement est traitée par le même et unique cœur. Voilà pourquoi tous les DAW sont codés de façon à disptacher (répartir) les différentes opérations en terme de « chaîne de traitement » étant liées aux différentes pistes, tranches, BUS, etc., parce qu'au final, c'est plus efficace que de tout donner à tout faire à tous les cœurs.
Bref, ça concerne des problèmes et notions de codage et de fonctionnement des processeurs et ça dépasse mes compétences, mais certains programmeurs ont déjà expliqué tout ceci en détail, ici même sur AF, mais aussi sur plusieurs autres forums.
Donc, pour résumer, toute piste audio ou VSTi qui est lié à une même chaine d’effets (piste/tranche/BUS/AUX) ne peut être traité que par un seul et unique cœur. Et c’est d’ailleurs aussi ce qui explique, même lorsque nous avons qu’une seule piste dans un DAW, que sa jauge d’utilisation CPU puisse parfois indiquer 99% (parce qu’un seul cœur est sollicité, disons, par des effets très gourmands sur la tranche correspondante) alors que le gestionnaire de l’OS, lui, indiquera bcp moins (disons 25%) puisque, lui, tient compte du fait qu’un seul des n cœurs (pour l’ensemble du système) est sollicité par un logiciel.
Par corollaire, nous pouvons donc en déduire que plus nous utilisons de BUS/AUX dans un DAW, plus nous lions ensemble des pistes/tranches qui se partagent alors une même « grande chaine d’effet ». Du coup, le DAW peut moins efficacement dispatcher (répartir) et traiter de façon simultanée, au même instant t, les divers effets de cette même « grande chaine » entre tous les cœurs/thread du CPU parce qu’il doit attendre que les premiers, dans l’ordre du temps, soient calculés avant de passer aux suivants!
Donc, dans certains projets, il vaut parfois mieux travailler en utilisant des pistes indépendantes plutôt que de router toutes les tranches dans un BUS commun. De cette façon, le DAW peut dispatcher et donc traiter (par plus d’un cœur/thread) simultanément, au même instant t, les chaines d’effets qui ne sont pas liés entres elles, ce qui fait que, parfois, même si l’on a bcp plus de VST d’ouverts dans le DAW, la charge sera répartie en plusieurs cœurs/thread et la jauge d’utilisation CPU indiquera un moindre pourcentage, même si cela semble paradoxal ou contre-intuitif à priori, qu’un autre projet utilisant moins de plugins, mais où ils sont tous lié dans un processus en série (de par un BUS commun).
De plus, lors de l’ouverture du DAW, le fait d’ouvrir un tout premier plugin et de constaté que la j’auge indique, disons, 27%, n’implique pas forcément que la charge sera doublée à 54% si nous ouvrons une deuxième instance de ce même plugin. Non, car peut-être que le premier était exploité que par un seul cœur (ça dépend des DAW, des plugins et des options, etc.) et que le deuxième sera attribué à un autre cœur.
Parce que la jauge CPU dans un DAW, contrairement à la jauge du gestionnaire de l’OS, n’indique pas forcément le total de ressource utilisée par tous les cœurs, mais le plus haut « peak » (pointe d'utilisation) de n’importe quel des cœurs/thread utilisés à un instant t précis. Et cela est logique, parce que si un cœur/thread est sollicité à 99% du fait qu’un traitement qui ne peut se faire en parallèle le sollicite presque en entier, car ne pouvant pas utiliser les autres cœurs/thread simultanément, ben à quoi bon diviser le pourcentage par n cœur/thread et nous indiquer /n % puisque, de toute façon, à cet instant t précis, le seul cœur/thread utilisable~exploitable est à 99%! Le DAW est donc bel et bien à 99% de ses capacités de traitement à cet instant t précis puisqu’il ne peut pas exploiter les autres cœurs/thread! et qu'il est tout prêt d'y avoir des glitchs!
Autre exemple concret :
Imaginons une seule piste/tranche de guitare, pour jouer/s’amuser live (au clic du DAW). Ben, même si nous avons un Xeon 12 coeurs/24 threads @2.6GHz, si ce dernier (le seul cœur/thread exploitable dans ce projet) arrive au taquet avec tous les effets que nous ouvrons sur cette seule et unique tranche (effets traités nécessairement en série), nous aurons des glitchs/drops/underruns plus rapidement que si nous achetons un « simple » I7 7700K 4 coeurs/8threads @4,5GHz parce que le seul cœur/thread exploitable (dans cet exemple précis) possède près de 2GHz de plus!
Par contre, si nous ouvrons 12 VSTi ayant chacun leur propre tranche/piste et n’utilisant pas de BUS/AUX communs, là, le 12 coeurs/24 threads @2,6GHz sera probablement plus efficient (ainsi que pour faire du « rendering offline » vidéo, P. Ex.).
Mais encore, en très basse latence, habituellement, en pratique, les plus hautes fréquences s’en sortent mieux (tout chose étant égale par ailleurs, lorsqu’aucun « bootleneck » n’affecte les perfs de l’un et de l’autre).
Conséquemment, pour de la MAO et surtout pour ceux que le temps réel (enregistrement d’instruments live, jeu/entrée de notes live via clavier MIDI) est très important et/ou qui doivent bosser avec des valeurs de buffer très basses, il est nettement préférable de prioriser l’achat d’une haute fréquence de CPU et non du nombre de cœurs/thread.
Pour ceux qui composent à la souris dans le piano roll (ou par notation) et/ou qui écoutent/mixent sans jouer/enregistrer en temps réel (pouvant donc monter le buffer de leur carte son au max), un plus grand nombre de cœurs/thread est préférable.
Mais dans les deux cas, il y a nécessairement un compromis : dans le premier, le CPU sera plus efficient en temps réel avec des valeurs de buffer basses, mais pour mixer et écouter, il pourra gérer, au total, moins de VST/VSTi (à valeur de buffer identique élevé). Dans le second, ce sera le contraire : moins performant en temps réel avec des valeurs de buffer basses, mais pouvant faire jouer (à valeur de buffer identique élevé) plus de VST/VSTi que le premier.
Mais encore, tout ceci dépendamment de l'utilisation, ou non, du nombre de BUS/AUX qui créer des chaines de traitement en série, du DAW et des plugins utilisés et de certaines options utilisées ou non. Et comme expliqué dans la vidéo de Richard Ames, il est important d'avoir des composants et périphériques « équilibrés » qui ne créent pas de « goulot d'étranglement » nuisant au processeur, car sinon ça peut générer des glitchs alors que le processeur est à peine utilisé à quelques valeurs de pourcentage.
"Si t'enregistres à Poudlard, avec l'ingé son Dumbledore, les lois physiques tu peux t'en foutre. Mais dans l'monde réel, les lois physiques, les mesures, le dBFS, tout ça existe bel et bien." youtou
[ Dernière édition du message le 17/07/2020 à 08:48:36 ]

Didrop

Tant de bêtises concentrées dans de si petits êtres...

Graffy

Intel i5 9400F + Cooler Master GeminII M4
ASUS B360M-A
16 Go corsair XMP 2666 MHz (bientôt 32 Go)
1 carte vidéo NVidia fanless GT730 2 Go
1 NVMe SSD Samsung EVO 970 pro 250 Go (OS W10)
1 NVMe SSD Samsung EVO 970 pro 250 Go (OS macOS Mojave) Hackintosh
2 SSD MX 500 pour les sessions
1 carte pcie UAD duo
1 carte fille ASUS sortie spdif connectée sur la carte mère.
1 Écran Philips 32 pouces curved 2560x1440 (reconnu comme un retina 5K 27 pouces sous Mojave)
Manque (compatible Mac et Windows bien sûr) :
1 Module Bluetooth/wifi sur port NVMe
1 Carte pcie TH3
1 disque équivalent Fusion/drive 2 To pour les backups.
Des avis ?
[ Dernière édition du message le 17/07/2020 à 12:47:42 ]

Mus'images

Donc, dans certains projets, il vaut parfois mieux travailler en utilisant des pistes indépendantes plutôt que de router toutes les tranches dans un BUS commun.
Merci pour ton retour très explicite Darkmoon, qui m'a enlevé quelques doutes sur ce que j'ai pu comprendre de la vidéo de Richard Ames. Maintenant par rapport à ce que tu dis et que j'ai cité au dessus, j'ai du mal à mettre de l'ordre dans les circuits intégrés de mon cerveau.
Je m'explique,
dans ton explication vulgarisée, j'ai compris que si on plaçait, admettons, 4 ou 5 effets différents en insert "d'une seule piste/un seul instrument", on a plus de chance de se trouver face à ce "bottleneck" si on multiplie cette procédure par "autant de pistes/autant d'instruments" que nécessaire. Le bon sens nous indique donc qu'il est préférable de router plusieurs instruments de la même famille dans une piste groupe, à laquelle on applique un traitement d'effet aussi pénible soit-il.
De ce fait, n'est-il pas préférable, dans n'importe quel type de projet, d'appliquer cette méthode afin de réduire les situations de Bottleneck ?
Autre chose, j'ai vu quelques tutos de compositeurs pour les jeux vidéos, sur Youtube, qui expliquaient qu'il était plus intéressant d'utiliser des "Track Instrument" (en mode "non multi-timbrales"), et suivant ce que je viens d'apprendre avec cette vidéo + ton explication vulgarisée, je comprends mieux l'intérêt, car cela permet d'exploiter au mieux la puissance CPU disponible et que nous ne devrions pas avoir peur de cela. Cependant, on reste toujours dans le cas de figure où on est obligé de router "quelques pistes/quelques instruments" dans une piste groupe, afin d'appliquer un traitement d'effet groupé, car avant toute chose on parle d'homogénéité dans les traitements d'effets.
A partir de là le circuit "A" de mon cerveau me dit "Bien joué Francky", le circuit "B" de mon cerveau me dit "t'es vraiment sûr de toi ?", le circuit "C" de mon cerveau me dit "tu poses la question et tu donnes la réponse en même temps", le circuit "C" de mon cerveau me dit "arrêtez les mecs, Darkmoon vient de dire que parfois il vaut mieux travailler en utilisant des pistes indépendantes plutôt que de router toutes les tranches dans un BUS commun", et le circuit "E" de mon cerveau me dit "naaaan, il a dû se planter en disant ça, attends j'vais lui demander pour être sûr".
Tout cela c'est dans l'éventualité où on a l'habitude de gérer les traitements d'effet au sein même de chaque projet composition, et pour ma part, je trouve vraiment très utile de travailler de cette manière, car rien que le fait de changer une seule note peut avoir un effet de "rendu souhaité" assez significatif, si par exemple pour une basse, au premier essai on écrit un DO1, et il s'avère qu'il aurait été préférable d'écrire ce DO à l'octave supérieure.
En d'autres termes, l'écriture et l'orchestration jouent aussi un rôle important dans la gestion des fréquences, et c'est entre autre pour cela que je trouve que de tout gérer au sein de chaque projet composition, permet d'avoir une bonne maîtrise de la production musicale.
Ta réflexion que je viens de citer me laisse donc assez perplexe

[ Dernière édition du message le 18/07/2020 à 00:19:04 ]

Darkmoon

Ta réflexion que je viens de citer me laisse donc assez perplexe
La notion de « bootleneck » ne concerne pas vraiment (enfin, l’on pourrait la relier, mais ça va devenir bcp trop « pointu » pour rien) la façon de gérer son projet, avec les pistes, les Bus, etc.
Le goulot d’étranglement (bootleneck), ça concerne surtout l’interaction entre tous les périphériques et composants physiques de l’ordi. Alors que 98% de mon pavé précédent ne traite pas de ça. La seule chose à retenir concernant le « bootleneck », c’est que c’est ce qui explique que certains utilisateurs peuvent obtenir des glitchs même si la jauge du DAW et/ou de l’OS indique, P. Ex., 25%
C’est tout, grosso modo. Le CPU n’est pas pleinement utilisé, mais un autre « composant trop lent » tarde à transmettre une info, ce qui fait que le buffer qui « avance » (comme dans la vidéo) ne reçoit pas de données à donner à bouffer au convertisseur D/A de la carte son!

Maintenant, ensuite, pour le reste de ce que j’explique concernant l’avantage de choisir plus de cœur ou moins de cœur, mais avec une plus haute fréquence, ainsi que les diverses façons de gérer nos projets :
- ça a peu d’importance, sinon aucune incidence — avec de bons processeurs actuels — dans de petits~moyens projets. Donc « dont panic », mes exemples sont volontairement « grossières » afin de facilité la compréhension du « principe ». Dans les faits, en 2020, quand tu veux juste, P. Ex., jouer live de ta guitare avec une seule piste de drum virtuel + une simu virtuelle + 3, 4 FX, en principe, t’es pas supposé être incapable de le faire avec un buffer à 64smp parce que t’as acheté un processeur avec 18 cœurs à 3.5GHz au lieu d’un processeur 6 cœurs à 4.8GHz. Ça fonctionnera parfaitement dans les 2 cas puisque c’est trop « petit » comme charge d’utilisation pour faire entrer en cause les principes que j’évoque (en « principe », car en informatique, il y a parfois de mauvaises surprises et des exceptions

- faut vraiment utiliser bcp, bcp de plugins dans un petit projet (je sais, ça parait antinomique, mais VS le nombre de pistes, disons) et/ou faire de très gros projets pour observer des différences significatives. Et le fait que personne ne bosse avec le même DAW ni ne bosse de la même façon concernant la gestion des Bus, des send et des pistes et tranches rend difficile d’effectuer des comparaisons pratiques lors de projet en situation réelle. Mais il est possible de s’en rendre compte en faisant divers essais, même s’ils ne correspondent pas à un cas réel. Par exemple, ouvre au moins 50 pistes d’un instrument virtuel (duplique des notes dans le piano roll) assez gourmand, disons u-he Diva en mode « divine » et applique à chacune de leur tranche de console respective un plugin d’FX assez gourmand (un truc « analo like consol strip channel » ou une « grosse reverb »). Appui sur « play » pour faire jouer simultanément les 50 pistes et observe la jauge de conso du DAW. Ensuite change la configuration : tu crées 5 Bus qui recevront chacun 10 pistes/tranches, retire la reverb (du test précédent) de chacune des tranches, mais fout 10 reverb dans chacun des bus. Au final, t’auras exactement le même nombre de pistes~instruments virtuel et exactement le même nombre de plugins d’FX, mais si tu appuies sur « play », tu constateras que la jauge de conso de ressources du DAW n’indiquera pas la même valeur. Mais vu la puissance de ton CPU, la différence peut être minime. Mais plus tu feras les 2 mêmes genres de tests, mais avec plus de pistes et plugins, plus tu remarqueras que l’écart augmente. Ce qui prouve et démontre que lorsqu’il y a des « chaines d’effet » qui se recoupent dans de mêmes « branches de la synoptique » (imagine-toi des « couloirs sonores communs ), le DAW ne gère pas la conso de la même façon/les cœurs sont répartis différemment.
- mais bon, en pratique, perso, je ne m’empêche pas pour autant d’utiliser des Bus et des envois vers des pistes d’effets, etc., mais je tente tout de même de faire attention, quand je fais de très gros projets et que je suis presqu’au taquet. Faut pas virer parano non plus.

- oui, il semble y avoir un consensus, depuis quelques années, sur le fait qu’utiliser, P. Ex., 10 instances de Kontakt (pour l’exemple, ça peut être n’importe quel instrument virtuel disposant de 16 canaux/sorties MIDI) en ouvrant dans chaque instance qu’un seul et unique instrument~patch est plus avantageux, en terme de ressource CPU, que d’ouvrir une seule instance en ouvrant 10 instruments~patch dans cette dernière. Attention, encore une fois c’est pour l’exemple et le principe, car avec une seule instance x 10 instruments à l’intérieur VS 10 instances x chacun un seul instrument~patch, tu n’observeras pas nécessairement bcp de différences. Encore une fois, en pratique, avec la puissance des CPU actuels, faut multiplier bcp plus! La raison (des différences constatées) est attribuable à ce que j’explique dans mon pavé précédent : c’est à dire que dans l’instance qui contient 10 instruments~patchs, ben le DAW n’attribuera qu’un seul cœur pour l’instance. Donc tes 10 pistes correspondantes (et leurs tranches, qui se retrouve en fait à être des espèces de pistes sous « bus artificiel » ) se partagent un seul et unique cœur. Alors que si tu ouvres 10 instances avec chacune un seul instrument~patch, ben chacune des instances peut être traité par un cœur différent! ...à condition de ne pas toute les router ensuite vers un même Bus dans la console de tranches de ton DAW.
- Conséquemment, certains instruments virtuels qui dispose d’une option « multicore~multithread » à activer/désactiver, comme Diva et Kontakt, fonctionnent parfois « mieux » (consomment moins de ressources) quand on la désactive, car sinon, ça elle entre potentiellement en conflit avec le DAW qui, lui, cherche à gérer lui-même ses propres affectations des cœurs disponibles pour tous les plugins. L’option « multicore~multithread » des plugins étant utile en mode « standalone », hors DAW. Voilà pourquoi je dis dans mon pavé « dépendamment des options des DAW et plugins ». Car, en plus, certaines DAW, comme Reaper, P. Ex., entre autres, disposent d’option supplémentaire spécifique (« anticipate FX ») qui peuvent aussi avoir incidence avec tout ceci.
Bref, ça peut paraître complexe, mais inutile de trop se casser la tête. Juste retenir, qu’habituellement, moins il y a de pistes/tranches/instruments différents qui se partagent un « couloir sonore commun » (Bus, piste FX, etc) dans le DAW, plus le DAW est en mesure de répartir de façon plus efficiente tous les cœurs dispo du processeur. Juste à se souvenir de ça si l’on arrive au taquet, dans un gros projet!


"Si t'enregistres à Poudlard, avec l'ingé son Dumbledore, les lois physiques tu peux t'en foutre. Mais dans l'monde réel, les lois physiques, les mesures, le dBFS, tout ça existe bel et bien." youtou

Eric Music Strasbourg

je vais m'amuser à tester un nombre de pistes importantes avec un traitement de compression par une carte uad et la même session avec un compresseur waves...
sur le papier waves qui est en natif et donc traité par le cpu devrait être moins intéressant point de vue allégement, sauf que le fait de devoir transmettre les données au cartes uad dans le premier cas peut créer des temps de latence et d’interruption qui me sont inconnues et donc de la conso cpu...
du coup ce qui est vrai sur le papier sera il vrai en toute réalité??? reponse demain!
Eric

Mus'images

Bref, ça peut paraître complexe, mais inutile de trop se casser la tête.
En fait pas tant que ça puisque c'est très bien expliqué... En tout cas suite à ce que tu viens de dire, j'ai eu comme une révélation

Je m'explique,
par rapport à ce que tu viens de dire, il m'apparaît tout de même plus intéressant de tourner avec au moins 2 ordi. 1 maître avec le séquenceur et la gestion des effets et 1 Slave qui serve de super expander "uniquement".
Bien que cette option ne suffise pas à régler à elle seule les cas de bottleneck, il faudrait que ce PC maître soit vraiment bien étudié pour bien gérer cet aspect. Je ne sais pas si cela existe déjà, mais je suis intimement convaincu que ce type de configuration couplé à Vienna Ensemble Pro, suffirait à enterrer vivant toutes les configs informatique existantes, nouveau Mac Pro compris.
J'aime l'idée qu'il est possible d'envisager cela sans forcément dépenser une fortune.
Je dis cela parce que ça me tue de voir tout ce merchandising autour de nouveaux processeurs disposant d'un nombre démesuré de coeurs, alors qu'en MAO il est surtout plus utile d'avoir un ordi qui soit capable de gérer efficacement le temps réel.
La vraie reflexion pour la Top config MAO devrait être ici je pense. Au final, et à l'heure actuelle, on s'en fout d'avoir un PC avec un processeur avec 10, 20, 60 coeurs et 2 fois plus de Threads, puisque le temps réel aura toujours le dernier mot, et cela en a d'ailleurs frustré plus d'un.
Partant de là Darkmoon, ça m'ennuie de te demander ça car tu as déjà tant fait dans ce sujet de discussion, es-tu en mesure de détailler un PC spécial "Anti-Bottleneck", dépendamment du nombre de coeurs, car à ce stade on sait tous que cela ne prime pas en MAO ? (enfin bon, on sait tous qu'un Pentium 4 sera légèrement à la traîne, donc tout est relatif

Je vais essayer de t'aiguiller un peu dans la recherche. Par rapport à ce que existe aujourd'hui en terme de composants, quel serait le meilleur choix en,
1) Rapport qualité prix,
2) budget confortable,
pour les composants suivant:
- processeur (ou du moins à partir de quelle série, même ancienne, cela commence à être intéressant),
- carte mère (meilleurs spécificités),
- Ram (je ne sais pas si une Ram chère fera mieux le travail qu'une Ram bon marché),
- carte réseau (pour les transferts d'information d'un PC slave vers le maître),
- SSD NVMe (est ce que ça joue dans l'équation?),
- SSD,
- etc
C'est tout ce que j'ai en tête pour l'instant, mais peut-être qu'il existe d'autres composants que nous pourrions envisager afin d'optimiser tout cela ? Ou même mieux, peut-être qu'il n'est pas nécessaire de trop complexifier les choses et que seuls les composants que je viens de citer suffiront à obtenir un PC "Anti-Bottleneck" ou "Anti-goulot d'étranglement", afin de resituer un peu les choses pour celles et ceux qui suive cette discussion ?
En tapant sur mon clavier j'ose à peine imaginer le Combo double PC qu'il est possible d'obtenir en étant hyper pointilleux sur la gestion du temps réel.

[ Dernière édition du message le 18/07/2020 à 01:30:47 ]

Graffy

tout ça est fort intéressant!
je vais m'amuser à tester un nombre de pistes importantes avec un traitement de compression par une carte uad et la même session avec un compresseur waves...
sur le papier waves qui est en natif et donc traité par le cpu devrait être moins intéressant point de vue allégement, sauf que le fait de devoir transmettre les données au cartes uad dans le premier cas peut créer des temps de latence et d’interruption qui me sont inconnues et donc de la conso cpu...
du coup ce qui est vrai sur le papier sera il vrai en toute réalité??? reponse demain!
Ha vivement le résultat vu que je possède également une petite uad duo...d’ailleurs c’est comme le motif rack xs qui décharge le cpu de ses vst vu qu’ils sont calculés par le dsp du motif rack ..
Une solution mais peut-être cela existe déjà serait un algorithme qui permette de passer une certaine partie des calculs par le gpu pour les vst natifs, un peu comme dans les jeux ou les mines ou la plus grande partie des calculs se fait par la carte vidéo..En gros se servir du gpu comme d’un dsp pour vst.
L’idéal serait une carte pcie équipée d’une batterie de dsp dédiés aux calcul des vst natif..pas propriétaire comme pour uad.
A terme un logiciel graphique qui permettrait de modéliser sois même ses plugins vst en fonction de ses besoins...mais là je tue la poule aux œufs d’or

[ Dernière édition du message le 18/07/2020 à 02:59:20 ]

Darkmoon

...Par rapport à ce que existe aujourd'hui en terme de composants, quel serait le meilleur choix en,
1) Rapport qualité prix,
2) budget confortable, [...]
Ma réponse risque de te décevoir.
Mais n’oublie pas que ce n’est que mon avis perso et que malgré mes « connaissances», je ne suis pas un pro. Contrairement à plusieurs d’entre vous, je ne fais rien d’autre que de faire de la musique dans ma chambre pour moi-même. Et je n’utilise pas VEP. En réalité, je ne suis surtout qu’un « geek » qui lit énormément et qui passe parfois des semaines à faire des bench/tests avec mes PC. J’ai juste peut-être un peu de talent pour synthétiser et vulgariser (et faire plein de fautes d’orthographe au passage


Ma réponse sera sensiblement la même que je t’ai faite il y a peu, le 25 juin :
J’ai tendance à privilégier/conseiller, dans la plupart des cas, le « meilleur » processeur du moment, mais tout en demeurant dans la gamme « desktop/gamer », donc présentement le i9-10900K (ou le i7-10700K, dépendamment des budgets). Et j’exclus volontairement AMD de mon propos tout simplement parce que je les connais moins et que certains, encore, semblent connaître un tantinet de moins bonnes perfs à très basse latence (et mes pavés sont déjà assez longs).
Parce que, de façon générale, les processeurs de cette gamme (Intel « desktop~gamer ») ont les plus hautes fréquences, donc plus adaptées au temps réel à très basse latence en MAO, mais aussi parce que dès qu’on passe à la gamme « workstation » (série « X », chez Intel), c’est-à-dire sous autre socket (LGA2066), tout coûte plus cher!

Par exemple, chez moi (prix en CA cette fois pour ne pas me gourer

i9-10900K à 727.99$ Pour 3.7GHz « stock speed » / 5.20GHz « turbo boost », 10 Core/20 Thread
Et le processeur du moment ayant la plus haute fréquence dans la série « X » (« workstation ») est le :
i9-10900X à 864.99$ Pour 3.7GHz « stock speed » / 4.50GHz « turbo boost », 10 Core/20 Thread
Le problème que nous constatons, c’est que ce sont quasiment 2 CPU identiques en terme de specs (et même de prix, grosso modo).


Parce qu’en choisissant la plus haute fréquence dans la gamme « X », ben il possède moins de cœurs (que les autres CPU de sa propre gamme), ce qui fait qu’un mec bossant dans la vidéo et la 3D et qui aura à effectuer de multiples et longs « rendering » (bounce offline), n’as pas vraiment d’avantages, lui, à choisir la plus haute fréquence de cette série « workstation »! Et que nous, privilégiant le temps réel à basse latence, non plus, car 0.7GHz de moins de puissance en turbo speed (pour payer 138$ de plus!).

Conséquemment, le seul intérêt de prendre un i9-10900X, c’est si l’on veut pouvoir mettre plus de RAM et bénéficier de plus de latitude (nombre de slots, connecteurs M.2/SATA et « PCI lane ») avec une CM correspondante.
Donc l’intérêt de passé en série « X » chez Intel, c’est surtout quand nous avons besoin de plus de cœurs, pour bosser sur des workstations multimédias (vidéo/3D), mais dans ce cas, faut choisir, par exemple, un i9-10940X qui possède 14 Core/28Thread ou un i9-7980XE qui possède 18 Core/36 Thread, sauf que le premier possède une fréquence « stock » de 3,3 GHz pour plus de 1,000$ CA


Ou, quand un CPU de la série « desktop~gamer » nous conviendrait (parce qu’on fait de la MAO, P. Ex.), mais que nous voulons absolument plus de RAM, de slots et de port SATA que ce que permettent les CM correspondantes à la game « desktop~gamer ». Mais dans ce cas, en choisissant la plus haute fréquence dans la série « X », ben l’on perd l’avantage des nombres de cœurs et nous retrouvons, comme nous l’avons vue plus haut, avec pratiquement un processeur identique à celui de la game « desktop~gamer », mais un tantinet moins puissant et un tantinet plus cher.
C’est pour ça que je disais, en juin, que même si le compte en banque n’est pas un frein, il n’est pas nécessairement plus avantageux de prendre un processeur de gamme « Workstation » (ou même de la gamme « serveur », comme un Xeon) qui coûte une blinde, parce qu’en terme de puissance brute, ça n’apporte rien de plus pour le jeu en temps réel en MAO (dans la très grande majorité des cas d’utilisation typiques)!
Même un multi-millionnaire est soumis au même « choix cornélien » qu’impliquent mes observations. Pour les meilleures perfs en temps réel en MAO, si l’on exclut ceux qui font de très, très gros projets orchestraux, le multi-millionnaire ne peut pas vraiment acheter plus « puissant » — en terme de CPU~puissance brute — qu’un i9-10900K de la gamme « desktop/gamer », présentement, en 2020!
Là où un budget illimité lui permettra de distancier les « pauvres prolétaires que nous sommes »

Bon, oui, ok, une autre option peut aussi consister à prendre la plus haute fréquence dispo dans la gamme « serveur », en prenant un Xeon, comme pour certains Mac, mais la problématique est la même que celle que nous avons vue plus haut concernant ce qui diffère entre les gammes « desktop~gamer » et « workstation » : soit la différence de puissance sera négligeable, soit, pas, mais alors la différence de prix sera conséquente, mais les perfs plus adaptées pour de la vidéo/3D en « render offline ». Mais ça le multi-millionnaire s’en fout, car lui peut se prendre 3 Mac et 3 PC différents, chacun pour un usage spécifique.


Conséquemment, sans avoir comme info le budget exact d’un individu, sans connaître exactement combien de disques M.2 et SATA (certains veulent parfois en mettre plus de 8~10~12 au total), sans connaître précisément ce qu’il veut foutre dans sa (ses) machine(s), s’il est très important pour lui de pouvoir mettre 128Go ou plus de RAM ou plus, s’il veut aussi connecter, P. Ex., une carte PCI d’acquisition vidéo qui fonctionne en 4x (PCI lane) afin de pouvoir se filmer à la guitare avec OBS et son ancienne CAM HDV via HDMI, etc., il est très difficile de faire des espèces de recommandations de type « meilleur rapport qualité-prix »

Bon, ensuite, pour des usages très, très spécifiques, P. Ex., comme toi qui se demande si des CPU usagés/d’anciennes générations pourraient être intéressant afin de servir dans un PC slave, entre autres, oui fort probablement, mais c’est directement relié au budget impliqué et ça devient tellement personnelle et spécifique en fonction du PC « maître » et des slaves (combien de PC slave?), de ce que tu veux foutre dans tout ça en plus du réseau sous VEP, qu’on pourrait probablement faire une bonne dizaine de configurations « typiques » différentes (et je n’aurai plus de vie pendant 2 semaines, vu ma propension à faire de longs pavés


Bref, je pense qu’avec maintenant toutes les infos que tu possèdes, le mieux est de faire comme d’autres le font parfois sur le thread : c’est à dire de « construire » par toi-même, en prenant en compte toutes les infos partagées, ton « parc de plusieurs PC » avec tous les composants qui te sont nécessaires et d’ensuite seulement le partager afin que certains d’entre nous puissent te dire, peut-être, « ça me semble excellent » et/ou « oui, mais » et/ou, « non, àma tu serais plus gagnant question perf/prix de prendre ceci à la place »

__________
Sinon, en ce qui concerne la notion de « bootleneck », pour enfin mettre « le clou dans son cercueil », faut saisir que Richard Ames, dans sa vidéo, l'expliquait pour démontrer pourquoi certains utilisateurs se plaignaient (sur plusieurs forums) d'obtenir des glitchs tout en observant la jauge de leur DAW/OS à seulement 25%, 33% ou 65% sans comprendre pourquoi et/ou parce que certains autres se plaignaient de ne pas obtenir moins de glitch en basse latence alors qu'ils changeaient pour un CPU avec une plus haute fréquence, mais en le foutant dans le même PC.
Et la vidéo date de 2015, donc il y a 5 ans déjà! Ce qui voulait dire, à l'époque, qu'un mec qui changeait, P. Ex, son i5-2400 à 3,10 GHz 4C/4T acheté en 2011 pour un i7-3770K à 3,5 GHz 4C/8T de 2012 plus trop cher en 2015, pouvais ne pas obtenir moins de glitch pour autant et se demander pourquoi?
Parce qu'en fonction de ses projets, ben peut-être que son unique et seul disque HDD sur lequel était installé l'OS et aussi ses banques de son, sa mémoire RAM « noname~premier prix » et sa « splendide » interface audio UCA222

C'est juste ça!
Mais bien que le principe demeure valide de nos jours (si l'on se paies un Xeon ou un i9-10940X, c'est pas pour utiliser uniquement un HDD et de la RAM « noname cheap »), je pense que tu es déjà tout à fait conscient de cette notion d'équilibre et que par conséquent, tu t'en fais un peu trop pour rien!
De nos jours, si l’on paie pour avoir un très bon CPU, comme un i9-10900K, un i9-10900X ou un i9-7980XE, il est évident que demeurer en disques « tout HDD » et prendre de la RAM « noname cheap » n’est pas, disons, le meilleur « match » (surtout si l'on conserve notre vieille UCA222


Et pour la RAM, j’ai déjà partagé mon avis : excepté le cas spécifique des CPU AMD, pour du Intel, du moment qu’on prend la fréquence du moment qui est recommandé partout (inutile de taper dans les plus hautes freq existante) et qu’on choisi parmi les grandes marques/séries reconnues, ben ça fait le job, àma!

"Si t'enregistres à Poudlard, avec l'ingé son Dumbledore, les lois physiques tu peux t'en foutre. Mais dans l'monde réel, les lois physiques, les mesures, le dBFS, tout ça existe bel et bien." youtou
[ Dernière édition du message le 18/07/2020 à 05:25:52 ]

Danbei

par rapport à ce que tu viens de dire, il m'apparaît tout de même plus intéressant de tourner avec au moins 2 ordi. 1 maître avec le séquenceur et la gestion des effets et 1 Slave qui serve de super expander "uniquement".
Bien que cette option ne suffise pas à régler à elle seule les cas de bottleneck, il faudrait que ce PC maître soit vraiment bien étudié pour bien gérer cet aspect. Je ne sais pas si cela existe déjà, mais je suis intimement convaincu que ce type de configuration couplé à Vienna Ensemble Pro, suffirait à enterrer vivant toutes les configs informatique existantes, nouveau Mac Pro compris.
C'est pas évident que plusieurs machines serait meilleurs qu'une machine avec beaucoup de cœurs.
Avec plusieurs machines, quelque part on "ajoute des cœurs" (pas seulement) à la station principal et on a les mêmes problèmes lié au parallélisme que dans le cas d'une machine avec beaucoup de cœurs.
En plus de cela avec plusieurs machines on ajoute un potentiel goulot d’étrangement qu'est le réseau.
Je partirai sur du multi machines dans le cas ou le budget est limité : deux machines avec proc/CM grand publique (ou station de travail pro en seconde mains) ça peut être moins cher qu'un proc/CM type Xeon/Rome équivalent avec beaucoup de cœurs de canaux mémoire.

Darkmoon

Et malheureusement, l’on ne peut pas effectuer des tests pratiques avec plusieurs variantes de configuration. Il y a potentiellement plus d’une configuration qui pourrait te convenir. C’est pourquoi j’ai suggéré que tu fasses des choix qu’on pourra commenter ensuite. Ça demeurera plus « aéré » et dynamique comme échange que de faire de gros pavés énumérant tout ce qui est plus ou moins avantageux dans les moindres détails (je parle surtout pour moi, hein!

Et sinon, tu ne dois pas oublier un certain phénomène dès plus humain...
Malgré tout ce que je peux posséder comme connaissance, malgré tous les PC que j’ai montés et tous les tests que j’ai effectués, si, demain, j’envisageais de sortir, disons 3,000$ (pas plus, étant limité, pour l’exemple) de mon porte-monnaie pour me faire une config particulière et spécifique du genre de celle de ce que tu veux, je vais quand même hésiter, me faire plusieurs scénarios et ne pas forcément être sûr et certain de faire le « plus meilleur de la mort qui tu sa race » des choix possibles au final.

C'est humain!
Je ne ferai pas le pire choix possible, ça, c’est sûr, mais entre (un peu comme le mentionne Danbei) :
- 2 machines neuves avec CPU/CM grand public ( gamme « desktop~gamer »),
- 2 machines de travail pro en secondes mains (gamme « worksation »),
- 1 machine CPU/CM Xeon (gamme « serveur ») neuve,
- 1 machine grand public + 1 machine « worksation » de seconde main,
- 1 machine grand public + 1 machine « serveur » seconde main,
- 1 machine « worksation » neuve + 1 machine « worksation » seconde main,
- 1 machine CPU/CM type Xeon (gamme « serveur ») usagé + 1 machine grand publique neuve,
etc., etc., etc.


...La disponibilité des machines/composants et le budget! C'est souvent ça la réalité. Usagé ou neuf, ce qu'on veut n'est parfois~souvent tout simplement pas dispo.


Bref, faut finir par faire un choix quand on a suffisamment fait le tour de la question pour ne pas complètement se tromper. Ensuite, le risque zéro, ça n’existe pas.
Sinon, comme alternative, rechercher quelqu’un qui bosse déjà sur une config similaire et « copier » sa config, puisqu’éprouvé en pratique pour cette utilisation spécifique.
Moi je l’ai déjà dit, dès qu’on tombe avec des Xeon et du réseau avec VEP, ça sort de ma petite « expertise » personnelle! Je suis « expert à mon petit niveau » avec un seul PC MAO (ou vidéo/3D) dans les gammes « desktop~gamer » et « workstation » ainsi que pour tweaker Windows jusque dans ses moindres recoins. Mais ça s'arrête là! Au-delà, je déduis et synthétise puisque n'ayant aucune expérience pratique.

"Si t'enregistres à Poudlard, avec l'ingé son Dumbledore, les lois physiques tu peux t'en foutre. Mais dans l'monde réel, les lois physiques, les mesures, le dBFS, tout ça existe bel et bien." youtou

Mus'images

C’est pourquoi j’ai suggéré que tu fasses des choix qu’on pourra commenter ensuite. Ça demeurera plus « aéré » et dynamique comme échange que de faire de gros pavés énumérant tout ce qui est plus ou moins avantageux dans les moindres détails
Tu as raison...
J'apporte un complément d'infos concernant mes interrogations. L'idée que j'ai vis à vis de la question que je t'ai posée à propos d'un PC "Anti-Bottleneck", c'est que... imaginons un PC maître avec le séquenceur. Je lui confie toutes les tâches de routages et tous les traitements d'effets. Globalement toutes les situations où un fonctionnement en série s'avère incontournable.
Un PC maître sur lequel on pourrait, épisodiquement, charger quelques VST Natifs à Cubase (dans mon cas), mais surtout pas de grosses banques de sons et autres vstis CPUivores et Ramivores. Sa tâche principale sera de gérer beaucoup de tâches qui fonctionnent en série.
Je ne parle pas de la fenêtre de projet avec tous les containers MIDI, les courbes d'automations, etc, puisque ce ne sont pas, à proprement parler, des tâches qui fonctionnent en série. (Je résume grossièrement)
Maintenant le PC Slave. Son rôle sera d'être "uniquement" un expander, ou plus clairement, un hôte pour VSTIS et Samples.
En tapant ceci je repense à la vidéo de Junkie XL que tu nous avais montré, concernant son parc informatique. Il utilise (ou utilisait à l'époque, car cela remontait à 2016 et peut-être que cela a évolué depuis) un PC en maître de qualité convenable, sans pour autant être démesuré, et en slave il utilise des petits serveurs.
Revenons à moi. Evidemment que je pourrais faire comme lui, mais depuis notre échange à propos de l'optimisation des paramétrages de Kontakt, je me suis remis en question et je ne compte pas prendre un PC avec 256GO de Ram. 128GO ce serait déjà pas mal pour commencer.
Cependant, dans ma tête je me demande si il ne serait pas "plus utile" de pouvoir dissocier les tâches que nous pourrions confier à chaque ordinateur que nous pouvons avoir à disposition ? D'où ma question au sujet d'un PC "Anti-Bottleneck", mais peut-être que je l'ai posée un peu maladroitement.
De toute manière Darkmoon, je pense que tu as répondu à ma question. J'apporte ici un simple complément d'infos concernant ma reflexion.
Au sujet de VEP, il est aussi réputé pour gérer de façon plus stable, tout ce qui concerne la MAO. Et en tapant je viens de m'apporter une réponse à moi tout seul

Peut-être que VEP est la solution pour réduire de façon significative ce p....n de Bottleneck ? Faudra tester pour voir, mais je n'ai vraiment pas le temps en ce moment.
[ Dernière édition du message le 19/07/2020 à 01:10:16 ]

Eric Music Strasbourg

Au sujet de VEP, il est aussi réputé pour gérer de façon plus stable, tout ce qui concerne la MAO.
Tu as tout à fait raison musimage. Je m’en suis rendu compte bêtement. Ayant le même problème que chacun quand au réal Time sur de très grosses banks cpuvore la
Jauge cubase était à 95% pendant que mon i9 9900k en réalité à 50%...
Du coup j’ai acheté le ryzen9 3900x. J’ai gagne 30 à 35% sur la jauge cpu et je suis passé à 20% en conso reelle cpu ryzen pour le même template orchestral!
Ok super!!! Mais’je Decouvre mieux alors mon i9 qui devient alors esclave du ryzen tourne sur Vienna ensemble pro... je le charge des mêmes banks cpuvore mais cette fois par nécessité la mule est deux fois plus chargée !!! .... et???? Et??? Et bien le i9 9900k s’en fou totalement! Pas de glitsch pour une carte bien plus lourde qui consomait les 95% de la jauge cubase mais seulement 50% de mon cpu, alord’que Le nombre d’instances, la polyphonie demandée est bien plus élevée !!!
En conclusion le vep est bien plus optimisé que le moteur audio de cubase qui est très bon mais vep fait mieux...
Reaper qui pré calcul les pistes vsti déjà enregistrées offre une autre solution intéressante. C’est comme si on gelait les pistes que les vsti étaient déchargés et que de la simple lecture audio (non visible) permet de rajouter 30 pistes voir plus là ou cubase ne peut plus faute de temps de traitement comme l’a expliqué Darkmoon.
Il y a quelques mois Strindberg avait fait un questionnaire des’fonctions Que nous voulions voir dans cubase 11.... c’etait Un’qcm... et il me semble que cette notion de pré calcul était envisagée... sauf que je ne l’avais pas comprise et qu’il me semble l’avoir ignorée...
En tous cas le vep a de beaux jour devant lui car un proc à 5ghz sur tous les cœurs avec 24 voir 32 cœurs n’est pas en ire pour aujourd’hui.... Intel parle de proc en 5nm.... plus petit, ça chauffe moins on peut augmenter les’frequenece Par’coeurs on a plus de place pour plus de cœurs... mais tout ça c’est de l’avenir... ça s’implifiera la gestion par rapport à vep (Perso j’ai galèré pour faire le réseau) et j’ai du supprimer les firewall parce que je
N’arrivais pas à Comprendre commet ouvrir des ports pour des applications spécifiques... en fait ça c’est de l’informatique et ça me prend la tête du coup j’en fais un rejet...
Bref en conclusion vep est vraiment une bonne solution et le coût est en effet moindre en ratio investissement / polyphonie qu’une grosse solution xeon qui n’apportera pas grand chose de plus .... par contre la facture électrique augmente et là ça me déplaît fortement pour la planète.
Soyons patients et faisons avec les outils du moment... on en reparle dans 2 ans environ.... le 5nm devrait grandement nous aider...
( à propos d’AMD je vais quand même acheté de la mémoire optimisée pour le cpu ryzen 9) tout ce que j’ai pu lire me
Conforte sur une optimisation interne telle que Darkmoon le précisait.
Un nvme, la bonne mémoire, une bonne carte mère évite des goulots d’étranglement et permet avec le même cpu d’aller bien plus loins!!!)
Pour les tests des mêmes templates une traitée avec compresseurs natifs waves et’l’autre en uad, je n’ai pas encore fini et demain je suis pris toute la journée ça sera pour mercredi !!!
Eric

Mus'images

ça simplifiera la gestion par rapport à vep (Perso j’ai galèré pour faire le réseau) et j’ai du supprimer les firewall parce que je n’arrivais pas à Comprendre comment ouvrir des ports pour des applications spécifiques
Purée moi aussi j'en ai chié pour comprendre comment fonctionnait VEP, et pour le réseau, je ne tourne plus qu'avec un seul ordi actuellement, alors qu'à l'époque j'avais 2 ordi, et concernant le réseau je me souviens ne pas avoir été obligé de supprimer quoi que ce soit pour que cela fonctionne. Je me souviens vaguement qu'il fallait juste désactiver le pare-feu lorsque je bossais avec mes 2 tours, mais sinon tout le reste ne posait aucun problème.
Un nvme, la bonne mémoire, une bonne carte mère évite des goulots d’étranglement et permet avec le même cpu d’aller bien plus loin
J'ai hâte de lire ton retour au sujet du choix de tes composants et du goulot d'étranglement.


Pat.Rick

pour commencé
J’ai juste peut-être un peu de talent pour synthétiser et vulgariser (et faire plein de fautes d’orthographe au passageC’est effarant, quand je me relis
).
Plus sérieusement, concernant la meilleur configuration pour MAO. il me semble qu'il y a un facteur cruciale à prendre en ligne de compte. C'est de déterminer au départ comment ont travail avec son DAW.
En ce qui me concerne, j'avais cru comprendre que cette histoire de basse latence concernait exclusivement des pro qui utilise des VST gourmand avec plus d'une centaine de piste activée pour générer des articulations et autres. Toujours d’après moi, si ce n'est pas pour des cas extrêmes de ce type, je parle d'un studio basique, qui soit capable d'enregistrer un groupe, un petit orchestre, voir au maximum un Bigband de Jazz. Dans ce cas, a ton besoin de basse latence, de VEP 2x PC en réseau pour traiter le signale, mixer etc ... ?
Est ce que ont vraiment besoin d'une grosse configuration pour gérer des dépendeurs coupler à komplete, UVI, ou autres plugin VST ?
D'après moi non, mais j'aimerai avoir votre avis afin de savoir si oui ou non j'ai bien synthétiser toutes la discutions des 2 derniers mois.
Dans mon esprit il y a 3 grand type de configurations :
1° Les config home studio qui utilise des générateur de son externe "expender" (à l'ancienne), avec peu de piste VST et Audio donc, peu gourmand en ressource.
2° Les config Home, Studio ou pro qui utilise ou pas des générateur de son externe "expender" (à l'ancienne), mais Avec plus de piste Audio et Plugin puissant, équipé de Bank de son VST de plus grande capacité et très puissante, qui ne nécessite probablement pas d’être absolument en basse latence.
3° Les config Pro extrême qui tourne exclusivement en basse latence avec plus d'une centaine de piste etc ... (réservé à la musique classique de très haut niveau)
Parceque selon moi,
- un CPU x4cores ou x8cores qui pointe à environ 4GhZ, 5Ghz (le CPU à des tendances sigle-cores avec les DAW)
- 16 Go de RAM (maxi 32)
- 1 To de SSD (NVME si possible)
- une bonne carte son RME, MOTU ou autre
Est tout à fait capable de faire face à tous les scénarios possible pour un studio d’enregistrement pro
Sinon, peut-on définir l'utilisation la plus courante ou l'utilisation "TYPE" ?
FPat.Rick Un Hero se cache en chacun de nous : Jesus. Do it your self now.
[ Dernière édition du message le 19/07/2020 à 23:03:22 ]

Darkmoon

Oui, tu as raison!
Et c'est bien pourquoi que de temps à autres je prends soin de faire un post :
" Faut relativiser, de nos jours, l'on peut faire de la MAO avec n'importe quel PC, P. Ex., un i5, avec 8~16Go de RAM et un HDD..."
Mais, à l'origine, j'ai créé ce thread pour les utilisateurs "un peu plus que débutants" qui aiment/veulent tweaker/optimiser leur OS, participer à des tests/bench et échanger à propos de configs avancées~pointues.
Je suis conscient qu'il y a bcp trop d'infos et de longs pavés ici pour ceux qui veulent juste savoir quoi acheter sans se casser la tête, mais t'inquiète, l'un ou l'autres d'entre nous répondons/orientions quand un membre pose une question qui ne nécessite pas de longs pavé!
Sinon bonne idée, l'on pourrait partager 2, 3 configs typique "de base".

Demain en ce qui me concerne, là suis sur smartphone en déplacement.
"Si t'enregistres à Poudlard, avec l'ingé son Dumbledore, les lois physiques tu peux t'en foutre. Mais dans l'monde réel, les lois physiques, les mesures, le dBFS, tout ça existe bel et bien." youtou
[ Dernière édition du message le 20/07/2020 à 02:33:52 ]
- < Liste des sujets
- Charte