Se connecter
Se connecter

ou
Créer un compte

ou
Agrandir
Ajouter ce produit à
  • Mon ancien matos
  • Mon matos actuel
  • Mon futur matos
GPU Audio Major
Photos
1/2
GPU Audio Major

Autre synthétiseur virtuel de la marque GPU Audio

Écrire un avis ou Demander un avis

Sujet Commentaires sur la news : GPU Audio lancera bientôt le synthé virtuel Major

  • 17 réponses
  • 8 participants
  • 938 vues
  • 13 followers
Sujet de la discussion Commentaires sur la news : GPU Audio lancera bientôt le synthé virtuel Major
333742.jpg
Et c'est clairement sur un gros morceau que la compagnie a travaillé ces derniers mois : découvrez le Major, de GPU Audio.


Lire la news


Ce thread a été créé automatiquement suite à la publication d'une news pour ce produit. N'hésitez pas à poster vos commentaires ici !
Afficher le sujet de la discussion
11
Citation de Dark Vibes :
Mais si cela n'a jamais été développé commercialement auparavant, il y a une bonne raison ;)


Ils n'était pas assez puissants et pas performants hors de la sphère graphique. De nos jours, les gpu sont plus puissant que les cpu en math pures (calculs). c'est ce qui est utilisé pour les réseaux neuronaux, la cryptographie, et bien d'autres choses. Une des dernière Nvidia, c'est plus de 2000 euros, le prix d'un ordi. Par contre, ça consomme beaucoup d'électricité... c'est pas forcément "grand public".

[ Dernière édition du message le 18/10/2022 à 12:45:35 ]

12
Ce qui fait que les GPU ont été très peu utilisé dans certains contextes, c'est avant tout parce qu'ils ne sont pas adaptés à ces cas d'usage. Il faut garder en tête que les GPU sont des puces relativement spécialisées (relativement aux CPU) et pas adaptés à tout type de calculs. C'est d'autant plus vraie dans les modèles récents qui intègrent des unités de calculs pour certaines opérations bien particulières (cœur tensoriel, cœur pour les tracés de rayons). Il faut prendre du recul face aux affirmations un peu simplistes qui se contente de dire "les GPU sont très puissants" : ça veut pas dire grand chose, ils sont très puissants dans certaines applications, très mauvais dans d'autres.

Une des grandes idées de l'architecture des GPU c'est : grandes latences et grands débits. Si c'est ce dont une application à besoin c'est cool, si c'est le contraire de ce dont elle à besoin c'est nul. Et j'en arrive à une réponse à la question de ginuwine, si on veut des faibles latences, de manière générale les GPU c'est pas la meilleure idée. Cela étant dit "faible latence" c'est relatif au cas d'usage, peut être que les GPU permettent une latence suffisamment faible, même si plus haute que ce que permettrai un CPU, pour qu'on puissent les utiliser en MAO. Il faudra tester ce que propose GPU Audio.

[ Dernière édition du message le 18/10/2022 à 15:20:32 ]

13
Citation de Paranoiak :
Citation de ginuwine :
Avec les proceseurs M1 et M2 a t-on vraiment besoin d'utiliser le GPU ? Sur PC éventuellement ?

C'est quoi ce sous-entendu un peu foireux ? xD

C'est ton commentaire qui est foireux ! C'est ton égo qui est blessé ? :mdr:J'en ai rien a ciré que ce soit mac ou PC, les prods ne sortent pas mieux sur l'un ou sur l'autre. C'est juste qu'en ce moment les processeur Apple ont une puissance telle que les CPU intel sont largués. D'où ma question de savoir si les calculs parallèles GPU ont une utilité pour les M2.
(Pitié pas de débat Mac PC...)

[ Dernière édition du message le 18/10/2022 à 17:37:53 ]

14
En terme de performances CPU les processeurs Intel ne sont pas largués, loin de là en fait (M2 ~ 12600 par ex). Par contre, un point sur lequel les M1/M2 se démarquent (pas le seul) c'est sur l'intégration du GPU sur le même SOC. Donc il y a beaucoup plus à gagner à déplacer certains calculs sur GPU sur M1/M2 que pour les proc Intel ou AMD :
Pour les proc Intel/AMD déplacer les calculs sur le GPU ça coûte, parce que le GPU est "loin", donc on peut se poser la question d'est ce que c'est rentable, le gain du calcul sur GPU vs la perte des aller/retour des données.
Sur M1/M2 il n'y a pas grand chose à déplacer : c'est tout bénef.
Au final peut être faut-il poser la question dans l'autre sens : "Avec les proc Intel, ou AMD, récent a t-on vraiment intérêt à utiliser les GPU ? Sur M1/M2 éventuellement ?
:P:

[ Dernière édition du message le 18/10/2022 à 17:53:22 ]

15
Perso je vise le futur macpro. Mais même sur les M2 ultra multicoeurs des Mac Studio, j'ai lu que la puissance était assez faramineuse. Et surtout la consommation énergétique est très réduite, histoire de ne pas avoir un chauffage (bruyant qui plus est ) dans le studio. J'ai aussi cru comprendre qu'objectivement la technologie des nouveau CPU Apple était bien plus avancé que chez Intel. En situation qui nous intéresse, c'est à dire l'audio, c'est presque impossible de les mettre à genoux et c'est très fluide. Là j'ai un mac Intel et un serveur PC (sur macmini) avec vienna ensemble pro et j'ai pas mal de latence au niveau des VST intruments (plus les sessions sont lourdes plus il y en a). Et j'ai peur que ces série M n'apporte pas de solution à ce niveau. Pour les plugins d'effets ça ne pose pas de problème par contre. C'est pour ces raisons que je lorgne toujours sur les nouvelles technologie GPU pour voir si un jour ça améliorera le truc...
16
Le M2 ultra n'est pas disponible donc il n'y a pas grand chose à dire dessus.
Les M1/M2 ont effectivement un avantage sur le point de la consommation et c'est un très bon point.
Citation :
J'ai aussi cru comprendre qu'objectivement la technologie des nouveau CPU Apple était bien plus avancé que chez Intel
Qu'est ce que tu entends par "technologie plus avancée" ? Pour être très franc, ça m'a l'air d'être du bullshit de marketeux.

Je suis bien d'accords que c'est difficile de mettre les M1/M2 à genoux, mais c'est tout aussi difficile de mettre à genoux les équivalents chez Intel ou AMD.

Malheureusement je crains qu'il soit difficile pour les VSTi à base de samples (c'est bien ce que fait vienna ensemble pro ?) de prendre avantage des GPU. Les GPU sont intéressant pour faire des traitements, mais il faut transférer les données à traiter entre le CPU et le GPU. Comme les VSTi à base de sample implique beaucoup de données, tous les samples, le surcout des transferts devient très cher (en temps). C'est plutôt sur des VSTi de synthèse comme celui présenté dans l'annonce qui sont susceptibles d'être efficace sur GPU.
17
Citation de Danbei :
Le M2 ultra n'est pas disponible donc il n'y a pas grand chose à dire dessus.
Les M1/M2 ont effectivement un avantage sur le point de la consommation et c'est un très bon point.
Citation :
J'ai aussi cru comprendre qu'objectivement la technologie des nouveau CPU Apple était bien plus avancé que chez Intel
Qu'est ce que tu entends par "technologie plus avancée" ? Pour être très franc, ça m'a l'air d'être du bullshit de marketeux.

Je suis bien d'accords que c'est difficile de mettre les M1/M2 à genoux, mais c'est tout aussi difficile de mettre à genoux les équivalents chez Intel ou AMD.

Malheureusement je crains qu'il soit difficile pour les VSTi à base de samples (c'est bien ce que fait vienna ensemble pro ?) de prendre avantage des GPU. Les GPU sont intéressant pour faire des traitements, mais il faut transférer les données à traiter entre le CPU et le GPU. Comme les VSTi à base de sample implique beaucoup de données, tous les samples, le surcout des transferts devient très cher (en temps). C'est plutôt sur des VSTi de synthèse comme celui présenté dans l'annonce qui sont susceptibles d'être efficace sur GPU.


Je ne suis pas certain que ce soit du bullshit marketeux...l'architecture ARM est vraiment différente des CPU Intel. Ca consomme mille fois moins en énergie et la mémoire unifiée est plus efficiente. Après c'est ce qui se dit partout objectivement. Perso j'ai un PC aussi donc je ne rentre pas dans la gueguerre Intel/Apple. C'est juste que technologiquement Apple semble avoir pris un tournant qu'Intel va surement prendre aussi mais avec du retard.

J'utilise Vienna Ensemble pro pour loader des dizaines d'instance kontakt et autre VST à base de samples. Donc oui c'est cette latence que j'aimerais améliorer mais vu ce que tu m'expliques, la solution ne viendra pas du GPU. Mais plutôt des échanges RAM/CPU/Accès disque...
18
Citation de ginuwine :
Je ne suis pas certain que ce soit du bullshit marketeux...l'architecture ARM est vraiment différente des CPU Intel. Ca consomme mille fois moins en énergie et la mémoire unifiée est plus efficiente. Après c'est ce qui se dit partout objectivement. Perso j'ai un PC aussi donc je ne rentre pas dans la gueguerre Intel/Apple. C'est juste que technologiquement Apple semble avoir pris un tournant qu'Intel va surement prendre aussi mais avec du retard.
Aucun doute que ARM c'est différent de x86, par contre que ce soit technologiquement plus avancée, c'est aurte chose et c'est un jugement très discutable.
Soyons précis, il ne faut pas opposer ARM et Intel, c'est x86 qu'il faut mettre en face de ARM.

On peut faire de la mémoire unifié avec les CPU Intel (ou n'importe qu'elle autre en fait) et les GPU NVIDIA (ça a été introduit en 2013).
Peut être que tu voulais parler du fait que la mémoire est sur la même puce que le CPU plutôt que du concept de mémoire unifié ?
Sur ce point, c'est un choix plus qu'une question d'avance technologique à mon sens. Intel avait produit les Xeon phi il y a une dizaine d'années : des proc avec de la mémoire sur la même puce que les CPU. C'était pas pour le marché grand publique et ça a floppé, mais je raconte ça juste pour illustrer le fait que Intel sait faire ça et en a aussi eu l'idée. Ils ont manifestement laissé ce genre de puce de coté.
Il y a des bonnes raisons à ça : mettre la mémoire sur la même puce que le CPU c'est des contraintes très fortes, moins de modularité principalement.
Apple, Intel, AMD et les autres font des choix, il n'y a pas un choix bon et les autres mauvais, ils visent pas tout à fait les mêmes applications et marchés et proposent tout simplement des produits différents. Certains se concentre sur certains points technologiques particuliers, les autres sur d'autres points.

Citation :
Après c'est ce qui se dit partout objectivement
Non pas partout et tu devrais citer pour que chacun puisse juger par lui même de l'objectivité, c'est quand même plutôt ironique d'invoquer l'objectivité comme argument d'autorité.