Se connecter
Se connecter

ou
Créer un compte

ou
FR
EN

réactions à la news Longtemps réclamé, enfin annoncé : l’export de STEM arrive sur les MPC

  • 90 réponses
  • 31 participants
  • 9 258 vues
  • 40 followers
Sujet de la discussion Longtemps réclamé, enfin annoncé : l’export de STEM arrive sur les MPC
101.png
Il vous faudra patienter encore un petit peu, mais la fonctionnalité a officiellement été dévoilée par Akai Professional.


Lire la news


Ce thread a été créé automatiquement suite à la publication d'une news pour ce produit. N'hésitez pas à poster vos commentaires ici !
Afficher le sujet de la discussion
26
x
Hors sujet :
Si une nouvelle MPC pointe le bout de son nez, j'aimerais bien que ce soit une MPC mini, avec des dimensions plus modestes que la One+, pour le live, ce serait top. Pour cela, ce serait bien qu'elle ait des pads de la dimension de la Force par exemple, et même si la puissance est un peu moindre (64 pistes au lieu de 128; 4 plugin au lieu de 8 et 4 pistes audio au lieu de 8), je pense que cela pourrait m'intéresser.

"On parle d'écriture inclusive alors que les femmes n'arrêtent pas de dire qu'elles s'en "battent les couilles""

[ Dernière édition du message le 14/01/2024 à 17:32:56 ]

27
Citation de dotadota :
À l’époque, c’était pas prévu qu’Amazon domine le commerce mondial et détruise toute la chaine de valeur de distribution, qu'ils se vendent des milliards de smartphones, que toutes nos données soient utilisées pour de la publicité ultra ciblée, et que l'IA fasse de meilleurs pochettes d'album que tout les trucs que les gens font sur Canva ou sur une version cracké de photoshop.
C’était même pas prévu y a 5 ans qu’Instagram devienne une galerie d'art déserté pour laisser place à TikTok.

Bref dans un monde où des milliards sont mis dans le machine learning qui en a peine quelques années à montré une courbe de progression folle, ça laisse désormais la possibilité d’être plus optimiste? Ou en tout cas délirant quant aux capacités du computing en tout genre, y compris le démixage d'un morceau de musique. Je me rappelle avec émotion de mon pentium 3 qui galérait à lire des DivX.

En tout cas, merci à tous ces contributeurs qui développent et entrainent des dataset que d'autres entreprises récupèrent et nous bundle en nouveauté, parce que ceci dit, entre melodyne, izotope, ripx, spleeter, serato,... c'est pas complètement nouveau cette affaire. C'etait pas si compliqué d'utiliser ultimate vocal remover en amont, mais c'est sur que le lazy chop de la mpc a pas vraiment d'égal et que les stems qui gardent les mêmes marqueurs de slice, tout ça en non destructif, c'est plutôt pas mal.


On peut contrôler ses chiottes avec son smart phone, qui aurait pu croire ça il y a encore une semaine :mrg:
28
Citation de circus prod :
Je me rappelle de débat sur ce forum où les mecs t'expliquait que ce ne sera jamais possible de séparer la voix/ des instruments


j'ai été de ceux là, il y a trente ans on avait même pas de time-strech qui tenait vraiment la route en hardware.
Mais ça a permis de développer tout un tas de techniques pour contourner ces limitations.

on a eu le time-strech, l'audio qui devenait de plus en plus "flexible", puis la détection et l'édition monophonique puis polyphonique avec mélodyne et puis maintenant les extractions de stems.



29
Citation de Ordre23 :


On peut contrôler ses chiottes avec son smart phone, qui aurait pu croire ça il y a encore une semaine :mrg:


Non, tu n'as pas compris la réponse.
Contrôler ses chiottes, on pouvait le faire y a plus de 50 ans, avec du bon vieux "hertzien".
Par contre y a 10 ans ou un peu plus, demixer un morceau, ça paraissait impossible, tout comme parler à une intelligence artificielle, qui montrerait plus de finesse que toi :clin: dans ses réponses, on ne pouvait pas le prévoir y a 5 ans.
Y a 5 ans, personne n’aurait pu prévoir qu'akai, devenu une simple marque de catalogue qui sortait des contrôleurs midi moisi, aurait fini par développer un daw complet sur du hardware tournant sur Linux avec un rythme de mise à jour constant qui prend en charge y compris leurs vieux matos.

Les choses changent, la meilleure façon de devenir un vieil aigri, c'est justement de répéter à qui veut l'entendre "je vous l'avais dit!"
30
Dites moi si je me trompe, mais concernant la MPC ou tout autre DAW pour exporter des stems, il n'y a pas besoin d'IA puisque normalement, le projet est déjà sous forme de plusieurs pistes séparées, il suffit donc de faire 4 mix down en sélectionnant les bonnes pistes pour les exporter. De plus, la séparation voix et musique que j'ai pu tester via des sites en ligne, donne souvent des résultats très moyens. Et s'il y a en plus de la réverb un peu longue sur la voix, on ne la retrouve pas forcément.
Si les éditeurs mettaient par défaut les 4 pistes déjà séparées à la source sur les différents supports ou média, il n'y aurait pas besoin d'IA pour faire ce travail qui, pour moi, ne fait qu'utiliser des ressources pour rien.

"On parle d'écriture inclusive alors que les femmes n'arrêtent pas de dire qu'elles s'en "battent les couilles""

[ Dernière édition du message le 15/01/2024 à 08:07:30 ]

31
Et oui, et si ma grand-mère avait écrit la recette de son pâté de campagne on aurait pu identifier tous les ingrédients plus facilement.
32
Citation de silvertouch06 :
Dites moi si je me trompe, mais concernant la MPC ou tout autre DAW pour exporter des stems, il n'y a pas besoin d'IA puisque normalement, le projet est déjà sous forme de plusieurs pistes séparées, il suffit donc de faire 4 mix down en sélectionnant les bonnes pistes pour les exporter. De plus, la séparation voix et musique que j'ai pu tester via des sites en ligne, donne souvent des résultats très moyens. Et s'il y a en plus de la réverb un peu longue sur la voix, on ne la retrouve pas forcément.
Si les éditeurs mettaient par défaut les 4 pistes déjà séparées à la source sur les différents supports ou média, il n'y aurait pas besoin d'IA pour faire ce travail qui, pour moi, ne fait qu'utiliser des ressources pour rien.


Ici, on part d'enregistrements d'un titre édité en .wave, d'un vinyl, d'un mp3 ... etc, et donc tout est "compacté" en 1 fichier. Bien sure, si tu es le créateur du morceau, ta la possibilité de faire ce que tu décris, mais, pour le coup, ce n'est pas dans le théme du sujet abordé ici :) On parle de Ai, c'est un nom "générique" pour "simplifier le thérme" qui est un programme d'algorythmes, bien costeaud, en fait... ,)

[ Dernière édition du message le 15/01/2024 à 09:45:06 ]

33
Faut se mefier un peu sur la qualité de la separation de stems, c’est pas non plus comme si tu récupéres la piste de voix ou de guitare originale avec la meme qualité que si l’ingé son t’avait filé l’original.
Il est acté que ca marche bien, mais il faut que la qualité audio de ce qui en sort soit acceptable parce que c’est ca qui fait qu’on l’exploite vraiment.

Je dis ca parce que je me suis pas mal amusé avec ca dernierement (avec spectralayers qui est un des meilleurs) et les resultats sont variables.
C’est le principe des algo….ca marche plus ou moins en fonction des morceaux bien tu ne sais pas trop pourquoi.

A part ca, chapeau Akai.
Surtout qu’Akai et ses MPC ont été beaucoup decriés, finalement au fil des mises a jour ils progressent sans cesse!
34
Citation :
mais il faut que la qualité audio de ce qui en sort soit acceptable

Voilà, et on y est pas encore, et de loin, même avec des éditeurs dédiés.
Il reste toujours des artefacts et/ou repisses, alors en live ...
ça peut faire la blague en mélangeant avec un autre morceau, pour faire mumuse, mais ça ne va pas plus loin.
Vous avez bien écouté les exemples dans la vidéo de Fruity loop? sérieux, sur la voie à 6.25...:mrg:
( Et le time-strech, ça n'a rien à voir, on part d'une seule entité à une autre, beaucoup plus "facile".)

( Et on n'y arrivera pas, d'autant plus sur les médiums/aigus, sauf à avoir une part de re-création des fréquences manquantes, au bon endroit, et dans la bonne tonalité... et donc surement pas en live, à l'heure actuelle en tout cas... )

(-;  Be Funky  ;-)

Soundcloud

35
Citation de dotadota :
Citation de Ordre23 :


On peut contrôler ses chiottes avec son smart phone, qui aurait pu croire ça il y a encore une semaine :mrg:


Non, tu n'as pas compris la réponse.
Contrôler ses chiottes, on pouvait le faire y a plus de 50 ans, avec du bon vieux "hertzien".
Par contre y a 10 ans ou un peu plus, demixer un morceau, ça paraissait impossible, tout comme parler à une intelligence artificielle, qui montrerait plus de finesse que toi :clin: dans ses réponses, on ne pouvait pas le prévoir y a 5 ans.
Y a 5 ans, personne n’aurait pu prévoir qu'akai, devenu une simple marque de catalogue qui sortait des contrôleurs midi moisi, aurait fini par développer un daw complet sur du hardware tournant sur Linux avec un rythme de mise à jour constant qui prend en charge y compris leurs vieux matos.

Les choses changent, la meilleure façon de devenir un vieil aigri, c'est justement de répéter à qui veut l'entendre "je vous l'avais dit!"


Ah mince nous pouvions les contrôler par voie hertzien ? :mrg: Quoi qu'il en soit le coup du piloter par phone c'est vrai, bon c'est encore 10000 boules le chiotte, mais cela se démocratisera dans le temps... Concernant l'IA cela n'existe pas, cela n'existe pas comme les médias autorisés essaye de nous le vendre, c'est pas moi qui le dit mais Luc Julia.
La meilleur façon de ne pas devenir un vieil aigri est d'accepter son âge, c'est aussi simple que ça... Il y a tellement de vieil aigri qui n'ont pas dépassés la quarantaine...
36
x
Hors sujet :
Faut aussi prendre en compte que le morceau à la source a été mixé ("bien" ou "mal") et que les fréquences d'une basse sont/peuvent êtres les mêmes que ceux des drums par exemple.
Aussi, selon le mix qui a été fait et sa dynamique, l'algo de séparation va galérer, les différentes pistes à la base du morceau n'ont pas été enregistrées à des étages de fréquences séparés. On peut imaginer par exemple que dans un morceau qui date des années 70 ou avant (ou après), la basse a été enregistrée en même temps que les drums avec le même micro, que la voix principale a été enregistrée en même temps que les chœurs...

Une bonne majorité, selon le style de musique qu'on sample, a été enregistré sur des "4 pistes" et sur du matériel à bandes.
Ta question porte à confusion silvertouch06, mais y a 30 ans, l'informatique n'existait pas en musique, les seules pistes que tu pourras trouver sur de la discographie sortie avant la fin des années 90, sera sur des bandes, et à moins de les avoir numérisés par exemple dans le cas de "remastering dolby atmos", ils n'existent pas sous formes numériques.

Aussi, il y a un élément à prendre en compte, mais la majorité de ce qu'on sample est illégale, c'est illégal d'avoir un MP3 dont on n’est pas propriétaire de l'œuvre (ou dont "et encore" on n’a pas ripé directement le support commercial), si on sample directement depuis un CD ou un vynil, c'est peut être différent, mais que ce soit d'un MP3 ou particulièrement de YouTube c'est illégale.
Akai sort en réalité un plugin qui encourage l'utilisation illégale de matériaux sous copyrights. Quand on exploite commercialement (ou pas) un morceau de musique à nous contenant du sample, on doit faire appel aux ayants droit pour avoir l'autorisation de l'exploitation et négocier le payement des droits d'auteurs (et droits "phonographiques"). En France par exemple, mais pas que, se rajoute la notion de droit moral, on peut être punis de l'atteinte morale provoquée à un artiste dont on a samplé l’œuvre sans son accord moral.

Bref, c'est aussi toutes ces raisons qui faisaient dire à beaucoup de gens que ce sera impossible qu'une techno pareille puisse voir le jour.
La réalité c'est que beaucoup de ces entreprises utilisent des algo "opensource", comme le spleeter de deezer, qui sont avant tout des algos de recherches scientifiques, sans réel but commercial.
Melodyne d'ailleurs n'est pas vendu comme un outil de sampling avec séparation, mais un outil de correction de nos propres prises en studio.

Le terme IA est un terme générique (quand il n’est pas, la majeure partie du temps, employé de manière putassière à des fins commerciales), qui est beaucoup plus un terme de l'ordre de la réflexion philosophique. Ce n'est pas un terme scientifique, on pourrait parler du domaine de pensée de la cybernétique de manière générale.

Si on doit utiliser un terme scientifique ou en tout cas concret, il faudrait parler de "machine learning".
La particularité des algos d’aujourd’hui, ou d'en tout cas de la période qu'on vit, c'est que ces algorithmes sont codés pour pouvoir apprendre "tout seuls", on leur fournit de très larges bases de données et on améliore leurs capacités de détection en leur disant "c'est bien continu", ou "non la c'est de la merde".

La particularité de ChatGPT par exemple, c'est que tout ce qu'on lui dit, toutes nos données, sont gardées en mémoire et selon la satisfaction qu'on a du résultat généré, qu'il est capable de détecter, il continue d'apprendre. D'ailleurs c'est aussi aussi la raison pour laquelle ChatGPT qui est un LLM, fonctionne par canal de discussion, "l'algo" sera différent selon la discussion sur laquelle on est actif.

Donc en gros,"l'IA", c'est un algorithme qui a été entrainé sur de larges bases de données, et qui potentiellement continue d'apprendre avec l'usage qu'on en a. On pourrait imaginer un algo de séparation de stems qui s'adapte à notre usage potentiel, et aux styles de musique qu'on sample, mais ça demande à ce qu'on l'on passe beaucoup de temps à valider ou non ses outputs (et ce serait contre productif, et d'autres le font mieux et sont plus habilités). Il suffit de se rendre ici pour voir le nombre de modèles, de dataset "IA"...https://huggingface.co/models" rel="ugc noopener" target="_blank"> https://huggingface.co/models.

Beaucoup de ses bases de données ne respectent aucunement le droit d'auteur. Aucun écrivain, musicien, scientifique, internaute lambda, youtubeur, journaliste, acteur, chanteur, cuisinier, développeur de logiciel, de code..., n'a donné l'autorisation aux programmeurs et aux entreprises actives dans le domaine de l'IA de traiter et d'analyser leurs œuvres dans le but de générer un algorithme intelligent. C'est pour cette raison que la plupart de ces algos sont "open sources".
Sauf que dans la réalité, ChatGPT par exemple a une exploitation commerciale de sa techno, et entretient une exploitation commerciale de nos données quand on interagit avec, exploitation des données que l'on consent après avoir signé les conditions générales, mais qui pose problème éthique, GDPR, droit souverain des données, vie privée, confidentialités des données d'entreprises, etc.
(Les algos de recommandation des réseaux sociaux sont aussi de l'IA, en signant les conditions générales, on donne l’autorisation à ces entreprises d'exploiter nos activités et créations afin d'alimenter les algos de recommandation publicitaire et "recreatif".)

Bref, tout ça pour dire que toutes ses raisons complexes, sont très différentes de la seule volonté altruiste de Akai de rendre le sampling accessible à tous les gamers/producteurs d'aujourd’hui et autre grabataire comme moi.

Ps: je ne suis ni scientifique, ni ingénieur du son, ni codeur, ni spécialiste, ni expert du droit, ni quoi que ce soit, mais je pense que ce petit intermède peut aider à clarifier un peu, ça sert aussi à ça un forum, si je raconte des conneries corrigez moi.

[ Dernière édition du message le 15/01/2024 à 12:59:33 ]

37
x
Hors sujet :
Citation de dotadota :
mais y a 30 ans, l'informatique n'existait pas en musique

L'informatique musicale est aussi vieille que l'informatique tout court.

Le Fairlight a été développé au milieu des années 70 :
https://fr.wikipedia.org/wiki/Fairlight_CMI
Et l'enregistrement numérique multipiste sur bande à la toute fin des 70s et au début des années 80 :
https://www.sony.net/Products/proaudio/en/story/story03.html
Citation :
Digital multi-track recorders were already in the market from another manufacturer, having released their first device in 1978

Excellentes contributions sinon. :bravo:

« What is full of redundancy or formula is predictably boring. What is free of all structure or discipline is randomly boring. In between lies art. » (Wendy Carlos)

[ Dernière édition du message le 15/01/2024 à 18:07:25 ]

38
DotaDota, ton post est super, on apprends bcp (l'histoire de un micro qui capture +ieurs instrus)... Pis mdr a la fin, "chu po scientifique, ni... etc... exellent, car a te lire, j'aurais bien cru :)
Merci, car c'est bien clair. Bravo et c'est pas hors sujet for me ,)



Citation de dotadota :
x
Hors sujet :
Faut aussi prendre en compte que le morceau à la source a été mixé ("bien" ou "mal") et que les fréquences d'une basse sont/peuvent êtres les mêmes que ceux des drums par exemple.
Aussi, selon le mix qui a été fait et sa dynamique, l'algo de séparation va galérer, les différentes pistes à la base du morceau n'ont pas été enregistrées à des étages de fréquences séparés. On peut imaginer par exemple que dans un morceau qui date des années 70 ou avant (ou après), la basse a été enregistrée en même temps que les drums avec le même micro, que la voix principale a été enregistrée en même temps que les chœurs...............
Ps: je ne suis ni scientifique, ni ingénieur du son, ni codeur, ni spécialiste, ni expert du droit, ni quoi que ce soit, mais je pense que ce petit intermède peut aider à clarifier un peu, ça sert aussi à ça un forum, si je raconte des conneries corrigez moi.

[ Dernière édition du message le 15/01/2024 à 15:28:10 ]

39
Citation :
Ici, on part d'enregistrements d'un titre édité en .wave, d'un vinyl, d'un mp3 ... etc, et donc tout est "compacté" en 1 fichier. Bien sure, si tu es le créateur du morceau, ta la possibilité de faire ce que tu décris, mais, pour le coup, ce n'est pas dans le théme du sujet abordé ici :) On parle de Ai, c'est un nom "générique" pour "simplifier le thérme" qui est un programme d'algorythmes, bien costeaud, en fait... ,)

Ok mais dans ce cas, je ne vois pas l'intérêt de le faire par la MPC; ce ne serait pas meiux de le faire sur PC et de le réimporter dans la MPC pour ensuite le retravailler ? Le PC étant plus puissant, la qualité risque d'être meilleure, même si cela fait passer par le PC et que c'est un peu plus long

"On parle d'écriture inclusive alors que les femmes n'arrêtent pas de dire qu'elles s'en "battent les couilles""

[ Dernière édition du message le 15/01/2024 à 21:19:16 ]

40
Je vois. Aprés, si je me trompe po, cette MPC est liée sur un ordi, non? Et donc son soft dédié qui tourne aussi avec... A confirmer, ou en attente de + d'infos :)

Citation de silvertouch06 :
Citation :
Ici, on part d'enregistrements d'un titre édité en .wave, d'un vinyl, d'un mp3 ... etc, et donc tout est "compacté" en 1 fichier. Bien sure, si tu es le créateur du morceau, ta la possibilité de faire ce que tu décris, mais, pour le coup, ce n'est pas dans le théme du sujet abordé ici :) On parle de Ai, c'est un nom "générique" pour "simplifier le thérme" qui est un programme d'algorythmes, bien costeaud, en fait... ,)

Ok mais dans ce cas, je ne vois pas l'intérêt de le faire par la MPC; ce ne serait pas meiux de le faire sur PC et de le réimporter dans la MPC pour ensuite le retravailler ? Le PC étant plus puissant, la qualité risque d'être meilleure, même si cela fait passer par le PC et que c'est un peu plus long
41
Citation :
Ok mais dans ce cas, je ne vois pas l'intérêt de le faire par la MPC; ce ne serait pas mieux de le faire sur PC et de le réimporter dans la MPC pour ensuite le retravailler ?


Ben justement..l'intérêt de le faire dans la MPC c'est que c'est bien plus funky que dans le PC.
42
Citation :
Ben justement..l'intérêt de le faire dans la MPC c'est que c'est bien plus funky que dans le PC.

alors si c'est plus funky, faudrait peut être que Microsoft sorte la suite Office sur MPC :facepalm:
Sérieusement, je doute que la qualité de l'algo sur MPC dépasse ce qu'il existe sur PC/Mac. Mais on ne sait jamais, sur un mal entendu...

"On parle d'écriture inclusive alors que les femmes n'arrêtent pas de dire qu'elles s'en "battent les couilles""

[ Dernière édition du message le 16/01/2024 à 08:01:56 ]

43
C'est pour cela qu'il faut attendre les modalités une fois le produit disponible : calcul natif MPC, calcul via le logiciel MPC sur ordinateur ou calcul dans le Cloud.

La métrique de la qualité du résultat est apparemment le niveau de distorsion, mais je ne serais pas étonné que l'IA achetée par InMusic ait été entraînée sur un contenu spécifique (Soul, R'n B, Hip-Hop) qui soit adapté à la clientèle et au résultat recherché (identifier dans le signal ce qui relève des voix, basse, drums et ce qui reste).

En supposant que ce soit embarqué sur les MPC matérielles, cela ouvre la voie à la possibilité de capturer et traiter numériquement du contenu musical n'importe où. Un peu comme le sampling de la radio FM live sur l'OP-1.

« What is full of redundancy or formula is predictably boring. What is free of all structure or discipline is randomly boring. In between lies art. » (Wendy Carlos)

[ Dernière édition du message le 16/01/2024 à 12:16:19 ]

44
Citation :
Sérieusement, je doute que la qualité de l'algo sur MPC dépasse ce qu'il existe sur PC/Mac.

Je ne suis pas fan du son des plugs Mpc en général mais sur ce coup là c'est un traitement non temps réel donc la seule différence ça serra le temps de calcul du cpu ,en théorie l'algo sera le même (c'est sur si ça prend 3 min....).

Citation :
alors si c'est plus funky, faudrait peut être que Microsoft sorte la suite Office sur MPC :facepalm:

Perso je trouve que c'est plus fun de taper sur des pads et de composer dans la mpc que de passer par l'ordi et même si on perd en qualités on gagne en créativités d’où l’intérêt de la machine .Et je suis sur que certains écrivains prennent plus de plaisir à taper sur une vielle machine a écrire ou un bon clavier Pc mécanique ,c'est juste une question de feeling avec son outils (instrument) . Vivement Office sur Push en Mpe :D:
45
Je suis d'accord avec toi grm mais là on parle d'un algo de séparation de sons ou voix. On ne l'utilise pas en même temps que l'on joue sur les pads.

"On parle d'écriture inclusive alors que les femmes n'arrêtent pas de dire qu'elles s'en "battent les couilles""

46
@ silvertouch06 J'essaye juste de répondre a ta question "Ok mais dans ce cas, je ne vois pas l'intérêt de le faire par la MPC; ce ne serait pas mieux de le faire sur PC ?"
Tu peux re-regarder la vidéo de la news ça a l'air plutôt intuitif (pour du Akai bien sur...) sample,stem out,assign to pad , volume des parts avec les knobs .
Je fais déjà les stems avec RX et je peux t'assurer que c'est bien,bien plus chiant ,alors oui niveau qualité c'est peut être meilleur? mais pour sortir de la zone ya pas mieux . Peace
47
Je pense qu'a priori l'algo sera le même que ce soit sur MPC ou laptop ou sur une tour.
Microsoft Office, que ce soit sur un laptop d'il y a 15 ans ou sur une tour d'il y a une semaine, c'est le même logiciel, c'est juste que selon la puissance de calcul du processeur, ça mettra plus ou moins longtemps, sur du traitement de texte c'est négligeable, mais sur du PowerPoint avec des PNG dans tous les sens, ça peut devenir compliqué.

Pour moi la force de la MPC, qui tourne sur Linux, c'est la maitrise de la latence et la gestion du son qui est "native". En gros tu n’as pas à te prendre la tête à régler ton buffer, la latence, les drivers, les mises à jour du driver, etc., elle répond vite et en plus il y a le quantize, et les plugins sont forcément adaptés à la puissance de la machine.

Dans le cas du séparateur de stems, il devrait y avoir un temps de calcul, il sera forcément plus rapide sur une tour avec processeur plus rapide que celui de la mpc, mais la qualité de rendu sera la même à priori. Ce qui pourrait être possible, c'est que:
Par exemple sur music rebalance d'izotope, il y a 3 options de traitements, de mémoire: "good" "best" et genre "pro". On peut imaginer que sur le soft MPC sur ordi, il y ait les 3 options et que sur la mpc, il n’y ait que l'algo "good", pour des raisons de rapidité/instantanéité, de workflow et de simplification.

Aussi, et c'est les exemples qu'ils montrent, le traitement se fait sur un sample de "10" secondes, le traitement va vite, mais appliquer le traitement directement sur une chanson de 3 min, ça va galérer.

De toute façon, la solution existe déjà en open source, si vous la voulez sur pc:

https://ultimatevocalremover.com/
https://github.com/deezer/spleeter
Pour spleeter, une interface pour Windows: https://makenweb.com/SpleeterGUI
Pour mac: https://github.com/deezer/spleeter/issues/488

Sur la page GitHub de spleeter d'ailleurs, on voit que leur solution open source est utilisée entre autres pour:
"iZotope in its Music Rebalance feature within RX 8
SpectralLayers in its Unmix feature in SpectralLayers 7
Acon Digital within Acoustica 7
VirtualDJ in their stem isolation feature
Algoriddim in their NeuralMix and djayPRO app suite"

J'ai fait des tests sur une boucle
Le morceau original, libre de droits:
https://sndup.net/hr9m
L'exemple est un peu chelou, mais j'ai pas beaucoup cherché et je trouve que la voix remplie de reverb et de delay est intéressante à traiter.

Spleeter à mis 35 sec, il galère un peu:
Bass: https://sndup.net/rsgv
Drums: https://sndup.net/n36f
Voix: https://sndup.net/p3xn
Le reste: https://sndup.net/qkzz

Y compris quand il s'agit de séparer seulement l'instru et la voix, mais dans ce cas il est plus rapide: 15 secs.

Ultimate vocal remover à bien fonctionné ce pour quoi il est fait, en 35 sec:
Instru: https://sndup.net/rp4v
Voix: https://sndup.net/zks9

Edit: j'ai essayé avec d'autres models avec Ultimate vocal remover et , la qualité est bien meilleure que les resultats plus hauts de Spleeter,
La bass par exemple: https://sndup.net/zmh2/
Mais ca à pris 10 min


Ça risque d'être similaire sur la mpc, avec le traitement qui devrait se faire en tâche de fond c'est gérable comme temps de traitement, ça risque de ne pas trop niquer le workflow et la spontanéité.

[ Dernière édition du message le 16/01/2024 à 21:12:00 ]

48
Oui oui grm, pas de problème, je veux juste dire que le PC est plus adapté, c'est tout Après si le résultat est bon, ok :bravo:

"On parle d'écriture inclusive alors que les femmes n'arrêtent pas de dire qu'elles s'en "battent les couilles""

[ Dernière édition du message le 16/01/2024 à 18:45:11 ]

49
Citation :
Ça risque d'être similaire sur la mpc, avec le traitement qui devrait se faire en tâche de fond c'est gérable comme temps de traitement, ça risque de ne pas trop niquer le workflow et la spontanéité.

Si tu lances le traitement sur une autre bécane, c'est mille fois mieux, tu gardes toute la puissance pour jammer sur la MPC. Et quand l'algorithme a terminé, hop, copie du résultat dans la MPC.
Citation :
Voix: https://sndup.net/p3xn

Le résultat n'est vraiment pas à la hauteur.

"On parle d'écriture inclusive alors que les femmes n'arrêtent pas de dire qu'elles s'en "battent les couilles""

[ Dernière édition du message le 16/01/2024 à 22:50:54 ]

50

C'est pas mal j'avoue...

"On parle d'écriture inclusive alors que les femmes n'arrêtent pas de dire qu'elles s'en "battent les couilles""