Se connecter
Se connecter

ou
Créer un compte

ou
Agrandir
SérieThree-Body Technology Deep Vintage

Articles
Tutoriels
Avis
Petites annonces

Sujet Commentaires sur la news : L’IA a-t-elle réussi son pari ?

  • 17 réponses
  • 14 participants
  • 1 442 vues
  • 17 followers
Sujet de la discussion Commentaires sur la news : L’IA a-t-elle réussi son pari ?
12258.jpg
Avec ses 7 nouveaux plug-ins, le développeur Three Body Technology exploite une technologie alimentée par IA.


Lire la news


Ce thread a été créé automatiquement suite à la publication d'une news pour ce produit. N'hésitez pas à poster vos commentaires ici !
2
Et donc, concrètement cela apporte quoi ? Cela remplace les oreilles ?
:mrg:

Old School et Electronica

Deux filles Arc en Ciel

3
IA c'est le nouveau Quantique, tu fous ça sur n'importe quoi et ça fait vendre :D

Zitouni

4
Non, ce sont des plugins basés sur l'apprentissage automatique ou machine learning : on laisse une IA analyser la sortie d'un appareil en fonction du signal d'entrée et des réglages, et au bout de quelques heures/jours et des milliers de mesures elle sort une modélisation de l'appareil.

C'est à peu près la même technique utilisée pour les amplis dans ToneX par exemple.

[ Dernière édition du message le 31/05/2024 à 21:06:52 ]

5
Le problème des plugs estampillés IA à des fins "marketing" publiés sur des sites commerciaux comme audiofanzine, c'est qu'a part le jargon commercial, le copywriting, soit sur les sites internets des marques, ou sur les communiqués de presse, c'est qu'il n'est jamais (ou très très rarement) fait références des outils, des algos, des structures, des dépendances, des bases de données,... utilisés pour le machine learning.

Si les boites publiaient leurs travaux sur github, ce serait déjà plus instructifs.

Bref c'est comme si t'allais au supermarché et que tu t'attendais à ce que la caissière ou que le mec de la sécurité t'explique comment sont fabriqués et sourcés les barres de chocolats kinder bueno, la chipolata en promo ou les pétales de mais glacés au sucres.

On marche par approximation, chacun y va de sa petite science et de sa vulgarisation, bref c'est le téléphone arabe, d'autant plus quand il s'agit de plugin ou de technologie créative qui cherche à altérer un signal sonore basé sur des esthétiques qui sont elles aussi des créations culturo-commerciales souvent "occidentaliste" pas forcement intéressantes pour 90 pourcent du reste du monde.

Donc, bref, telecharge ou achète le plugin, toute façon chercher à comprendre comme fonctionne le plugin ne fera pas augmenter ton compteur d’écoute sur spotify.

(Mais ca veut pas dire que ces plugins ci ou d'autres ne sont pas fun à utiliser)

[ Dernière édition du message le 31/05/2024 à 22:29:37 ]

6
Citation de xabilon :

C'est à peu près la même technique utilisée pour les amplis dans ToneX par exemple.


Kemper fait de l'IA depuis presque 15 ans ?
Il ne faut pas se laisser berner, c'est du profiling, ce que fait IK n'a rien de nouveau.

Ici pour ce produit, ça sent la même banane. le terme IA est a la mode tout comme l’était le terme Pro.
Ça faisait vendre. Ils vont tous s’engouffrer dedans. A chacun d'y voir le vrai du faux.

Citation de dotadota :
Le problème des plugs estampillés IA à des fins "marketing" publiés sur des sites commerciaux comme audiofanzine, c'est qu'a part le jargon commercial, le copywriting, soit sur les sites internets des marques, ou sur les communiqués de presse, c'est qu'il n'est jamais (ou très très rarement) fait références des outils, des algos, des structures, des dépendances, des bases de données,... utilisés pour le machine learning.


Ça dépend, j'ai la suite Sonible, leur SmartEQ, fait un super boulot très pertinent. L'outil laisse toujours libre de faire une eq classique ou de combiner avec affinage manuel. On se prend beaucoup moins la tête sur le mix.
On en est pas encore ou il reconnaît l'instrument ou le style. A mon avis, je ne serais pas surpris que cela arrive pour la v5.

[ Dernière édition du message le 01/06/2024 à 01:19:58 ]

7
Je cherche pas à critiquer l’intérêt d'utiliser du machine learning!

Tu parles de smarteq, l'idée d'un eq ce n’est pas de "salir" un signal comme les plugins dans la news semblent "vouloir" faire. Mais un ou plusieurs eq permettent une analyse fréquentielle pour chercher à placer différentes fréquences d'instruments, surtout celles similaires, dans une courbe, c'est plutôt pragmatique comme approche, en tout cas plus à mon sens que rajouter du bias dans une simulation virtuelle de tape.

Aussi, je trouve que sonible (que je n’ai pas assez utilisé) des qu'on utilise leurs presets censés représenter l’esthétique d'un genre (machine learning), ça me perd un peu, par contre le fait que plusieurs instances puissent communiquer entre elles, oui c'est génial, en tout cas théoriquement! Mais pas besoin de machine learning pour ça, c'est juste une option qui devrait être fournie de base avec n'importe quel daw depuis 10 ans. (mais qui peut être pour des raisons de performances CPU commence à peine à arriver maintenant) si luna et uad avaient ce genre de plug et de workflow sur dsp, je serais très intéressé d'utiliser ce dernier dans mon workflow pour le mix final.

Citation :
On en est pas encore ou il reconnaît l'instrument ou le style. A mon avis, je ne serais pas surpris que cela arrive pour la v5.


Pour le style je ne sais pas, ce serait troublant si ca arrive dans un futur proche, surtout pour des styles qui n'existent "pas encore" ou à peine, c'est un peu le principe de beaucoup d'artistes dans la création musicale de chercher à créer les styles de demains. (a moins que ce soit pour dire que cette bass corresponds à une pattern de gamme blues)

Mais pour les instruments, pareil on attend ça depuis de 10 ans, pas besoin de machine learning pour ça, encore moins de réchauffer la planète en calcul dans le cloud, suffit d'une petite base de données de metadata de plugin, pour que le daw sache qu'ezbass est un plugin de ...Bass, qu'ezdrum est un plugin de ...drum,
je propose encore plus simple, une petite fenêtre à choix multiple qui me permette d'indiquer au daw quel est l'instrument ou l'audio de la track, où qu'il soit assez intelligent pour qu'il sache que la track que j'ai nommée Bass est une ...Bass

Bref, c'est pour ça que j'ai parlé des "dépendances" ou de l’intérêt de connaitre les outils que le développeur à utilisé pour créer son plugin AI, j'ai l'impression que souvent le travail a déjà été fait, par exemple, j'ai l'impression que la plupart des logiciels de "traitement de texte" AI ne font que se reposer sur l'api de openai/chatgpt, comme c'est le cas pour Microsoft qui utilise aussi openai.

La souvent les mecs (le bon vieux jargon publicitaire...) nous font croire que ça fait 20 ans qu'ils utilisent des millions de références pour nous pondre un plugin d’émulation de bande d'un obscure multipiste cassette de l'URSS.
Oui le machine learning c'est fou, ce n’est pas ça que je remets en question, ce que je critique c'est le jargon publicitaire qui omet (c'est de bonne guerre) qu'ils s'appuient certainement sur des technos déjà existantes et/ou open source.

Ce qui me gêne particulièrement là-dedans, ce n’est pas la volonté de la marque de vendre son produit, c'est que ça joue sur un truc ésotérique et magique, déjà qu'être artiste c'est compliqué si en plus les outils nous rendent superstitieux... (ah attends, on me dit dans l'oreillette que ça fait depuis le début de l'humanité que les artistes sont superstitieux)

[ Dernière édition du message le 01/06/2024 à 01:59:55 ]

8
Citation de dotadota :


Si les boites publiaient leurs travaux sur github, ce serait déjà plus instructifs.


elles ont le droit de ne pas le faire comme précisé par l'IA Act (reglement IA) qui protège les fabricants d'IA comme n'importe quel autre développeur.
Vu les enjeux économiques et géopolitiques, on ne voit pas l'interêt d'être "instructif".
faudait demander à softube et brainworx, et aux autres, de mettre leur code source sur github, pour qu'on puisse "être instruit".

[ Dernière édition du message le 01/06/2024 à 08:07:54 ]

9
Vu les enjeux économique et géopolitique, c'est plutôt ce qu'on demande justement à l'ia, et ça va plutôt aller dans ce sens j'en ai fort l'impression, déjà dans un premier temps en encadrant les entreprises pour ne pas abuser des études comportementales des actions qu'un utilisateur entretient avec une ia
une IA apprends autant de bases de données éparses que des interactions finales avec l'utilisateur qui lui ne sait pas forcement que des études sont menés de ses actions, la gdpr réponds déjà en partie à ce problème.
L’IA va aussi forcement faire évoluer le droit d'auteur et le droit moral, entre autre ...

Quand t’achète un œuf ou un poulet tu as déjà sur l'emballage sa provenance et sa source, il s'agit ici de faire la même chose pour les produits technologiques, ce sont d'ailleurs déjà des choses qui existent, il n y a pas de journalisme qui encadre, tout simplement parce qu'il n'y a pas de business model de ca.

On peut aussi imaginer que des licences type mit, gnu ou d'autres plus commerciales imposent de faire mention des technos qu'un produit utilise, (on peut imaginer qu'au delà de la mention, il puissent y avoir un descriptif des elements précis utilisés venant d'une api par exemple, dans les meme ordre d'idée que quand le téléphone prévient que tel app a accès à tel donnée du téléphone
en gros que le logiciel nous disent, "j'ai utilisé tel service de tel systeme pour agir avec tel fonction qui utilise le piano roll, ce que vous inscrivez sur le piano roll va etre recuperé par mes serveurs, par tel service venant de tel systeme, ...
Comme quand on clique sur une pub sur meta pour en savoir plus et que meta nous indique que cette pub est affiché parcequ'on marqué un interet dans tel et tel domaine..

J'ai cité github, mais on peut imaginer de nouveaux projet de wiki/repertoire intelligent, avec des descriptifs autogeneré d'outils et de leurs dépendances, venant de metadata de depots github ou d'autres plateformes, bref tout un tas de chose vont forcement arriver une fois passer le "ouah trop cool l'ia, j'ai fait ecrire une chanson a chatgpt pour l'anniversaire de mon patron et j'ai generé une bass et un kick techno parce que c'est ce qu'il ecoute toujours au bureau, ou ouai cool j'ai su extraire les drums de la isla bonita et faire un remix avec la voix de calogero"

Mais bref ton sarcasme va plutôt dans le sens de mon intervention, je remets pas en question l'ia et les changements de paradigme à venir, je remets plutôt en cause l'usage d'un jargon commercial ésotérique qui cherche à faire vendre de la créativité, en particulier sur audiofanzine qui grouille de lien sponsorisé et qui surfe depuis toujours sur la ligne brouillonne entre l'amateur créatif et le professionnel qui lui se doit de respecter des process et maitriser ses outils, pour le coup, je ne sais pas ou placer ce type de nouveau plugs, pour les amateurs pour les pros?.
a part sonible qui pour moi n'est pas si extraordinaire que ca, bien que efficace, j'en vois pas trop des outils ia qui viennent bousculer les habitudes des compositeurs, ingenieur, mixer, master,...
Ce que je vois c'est facebook qui chercher à generer des pieces sonores pour leurs futurs univers imersifs, ou open ai qui chercher à demontrer sa puissance, pour l'instant on a pas encore la main, on peut lui dire fait moi un remix de tata yoyo, mais on peut pas vraiment lui parler piste par piste ni de corriger, mixer,
bref l'ia est autonome, elle à pas besoin des musiciens, en tout cas, elle n'en a plus besoin...

En bref, si ça l’était déjà ces 20 dernières années, ce sera nécessaire dans les années à venir que le journalisme ne soit plus un cursus, mais une spécialisation à suivre après un master scientifique, afin que des personnes soient capable de nous expliquer sur le long cours ces nouveaux outils intelligent qui nous entoures et qui vont puiser au plus profond de notre inconscient.


[ Dernière édition du message le 01/06/2024 à 10:17:16 ]

10
Bravo à AF qui sait titrer ses news pour faire jaser ;-)

Dans ce cas-ci ça semble plutôt cool, c'est une nouvelle manière de modéliser du matos analo:
  • passer une sine dans du matos et essayer de comprendre les math à l'arrivée avec un oscilloscope (modeling)
  • passer une impulse dans du matos et isoler la différence (IR)
  • reproduire les maths de chaque composant du circuit (component modeling)
  • comparer une tonne de sons dry/wet et faire du deep learning (AI)


Cette nouvelle technique semble peu controversable par rapport aux questions AI et créativité, qui méritent vraiment un débat.