Se connecter
Se connecter

ou
Créer un compte

ou
FR
EN

réactions à la news L’IA a-t-elle réussi son pari ?

  • 17 réponses
  • 14 participants
  • 1 757 vues
  • 16 followers
Sujet de la discussion L’IA a-t-elle réussi son pari ?
12258.jpg
Avec ses 7 nouveaux plug-ins, le développeur Three Body Technology exploite une technologie alimentée par IA.


Lire la news


Ce thread a été créé automatiquement suite à la publication d'une news pour ce produit. N'hésitez pas à poster vos commentaires ici !
2
Et donc, concrètement cela apporte quoi ? Cela remplace les oreilles ?
:mrg:

Old School et Electronica

Deux filles Arc en Ciel

3
IA c'est le nouveau Quantique, tu fous ça sur n'importe quoi et ça fait vendre :D

Zitouni

4
Non, ce sont des plugins basés sur l'apprentissage automatique ou machine learning : on laisse une IA analyser la sortie d'un appareil en fonction du signal d'entrée et des réglages, et au bout de quelques heures/jours et des milliers de mesures elle sort une modélisation de l'appareil.

C'est à peu près la même technique utilisée pour les amplis dans ToneX par exemple.

[ Dernière édition du message le 31/05/2024 à 21:06:52 ]

5
Le problème des plugs estampillés IA à des fins "marketing" publiés sur des sites commerciaux comme audiofanzine, c'est qu'a part le jargon commercial, le copywriting, soit sur les sites internets des marques, ou sur les communiqués de presse, c'est qu'il n'est jamais (ou très très rarement) fait références des outils, des algos, des structures, des dépendances, des bases de données,... utilisés pour le machine learning.

Si les boites publiaient leurs travaux sur github, ce serait déjà plus instructifs.

Bref c'est comme si t'allais au supermarché et que tu t'attendais à ce que la caissière ou que le mec de la sécurité t'explique comment sont fabriqués et sourcés les barres de chocolats kinder bueno, la chipolata en promo ou les pétales de mais glacés au sucres.

On marche par approximation, chacun y va de sa petite science et de sa vulgarisation, bref c'est le téléphone arabe, d'autant plus quand il s'agit de plugin ou de technologie créative qui cherche à altérer un signal sonore basé sur des esthétiques qui sont elles aussi des créations culturo-commerciales souvent "occidentaliste" pas forcement intéressantes pour 90 pourcent du reste du monde.

Donc, bref, telecharge ou achète le plugin, toute façon chercher à comprendre comme fonctionne le plugin ne fera pas augmenter ton compteur d’écoute sur spotify.

(Mais ca veut pas dire que ces plugins ci ou d'autres ne sont pas fun à utiliser)

[ Dernière édition du message le 31/05/2024 à 22:29:37 ]

6
Citation de xabilon :

C'est à peu près la même technique utilisée pour les amplis dans ToneX par exemple.


Kemper fait de l'IA depuis presque 15 ans ?
Il ne faut pas se laisser berner, c'est du profiling, ce que fait IK n'a rien de nouveau.

Ici pour ce produit, ça sent la même banane. le terme IA est a la mode tout comme l’était le terme Pro.
Ça faisait vendre. Ils vont tous s’engouffrer dedans. A chacun d'y voir le vrai du faux.

Citation de dotadota :
Le problème des plugs estampillés IA à des fins "marketing" publiés sur des sites commerciaux comme audiofanzine, c'est qu'a part le jargon commercial, le copywriting, soit sur les sites internets des marques, ou sur les communiqués de presse, c'est qu'il n'est jamais (ou très très rarement) fait références des outils, des algos, des structures, des dépendances, des bases de données,... utilisés pour le machine learning.


Ça dépend, j'ai la suite Sonible, leur SmartEQ, fait un super boulot très pertinent. L'outil laisse toujours libre de faire une eq classique ou de combiner avec affinage manuel. On se prend beaucoup moins la tête sur le mix.
On en est pas encore ou il reconnaît l'instrument ou le style. A mon avis, je ne serais pas surpris que cela arrive pour la v5.

[ Dernière édition du message le 01/06/2024 à 01:19:58 ]

7
Je cherche pas à critiquer l’intérêt d'utiliser du machine learning!

Tu parles de smarteq, l'idée d'un eq ce n’est pas de "salir" un signal comme les plugins dans la news semblent "vouloir" faire. Mais un ou plusieurs eq permettent une analyse fréquentielle pour chercher à placer différentes fréquences d'instruments, surtout celles similaires, dans une courbe, c'est plutôt pragmatique comme approche, en tout cas plus à mon sens que rajouter du bias dans une simulation virtuelle de tape.

Aussi, je trouve que sonible (que je n’ai pas assez utilisé) des qu'on utilise leurs presets censés représenter l’esthétique d'un genre (machine learning), ça me perd un peu, par contre le fait que plusieurs instances puissent communiquer entre elles, oui c'est génial, en tout cas théoriquement! Mais pas besoin de machine learning pour ça, c'est juste une option qui devrait être fournie de base avec n'importe quel daw depuis 10 ans. (mais qui peut être pour des raisons de performances CPU commence à peine à arriver maintenant) si luna et uad avaient ce genre de plug et de workflow sur dsp, je serais très intéressé d'utiliser ce dernier dans mon workflow pour le mix final.

Citation :
On en est pas encore ou il reconnaît l'instrument ou le style. A mon avis, je ne serais pas surpris que cela arrive pour la v5.


Pour le style je ne sais pas, ce serait troublant si ca arrive dans un futur proche, surtout pour des styles qui n'existent "pas encore" ou à peine, c'est un peu le principe de beaucoup d'artistes dans la création musicale de chercher à créer les styles de demains. (a moins que ce soit pour dire que cette bass corresponds à une pattern de gamme blues)

Mais pour les instruments, pareil on attend ça depuis de 10 ans, pas besoin de machine learning pour ça, encore moins de réchauffer la planète en calcul dans le cloud, suffit d'une petite base de données de metadata de plugin, pour que le daw sache qu'ezbass est un plugin de ...Bass, qu'ezdrum est un plugin de ...drum,
je propose encore plus simple, une petite fenêtre à choix multiple qui me permette d'indiquer au daw quel est l'instrument ou l'audio de la track, où qu'il soit assez intelligent pour qu'il sache que la track que j'ai nommée Bass est une ...Bass

Bref, c'est pour ça que j'ai parlé des "dépendances" ou de l’intérêt de connaitre les outils que le développeur à utilisé pour créer son plugin AI, j'ai l'impression que souvent le travail a déjà été fait, par exemple, j'ai l'impression que la plupart des logiciels de "traitement de texte" AI ne font que se reposer sur l'api de openai/chatgpt, comme c'est le cas pour Microsoft qui utilise aussi openai.

La souvent les mecs (le bon vieux jargon publicitaire...) nous font croire que ça fait 20 ans qu'ils utilisent des millions de références pour nous pondre un plugin d’émulation de bande d'un obscure multipiste cassette de l'URSS.
Oui le machine learning c'est fou, ce n’est pas ça que je remets en question, ce que je critique c'est le jargon publicitaire qui omet (c'est de bonne guerre) qu'ils s'appuient certainement sur des technos déjà existantes et/ou open source.

Ce qui me gêne particulièrement là-dedans, ce n’est pas la volonté de la marque de vendre son produit, c'est que ça joue sur un truc ésotérique et magique, déjà qu'être artiste c'est compliqué si en plus les outils nous rendent superstitieux... (ah attends, on me dit dans l'oreillette que ça fait depuis le début de l'humanité que les artistes sont superstitieux)

[ Dernière édition du message le 01/06/2024 à 01:59:55 ]

8
Citation de dotadota :


Si les boites publiaient leurs travaux sur github, ce serait déjà plus instructifs.


elles ont le droit de ne pas le faire comme précisé par l'IA Act (reglement IA) qui protège les fabricants d'IA comme n'importe quel autre développeur.
Vu les enjeux économiques et géopolitiques, on ne voit pas l'interêt d'être "instructif".
faudait demander à softube et brainworx, et aux autres, de mettre leur code source sur github, pour qu'on puisse "être instruit".

[ Dernière édition du message le 01/06/2024 à 08:07:54 ]

9
Vu les enjeux économique et géopolitique, c'est plutôt ce qu'on demande justement à l'ia, et ça va plutôt aller dans ce sens j'en ai fort l'impression, déjà dans un premier temps en encadrant les entreprises pour ne pas abuser des études comportementales des actions qu'un utilisateur entretient avec une ia
une IA apprends autant de bases de données éparses que des interactions finales avec l'utilisateur qui lui ne sait pas forcement que des études sont menés de ses actions, la gdpr réponds déjà en partie à ce problème.
L’IA va aussi forcement faire évoluer le droit d'auteur et le droit moral, entre autre ...

Quand t’achète un œuf ou un poulet tu as déjà sur l'emballage sa provenance et sa source, il s'agit ici de faire la même chose pour les produits technologiques, ce sont d'ailleurs déjà des choses qui existent, il n y a pas de journalisme qui encadre, tout simplement parce qu'il n'y a pas de business model de ca.

On peut aussi imaginer que des licences type mit, gnu ou d'autres plus commerciales imposent de faire mention des technos qu'un produit utilise, (on peut imaginer qu'au delà de la mention, il puissent y avoir un descriptif des elements précis utilisés venant d'une api par exemple, dans les meme ordre d'idée que quand le téléphone prévient que tel app a accès à tel donnée du téléphone
en gros que le logiciel nous disent, "j'ai utilisé tel service de tel systeme pour agir avec tel fonction qui utilise le piano roll, ce que vous inscrivez sur le piano roll va etre recuperé par mes serveurs, par tel service venant de tel systeme, ...
Comme quand on clique sur une pub sur meta pour en savoir plus et que meta nous indique que cette pub est affiché parcequ'on marqué un interet dans tel et tel domaine..

J'ai cité github, mais on peut imaginer de nouveaux projet de wiki/repertoire intelligent, avec des descriptifs autogeneré d'outils et de leurs dépendances, venant de metadata de depots github ou d'autres plateformes, bref tout un tas de chose vont forcement arriver une fois passer le "ouah trop cool l'ia, j'ai fait ecrire une chanson a chatgpt pour l'anniversaire de mon patron et j'ai generé une bass et un kick techno parce que c'est ce qu'il ecoute toujours au bureau, ou ouai cool j'ai su extraire les drums de la isla bonita et faire un remix avec la voix de calogero"

Mais bref ton sarcasme va plutôt dans le sens de mon intervention, je remets pas en question l'ia et les changements de paradigme à venir, je remets plutôt en cause l'usage d'un jargon commercial ésotérique qui cherche à faire vendre de la créativité, en particulier sur audiofanzine qui grouille de lien sponsorisé et qui surfe depuis toujours sur la ligne brouillonne entre l'amateur créatif et le professionnel qui lui se doit de respecter des process et maitriser ses outils, pour le coup, je ne sais pas ou placer ce type de nouveau plugs, pour les amateurs pour les pros?.
a part sonible qui pour moi n'est pas si extraordinaire que ca, bien que efficace, j'en vois pas trop des outils ia qui viennent bousculer les habitudes des compositeurs, ingenieur, mixer, master,...
Ce que je vois c'est facebook qui chercher à generer des pieces sonores pour leurs futurs univers imersifs, ou open ai qui chercher à demontrer sa puissance, pour l'instant on a pas encore la main, on peut lui dire fait moi un remix de tata yoyo, mais on peut pas vraiment lui parler piste par piste ni de corriger, mixer,
bref l'ia est autonome, elle à pas besoin des musiciens, en tout cas, elle n'en a plus besoin...

En bref, si ça l’était déjà ces 20 dernières années, ce sera nécessaire dans les années à venir que le journalisme ne soit plus un cursus, mais une spécialisation à suivre après un master scientifique, afin que des personnes soient capable de nous expliquer sur le long cours ces nouveaux outils intelligent qui nous entoures et qui vont puiser au plus profond de notre inconscient.


[ Dernière édition du message le 01/06/2024 à 10:17:16 ]

10
Bravo à AF qui sait titrer ses news pour faire jaser ;-)

Dans ce cas-ci ça semble plutôt cool, c'est une nouvelle manière de modéliser du matos analo:
  • passer une sine dans du matos et essayer de comprendre les math à l'arrivée avec un oscilloscope (modeling)
  • passer une impulse dans du matos et isoler la différence (IR)
  • reproduire les maths de chaque composant du circuit (component modeling)
  • comparer une tonne de sons dry/wet et faire du deep learning (AI)


Cette nouvelle technique semble peu controversable par rapport aux questions AI et créativité, qui méritent vraiment un débat.
11
Citation de xabilon :
Non, ce sont des plugins basés sur l'apprentissage automatique ou machine learning : on laisse une IA analyser la sortie d'un appareil en fonction du signal d'entrée et des réglages, et au bout de quelques heures/jours et des milliers de mesures elle sort une modélisation de l'appareil.

C'est à peu près la même technique utilisée pour les amplis dans ToneX par exemple.


et donc à la fin est ce vraiment mieux que tout ce qui a été précédement fait en terme de modélisation de rack analo par des humains ?

on est déjà gavé de modélisations qui sont toutes arrivées aujourd'hui à faire le job, qu'apporte le fait d'avoir remplacer l'humain par un algo pour refaire encore et encore (mais objectivement pas mieux) ce qui existe déjà si ce n'est se dispenser des humains pour le faire ?

et soyons fou (pas tant que ça en fait) pourquoi même ne pas remplacer les acheteurs potentiels par des algos aussi finalement ? la boucle sera ainsi bouclée.




12
Sinon, quelqu’un a pu le tester ?
Qu’est-ce que ça donne musicalement ? Utile pour produire ?
13
x
Hors sujet :
Citation de pyerbass :
Bravo à AF qui sait titrer ses news pour faire jaser ;-)


Je ne cherche pas à critiquer le travail de neo alchemist ou de quelqu'un d'autre, et effectivement depuis son arrivée la titraille en particulier a pris une nouvelle ampleur.
Je dois venir sur audiofanzine depuis le début du site, et il n'y a pas d’équivalent à ce site, y compris en langue anglaise. Du coup il continue à me donner satisfaction quand je cherche des références.
Même si j'aurais préféré que le site aille plus loin, son moteur de recherche par exemple n'est pas très efficace ou évolué, j'aurais aimé qu'au-delà du copywriting, toutes les news comportent une section standardisée qui reprend les fonctionnalités de l'outil présenté, et que ces fonctionnalités puissent directement être découvrables sur le moteur de recherche.
Par exemple, c'est dommage que beaucoup de test de carte son et surement beaucoup de news fassent référence à la latence, testée ou annoncée, mais qu'on ne puisse pas chercher des cartes son en les classant par latence.
Pour une niche comme l'audio, difficile de faire mieux qu'audiofanzine.

Ça doit être moi, mais je trouve que depuis ces dernières années, la moitié des news sont directement suivis de commentaires aigris, il me semble qu'avant, mais y a longtemps, les gens recherchaient des fonctionnalités, aujourd’hui j'ai l'impression que ça cherche à assouvir sa soif consumériste/narcissique, les freewares sont un bon exemple, je ne vais pas télécharger les freewares de la terre entière sous prétexte que c'est gratuit.
J'ai eu une époque ou je téléchargeais tout, pour la faire courte, plus je téléchargeais, moins je composais, je ne parle même pas de finaliser.

Et l'IA en rajoute une couche, je ne vais pas faire dans de la psychologie de comptoir, mais en particulier dans les domaines de la création, c'est le narcissisme de chacun qui est directement en jeu, en particulier sur un ordinateur, appuyer sur un bouton ou tourner un potard crée une satisfaction narcissique. De la même façon qu'avoir 10 followers sur un réseau social est plus satisfaisant qu'en avoir 5, avoir 10 plugins est plus satisfaisant qu'en avoir 5, mais ça, c'est avant l'effet kiss cool, quand on se rend compte que le temps qu'on à passer à télécharger des plugins, on aurait pu en profiter pour faire écouter sa musique à ses potes ou au café du coin.
L'IA va encore plus loin, c'est la promesse technologique du zéro clic, zéro clic égale zéro satisfaction.

Alors c'est le cas partout sur internet et dans la vie en particulier depuis le confinement, tout le monde semble vivre sa petite rage narcissique dans son coin, mais j'ai toujours le fantasme qu'il existe des communautés de passionnés qui utilisent des outils pour leurs particularismes, et pas pour une prétendue satisfaction directe que cet outil pourrait apporter et les crises de gas qu'il doit satisfaire.

Une bonne façon d'apaiser les tensions c'est, quand c'est possible, d'instruire, non pas faire de la vulgarisation qui est aussi une commercialisation du savoir, mais pour le coup un réel partage sobre des connaissances de chacun.
Audiofanzine, ça devient: "tient telecharge ce plugin tu feras de la meilleure musique." Alors que ça devrait être :"moi ma technique c'est ci plus ça, en passant par ça, parce que je sais que ça fonctionne comme ça, tu pourrais essayer moi ça m'aide bien."

Bref, le meilleur des mondes tout ca...
14
x
Hors sujet :
+1 pour ce post post plein de sagesse.
Citation :
J'ai eu une époque ou je téléchargeais tout, pour la faire courte, plus je téléchargeais, moins je composais, je ne parle même pas de finaliser.

+1000,
Même si ça se calme en ce moment, car mon Windows7 commence à ne plus supporter nombres de plugs, et c'est tant mieux! ça limite mon GAS,
que ce soit free ou payant; je ne me souvient plus ce que certains payants font:facepalm:, en mieux ou différent...
Donc j’arrête les conneries et je vais essayer de sortir et finaliser surtout des morceaux en jachère...

(-;  Be Funky  ;-)

Soundcloud

15
Je n'avais pas remarqué qu'on vivait dans un monde qui est fabriqué de façon à répondre à nos besoins, à nous éduquer, et qui veut notre bien :-)
ceux qui pense que le Meilleur des Monde ou 1984 n'est pas le programme doivent se planquer de nos jours...

ceci dit pour les plugins, il y en a en open source, d'autres non, c'est au choix du développeur, et ce choix est désormais protégé légalement (personne ne peut demander le code source complet d'une IA même en justice)... idem pour les algos des rs.


Citation de dotadota :
Vu les enjeux économique et géopolitique, c'est plutôt ce qu'on demande justement à l'ia, et ça va plutôt aller dans ce sens j'en ai fort l'impression, déjà dans un premier temps en encadrant les entreprises pour ne pas abuser des études comportementales des actions qu'un utilisateur entretient avec une ia
une IA apprends autant de bases de données éparses que des interactions finales avec l'utilisateur qui lui ne sait pas forcement que des études sont menés de ses actions, la gdpr réponds déjà en partie à ce problème.
L’IA va aussi forcement faire évoluer le droit d'auteur et le droit moral, entre autre ...

Quand t’achète un œuf ou un poulet tu as déjà sur l'emballage sa provenance et sa source, il s'agit ici de faire la même chose pour les produits technologiques, ce sont d'ailleurs déjà des choses qui existent, il n y a pas de journalisme qui encadre, tout simplement parce qu'il n'y a pas de business model de ca.

On peut aussi imaginer que des licences type mit, gnu ou d'autres plus commerciales imposent de faire mention des technos qu'un produit utilise, (on peut imaginer qu'au delà de la mention, il puissent y avoir un descriptif des elements précis utilisés venant d'une api par exemple, dans les meme ordre d'idée que quand le téléphone prévient que tel app a accès à tel donnée du téléphone
en gros que le logiciel nous disent, "j'ai utilisé tel service de tel systeme pour agir avec tel fonction qui utilise le piano roll, ce que vous inscrivez sur le piano roll va etre recuperé par mes serveurs, par tel service venant de tel systeme, ...
Comme quand on clique sur une pub sur meta pour en savoir plus et que meta nous indique que cette pub est affiché parcequ'on marqué un interet dans tel et tel domaine..

J'ai cité github, mais on peut imaginer de nouveaux projet de wiki/repertoire intelligent, avec des descriptifs autogeneré d'outils et de leurs dépendances, venant de metadata de depots github ou d'autres plateformes, bref tout un tas de chose vont forcement arriver une fois passer le "ouah trop cool l'ia, j'ai fait ecrire une chanson a chatgpt pour l'anniversaire de mon patron et j'ai generé une bass et un kick techno parce que c'est ce qu'il ecoute toujours au bureau, ou ouai cool j'ai su extraire les drums de la isla bonita et faire un remix avec la voix de calogero"

Mais bref ton sarcasme va plutôt dans le sens de mon intervention, je remets pas en question l'ia et les changements de paradigme à venir, je remets plutôt en cause l'usage d'un jargon commercial ésotérique qui cherche à faire vendre de la créativité, en particulier sur audiofanzine qui grouille de lien sponsorisé et qui surfe depuis toujours sur la ligne brouillonne entre l'amateur créatif et le professionnel qui lui se doit de respecter des process et maitriser ses outils, pour le coup, je ne sais pas ou placer ce type de nouveau plugs, pour les amateurs pour les pros?.
a part sonible qui pour moi n'est pas si extraordinaire que ca, bien que efficace, j'en vois pas trop des outils ia qui viennent bousculer les habitudes des compositeurs, ingenieur, mixer, master,...
Ce que je vois c'est facebook qui chercher à generer des pieces sonores pour leurs futurs univers imersifs, ou open ai qui chercher à demontrer sa puissance, pour l'instant on a pas encore la main, on peut lui dire fait moi un remix de tata yoyo, mais on peut pas vraiment lui parler piste par piste ni de corriger, mixer,
bref l'ia est autonome, elle à pas besoin des musiciens, en tout cas, elle n'en a plus besoin...

En bref, si ça l’était déjà ces 20 dernières années, ce sera nécessaire dans les années à venir que le journalisme ne soit plus un cursus, mais une spécialisation à suivre après un master scientifique, afin que des personnes soient capable de nous expliquer sur le long cours ces nouveaux outils intelligent qui nous entoures et qui vont puiser au plus profond de notre inconscient.


16
x
Hors sujet :
Citation :
Je n'avais pas remarqué qu'on vivait dans un monde qui est fabriqué de façon à répondre à nos besoins, à nous éduquer, et qui veut notre bien :-)
ceux qui pense que le Meilleur des Monde ou 1984 n'est pas le programme doivent se planquer de nos jours...


Il y a les deux. Des entreprises qui veulent vraiment améliorer la vie de leurs clients, les aider et les instruire, ça existe. Ce n'est pas le business model le plus fréquent et c'est même régulièrement utilisé dans un argumentaire mensonger. Pour autant, ça existe.

Quand les attentes sont irréalistes, le problème ne vient pas toujours des solutions proposées : on vend des chimères pour répondre à la demande.
Pour rester dans le domaine de la musique, quelqu'un qui cherche à sortir un tube sans autre effort que d'appuyer sur un bouton risque d'être relativement déçu du voyage. Fort heureusement c'est un exemple complètement foireux et personne ne fonctionne ainsi. N'est-ce pas ?
Personne n'a cette paresse. Pourtant, plus un produit est facile d'accès et plus son fonctionnement est soigneusement caché. Essentiellement parce que la demande va dans ce sens : Mr Toulemonde n'a pas forcément la curiosité/les compétences/le besoin de chercher à comprendre comment ça marche.
Il a payé, il veut un résultat. Plus il paie cher, plus il s'attend à un résultat de qualité.

Les technologies se multiplient et on voit de plus en plus l'écart se creuser entre l'utilisation d'un outil et sa compréhension. Évidemment, on ne peut pas prendre le temps de mener une analyse détaillée de chaque techno qu'on utilise au quotidien. C'est clairement visible dans les outils musicaux ces derniers temps : le marché du preset est colossal. Et c'est valable pour tout : presets de synthés hardware ou software, presets d'EQ et de compresseurs, presets de rythmique, presets MIDI (accords préfabriqués), etc.
Soit plus personne n'a de temps à consacrer à fabriquer soi-même ses sons, soit on glisse dans une logique d'assemblage de modules préfabriqués en espérant un résultat correct.

L'arrivée de l'IA en tant que guide de composition ou comme outil adaptatif n'était pas du tout imprévisible. Le seul problème que j'y vois c'est le risque de perdre la main sur la réalisation.
Qu'on l'utilise dans l'industrie pour augmenter la qualité intrinsèque d'un produit, ça me paraît positif, surtout si on conserve un contrôle qualité humain à toutes les étapes. Mais je ne vois pas en quoi ça va améliorer la production musicale ou la création artistique.
On ne parle pas de pénibilité au travail, même si composer et jouer demande des efforts (tout demande des efforts), ça n'est en rien comparable avec le travail des gars dans les mines.
C'est plus rentable ? Absolument pas. Pour le moment certaines IA sont "gratuites", le temps de les entrainer et de capter des clients. Aucune entreprise produisant des IA n'a l'envie de passer à côté de revenus substanciels. Une fois la clientèle habituée au produit, il lui faudra sortir la CB. Si ce n'est pas un paiement par CB, ça sera en data, la nouvelle monnaie universelle.

En tout état de cause, ça ne remet pas en question la performance croissante des modèles d'IA.
Certains modèles ont pour objet d'assister une pratique, en science par exemple avec des modèles d'IA entraînés à faire du diagnostic. Détecter un cancer en phase précoce quand il est quasiment invisible pour l'humain, qui va le refuser ?
D'autres modèles ont pour but de satisfaire la paresse, ce sont ces modèles qu'il faut regarder en coin.

Le risque majeur est de glisser dans un confort illusoire, en ne sachant pas ce qu'on va gagner et en ayant aucune visibilité sur ce qu'on va perdre.

Instruments Kontakt gratuits / FLUIDSHELL Design
Démos Audio / Soundcloud BTSLa chaîne YouTube

"001001001111010010010010100010 !" Mireille DAC.

17
L’IA c’est le dernier truc qu’ils ont trouvé pour relancer les marchés financiers, les boites techno et l’économie US. Bienvenue dans une nouvelle matrice de la consommation. Ça me rappelle les débuts du web où il suffisait de mettre .com dans sa communication pour vendre n’importe quoi à n’importe qui. Il va falloir faire du tri par nous mêmes dans ce grand déballage marketing (bien soutenu par AF…) 😬
18
En tout cas, des interventions très intéressantes, et étant donné que c'est de plus en plus rare ces derniers temps, je tenais à le dire.
Merci beaucoup à vous toutes et tous.