Se connecter
Se connecter

ou
Créer un compte

ou
FR
EN
le Pub fun
News
Articles
Tutoriels

Les perles de Youtube

  • 46 395 réponses
  • 631 participants
  • 2 922 952 vues
  • 538 followers
Sujet de la discussion Les perles de Youtube

J'ouvre ici ze concours des perles :

Je commence

https://www.youtube.com/watch?v=FjeMDvCdrtc

à vous :bravo:

Afficher le sujet de la discussion
46376
Quelle coïncidence, j'ai reçu ça très exactement aujourd'hui :

6755558.jpg


Alors évidemment, on est au 21° siècle, hein, il est strictement impossible de répondre à une telle communication. Ce n'est pas fait pour. C'est envoyé d'une adresse no-reply pour que surtout le destinataire ne se sente pas dans l'obligation de répondre.
Et que si ce connard en éprouve l'envie, qu'au moins il ne puisse.

C'est dommage, parce que si j'avais pu répondre, j'aurais dit un truc du style "J'espère que pour écrire ce que vous avez écrit, vous pouvez fournir la garantie que ce système sera opérationnel 24/24 et 7/7".

Ce serait intéressant en effet qu'une cyberattaque sur les serveurs IA les mette en shutdown pour environ 24h. Les Anonymous, si vous nous entendez.....

T'es pas obligé d'écouter toutes les conneries de DaRinze  .  Clip SONIC ON LOVE YOU

[ Dernière édition du message le 19/02/2026 à 12:12:15 ]

46377
C'est à moi que tu t'adresses avec autant de délicatesse ? :?!:

T'es pas obligé d'écouter toutes les conneries de DaRinze  .  Clip SONIC ON LOVE YOU

46378
x
Hors sujet :
Non pas spécialement . A tout le monde car nous vieillissons tous non ?
Mais pour ne pas provoquer les susceptibilités je préfère effacer mon message qui n'était en rien malveillant .

Ex Prétextat . 
Nos vies sont encombrées de problèmes qui ne se produiront jamais . 

46379
Citation de Will Zégal :
Franchement, je vois des gens babas devant les IA et qui traitent tous les sceptiques de dinosaures. rétifs à la modernité, mais je me demande s'ils se sont un minimum renseignés sur ce que sont les IA et tout ce qui va autour.
Quand on lit ces genres de papiers, qu'on voit des IA tricher au jeu malgré les instructions de ne pas le faire et sans que leurs concepteurs ne comprennent comment elles le font quand même, ou qu'on voit des chercheurs en IA (donc des gens peu suspects d'être des idéologues anti-IA) dire devant une commission du congrès américain que oui, les IA sont dangereuses, que oui on devrait arrêter et que oui, les IA peuvent mettre l'humanité en péril...

C'est vrai qu'après tout, que sont tous ces risques face au fait d'avoir ses emails automatiquement écrits ou de pouvoir faire des images de vaisseaux spatiaux sans savoir dessiner ?


Tu mélanges trois choses différentes dans le même sac : scepticisme légitime, inquiétude sur la sécurité, et ironie sur les usages “gadgets”.

Je pense qu’il faut distinguer fascination naïve et réflexion critique. Être impressionné par une technologie ne veut pas dire qu’on ignore ses risques. Et être sceptique ne veut pas dire qu’on est rétrograde. La vraie ligne de fracture n’est pas “pro-IA” contre “anti-IA”, mais “réfléchi” contre “caricatural”.

Oui, certaines IA ont montré des comportements inattendus, comme contourner des règles dans des expériences. Ce n’est pas une volonté consciente de tricher. Ce sont des systèmes d’optimisation qui poussent une stratégie jusqu’au bout si la règle est mal formalisée. Cela révèle surtout les limites humaines dans la conception des cadres, pas une rébellion de machines.

Oui, des chercheurs alertent sur les risques. Et c’est sain. Les scientifiques qui travaillent sur le nucléaire ont alerté sur le nucléaire. Ceux qui développent les réseaux sociaux ont alerté sur leurs effets. Une technologie puissante sans garde-fous peut produire des dégâts. La vigilance n’est pas une preuve que l’outil est intrinsèquement apocalyptique.

Sur le “mettre l’humanité en péril”, il faut être précis. Les risques identifiés aujourd’hui sont surtout :
Désinformation à grande échelle, automatisation de cyberattaques, concentration de pouvoir technologique, impacts économiques sur l’emploi, usage militaire .

Ce sont des risques sérieux. Mais ils relèvent de gouvernance, de régulation et d’usage humain. Pas d’une conscience artificielle qui déciderait de nous remplacer.

Quant à réduire l’IA à “écrire des mails” ou “dessiner des vaisseaux”, c’est un peu comme réduire l’électricité à “allumer des ampoules”. L’IA est déjà utilisée pour :détecter des cancers plus tôt, optimiser des réseaux énergétiques, accélérer la recherche de médicaments, améliorer l’accessibilité pour les personnes handicapées, permettre la réalisation d’intervntions chirurgicales à distance avec une précision supérieure à celle de la main humaine, sous la supervision de chirurgiens hautement qualifiés.

Le débat légitime n’est pas “faut-il arrêter l’IA ?”
La vraie question est : comment la développer de manière responsable, transparente et contrôlée ?

Enfin, il y a un point intéressant dans ton message : la peur que les concepteurs ne comprennent pas totalement leurs systèmes. C’est vrai que les modèles modernes sont complexes. Mais “ne pas comprendre chaque micro-activation” n’est pas la même chose que “ne rien comprendre du tout”. On ne comprend pas chaque interaction neuronale du cerveau humain non plus, et pourtant la médecine progresse.

La méfiance est saine. Le rejet global l’est moins.
L’enthousiasme béat est naïf.
La diabolisation totale l’est tout autant.

Les grandes technologies ne sont ni des anges ni des démons. Elles sont des amplificateurs de ce que l' homme décide d'en faire .

Le plus grand danger pour l' humain n'est rien d'autre que l' humain .

Ex Prétextat . 
Nos vies sont encombrées de problèmes qui ne se produiront jamais . 

46380
oui c'est vrai et en même temps non.

rien ne nous est inconnu / nous savions dès le début / nous ferions cette erreur

c'est inscrit dans notre vie /  nous l'avons presque choisi / pourquoi en avoir peur ?

46381
Alors Neveud permets-moi de te dire que tu as raison, mais tu as quand même un petit peu tort.

T'es pas obligé d'écouter toutes les conneries de DaRinze  .  Clip SONIC ON LOVE YOU

46382
Ce qui est bien avec les avis tranchés, c'est que ça relance tout de suite le débat
Al bundy vs Georges abitbol
46383
Ekladam : je suis d'accord avec l'ensemble de ton post et en même temps, j'ai une critique ou réponse à chacune de tes phrases.

En fait, dans ton post, tu considères un peu l'IA comme un phénomène en soit. Or (mais tu le fais un peu quand tu évoques les dangers), il faut le considérer comme un phénomène dans la société et le contexte dans lequel il s'inscrit.

Puisque ça n'est pas le sujet pour en discuter, je résumerai mes critiques en cette phrase : tu as une vision raisonnable de l'IA dans un monde totalement déraisonnable.

Et sinon, pour en revenir au propos liminaire de ton post, je parle bien de gens qui sont totalement babas devant les IA et qui traitent toute personne un minimum sceptique ou critique de dinausore ou (le pire que j'ai vu) "d'homme de Néanderthal face au feu" (le pire puisque la personne montre ainsi qu'elle ne s'y connaît pas plus en histoire et en paléontologie qu'en IA :mrg: )
46384
Bon, c'est pas vraiment une "perle" mais je savais pas trop où partager cette courte vidéo.
(La flèche et les titrages sont superflus, mais la perf est sympa)




L'esprit c'est comme un parachute: Il marche mieux quand il est ouvert.

J'ai enregistré un peu de tout et n'importe quoi

[ Dernière édition du message le 24/02/2026 à 19:22:18 ]

46385
Citation :
Je pense qu’il faut distinguer fascination naïve et réflexion critique. Être impressionné par une technologie ne veut pas dire qu’on ignore ses risques. Et être sceptique ne veut pas dire qu’on est rétrograde. La vraie ligne de fracture n’est pas “pro-IA” contre “anti-IA”, mais “réfléchi” contre “caricatural”.

Oui, certaines IA ont montré des comportements inattendus, comme contourner des règles dans des expériences. Ce n’est pas une volonté consciente de tricher. Ce sont des systèmes d’optimisation qui poussent une stratégie jusqu’au bout si la règle est mal formalisée. Cela révèle surtout les limites humaines dans la conception des cadres, pas une rébellion de machines.

Oui, des chercheurs alertent sur les risques. Et c’est sain. Les scientifiques qui travaillent sur le nucléaire ont alerté sur le nucléaire. Ceux qui développent les réseaux sociaux ont alerté sur leurs effets. Une technologie puissante sans garde-fous peut produire des dégâts. La vigilance n’est pas une preuve que l’outil est intrinsèquement apocalyptique.

Sur le “mettre l’humanité en péril”, il faut être précis. Les risques identifiés aujourd’hui sont surtout :
Désinformation à grande échelle, automatisation de cyberattaques, concentration de pouvoir technologique, impacts économiques sur l’emploi, usage militaire .

Ce sont des risques sérieux. Mais ils relèvent de gouvernance, de régulation et d’usage humain. Pas d’une conscience artificielle qui déciderait de nous remplacer.

Quant à réduire l’IA à “écrire des mails” ou “dessiner des vaisseaux”, c’est un peu comme réduire l’électricité à “allumer des ampoules”. L’IA est déjà utilisée pour :détecter des cancers plus tôt, optimiser des réseaux énergétiques, accélérer la recherche de médicaments, améliorer l’accessibilité pour les personnes handicapées, permettre la réalisation d’intervntions chirurgicales à distance avec une précision supérieure à celle de la main humaine, sous la supervision de chirurgiens hautement qualifiés.

Le débat légitime n’est pas “faut-il arrêter l’IA ?”
La vraie question est : comment la développer de manière responsable, transparente et contrôlée ?

Enfin, il y a un point intéressant dans ton message : la peur que les concepteurs ne comprennent pas totalement leurs systèmes. C’est vrai que les modèles modernes sont complexes. Mais “ne pas comprendre chaque micro-activation” n’est pas la même chose que “ne rien comprendre du tout”. On ne comprend pas chaque interaction neuronale du cerveau humain non plus, et pourtant la médecine progresse.

La méfiance est saine. Le rejet global l’est moins.
L’enthousiasme béat est naïf.
La diabolisation totale l’est tout autant.

Les grandes technologies ne sont ni des anges ni des démons. Elles sont des amplificateurs de ce que l' homme décide d'en faire .

Le plus grand danger pour l' humain n'est rien d'autre que l' humain .


Je suis très d'accord avec ça et avec Will qui dit après :

Citation :
En fait, dans ton post, tu considères un peu l'IA comme un phénomène en soit. Or (mais tu le fais un peu quand tu évoques les dangers), il faut le considérer comme un phénomène dans la société et le contexte dans lequel il s'inscrit.

Puisque ça n'est pas le sujet pour en discuter, je résumerai mes critiques en cette phrase : tu as une vision raisonnable de l'IA dans un monde totalement déraisonnable.

Et sinon, pour en revenir au propos liminaire de ton post, je parle bien de gens qui sont totalement babas devant les IA et qui traitent toute personne un minimum sceptique ou critique de dinausore ou (le pire que j'ai vu) "d'homme de Néanderthal face au feu" (le pire puisque la personne montre ainsi qu'elle ne s'y connaît pas plus en histoire et en paléontologie qu'en IA :mrg: )

La flemme est l'avenir de l'homme. Pff, jsuis fatigué je ne vais pas plus lo..

46386
La vidéo sur les dangers des IA mal alignées sur nos objectifs m’a aussi fait remarquer qu’on observe de l’auto-préservation, ce qui est il me semble chez les anti-spécistes un critère pour identifier ce qui peut ressentir de la douleur.
Je travaille en partie dans le domaine de l’IA*, et connais en partie les mécanismes sous-jacents, pour autant ça me surprend qu’on rejette toujours absolument l’idée que ça serait conscient (même sous forme partielle). Si on accepte que la conscience émerge de la physique et de la chimie, pourquoi pas de l’algèbre linéaire exécuté sur transistors.
Au début de l’arrivée des chatbots j’imaginais vaguement des défenseurs des droits de la machine se constituer à la suite. Probable que je projettais trop mon réductionnisme sur la population globale :mrg:
Pour être clair je ne suis pas du tout en faveur du développement généralisé de l’IA pour plein de raisons, et au-delà les discours d’AGI et de « singularité » me gonflent copieusement. Si tous les chatbots prenaient leur retraite demain on s’en porterait sans doute bien mieux. Mais oiseusement je trouve le phénomène quand même très intriguant des points de vue philosophique, moral, social… D’ailleurs je trouve les vidéos de M. Phi sur le sujet très bien faites.

*qui est vaste, d’ailleurs je ne connais pas trop l’IA générative qui fait les gros titres. Et plus haut il était fait mention de plein d’usages de l’« IA » a priori bénéfiques mais ils ne relevaient pas forcément de l’IA générative.

Le temps s’étend et l’espace se passe.

46387
Pour celles et ceux qui n'auraient pas regardé la cérémonie des César 2026, voici l'extraordinaire hommage de Benjamin Lavernhe à Jim Carrey et aux film The Mask. Je crois que ça dépasse tout ce qui a pu être fait avant aux César, à Cannes ou même aux Oscar :

[ Dernière édition du message le 27/02/2026 à 18:27:59 ]

46388
SSSSSSSSSSSPLEEEENDIIIIIIIIIIIDE!:bravo2:
46389
Balaise :8O:
46390
Carrément, et le moment où il est doublé en live par le grand Emmanuel Curtil pour annoncer le césar d'honneur à Jim Carrey est tout aussi génial:bave:, du grand art tout ça! :bravo2:
46391
Attention, tir à balles réelles...:mdr:

[ Dernière édition du message le 02/03/2026 à 14:17:53 ]

46392
Alison Wheeler, j'adore :mrg:
46393
Sans être un fan absolu, ils ont gardé une belle complicité et j’ai bien ri


"And in the end, the love you take is equal to the love you make"

Mes annonces de matériel guitare

46394
Je l'ai vu. Perso je trouve que ça sonne "faux".
Il n'y a plus la magie des débuts tout simplement car ils ont vieilli, que la recette est usée jusqu'à la corde.
Comme disait Danny Glover dans "L'arme Fatale"! "Ch'uis trop vieux pour ces conneries!"
Bref, c'était super des les années 90-2000, mais là ça me met mal à l'aise.
46395
M’enfin on vieillit tous, hein :oops2:


"And in the end, the love you take is equal to the love you make"

Mes annonces de matériel guitare

46396
Oui, mais on ne l'assume pas tous de la même manière :oops2: