réactions à la news Apple va équiper ses Mac de processeurs ARM
- 474 réponses
- 57 participants
- 25 420 vues
- 51 followers

Banshee in Avalon

Lire la news
Ce thread a été créé automatiquement suite à la publication d'une news pour ce produit. N'hésitez pas à poster vos commentaires ici !

Anonyme

Ça n’est qu’une rumeur
https://www.notebookcheck.net/Apple-rumored-to-be-working-on-an-iPhone-running-macOS-and-is-apparently-very-excited.477590.0.html
Un benchmark est apparu aussi
https://www.notebookcheck.net/First-A12Z-Bionic-DTK-Geekbench-5-benchmarks-show-Apple-s-transition-holds-immense-promise-only-a-28-in-drop-seen-in-single-core-score-compared-to-the-MacBook-Air-2020.477595.0.html
Je n’étais pas au courant de cette rumeur. Le côté matériel d’un iPhone sous MacOS me laisse sceptique, par contre l’idée d’applis complètes qui ne casseraient pas le flux de production est intéressante. C’est déjà le cas pour les apps basiques comme les TT ou tableurs. Par contre commencer un projet sur GarageBand pour IOS, l’importer sur GB sur le Mac puis l’ouvrir avec Logic est pénible, surtout qu’on perd au passage tous les plugins tiers et on réenregistre le projet. Si on pouvait commencer un projet directement sous Logic avec le mobile, même limité en pistes ou en instances de plugins, ça deviendrait beaucoup plus intéressant...

Darkmoon

[...] plus personne, sauf les pros bien sûr, ne font du montage sur un laptop ou ordi, on filme de courtes vidéos et on les publie a l'instant même sur les réseaux sociaux depuis son téléphone, c'est pas comme a l'époque ou le vidéaste filmait avec ses cassettes minidv puis faisait son montage sur adobe premiere éléments [...]
Certaines de tes observations/remarques sont intéressantes!
Par contre, je ne crois pas qu’on est face à un problème d’innovation ou de changement de paradigme (au sens d’innovation). En réalité, ce n’est qu’une question de marché et de gros sous. Le fait est qu’avant la démocratisation d’internet, et par la suite des smartphones et des réseaux sociaux, ceux qui utilisaient des ordinateurs étaient soit des pros (ou du moins des employés étant obligé de s'y mettre, si ce n’est qu’en bureautique), soit des gamers, soit des « geeks » (j'inclus dans ce terme les utilisateur du début des DAW, entres autres).
Conséquemment, les interfaces en ligne de commande et/ou en « dossiers/fichiers/menus/pointeur de souris » ne sont pas un paradigme et/ou une époque « archaïque », mais bel et bien des façons de « piloter » des logiciels de façon précise permettant un large éventail de possibilités. Mais ce sont nécessairement des moyens qui impliquent un certain « effort cérébral » et une courbe d’apprentissage.
Sauf que le monde dans lequel l’on vit étant ce qu’il est (capitalisme, loi du marché, etc.), puisque maintenant, de nos jours, ce « marché » ne touche plus que les pros, les gamer's et les « geek », ben l’avènement des « apps », des tuiles et interfaces adaptées au tactile n’est pas tant une évolution (dans le sens d'innovation) qu’un nivellement par le bas afin que tous (les mômes, tatie, tonton, papi et mamie) puissent utiliser (surtout acheter


C’est ça la réalité!
L’on peut faire un parallèle en considérant la ligne de commande et/ou les myriades de menus et des toutes petites icônes d’un « Photoshop » ou d’un « Reaper » comme étant des outils à « haute résolution cognitive», alors que les « apps » pour « M. & Mme tout le monde », ne comportant que quelques tuiles/grosse icônes facilement touchables avec les doigts sont des outils à « faible résolution cognitive ». Tout comme dans le domaine de la réflexion et de la pensée où la majorité réfléchit de façon binaire et dichotomique avec peu de « pixels cognitifs » alors que d’autres, moins nombreux, ont des réflexions bcp plus fines, précises et nuancées.
Conséquemment, les « apps faciles à utiliser » sur petit écran tactile ne sont pas nécessairement et dans tous les cas une « avancés » vers le mieux. Premièrement parce qu’un jeune, de nos jours, ne sera pas porté (comme plusieurs d’entre nous l’on été, même en tant que hobbyiste) à s’essayer à Toshop, Premiere, Davinci Resolve, Cubase Logic ou Reaper quand il leur suffit de télécharger une « app » qui leur permet de faire bcp plus « facilement » et rapidement une « pseudo-retouche » photo, par exemple (mais de façon bcp plus limitée et moins créative en réalité).
Deuxièmement, parce que ça tend à minimiser la complexité (pas au sens négatif et péjoratif du terme, mais en terme d’éventail de possibilités, de précision et d'originalité). Par exemple, pour un mec comme moi qui a connu l’évolution de l’informatique et qui est habitué, en tant que simple amateur passionné (je bosse dans un domaine qui n’a rien à voir avec l’informatique) à utiliser Photoshop, Premiere/Resolve, des éditeurs audio comme Adobe Audition (Cool Edit à l’époque), WaveLab, Sound Forge et qui manipule des DAW (sans parler que j’ai déjà scripté un tantinet pour le plaisir à une époque), ben utiliser des « apps » n’a aucune espèce d’intérêt puisque je suis nécessairement toujours plus limité qu’avec un « gros bon vieux software ». Oui, en déplacement et/ou pour s’amuser sur le canapé, c’est cool,

Tout ça pour dire qu’il ne faut pas confondre la volonté de certaines visionnaires (Steve Jobs et consorts à leur début) qui était de rendre l’informatique accessible à tous et le PC plus facile à utilisé avec la tendance que prend le marché actuel puisque tous ceux qui vendent des produits sont nécessairement en concurrence et se doivent de mettre « l’accent » là ou est ce qui se vend le plus (et ce n'est plus les tours ni les portables

C’est ça, àmha, qui explique que des individus comme nous, ici, entre autres, aient peur (en quelque sorte) de « perdre » un jour leurs logiciels (ou leur compatibilité) puisqu’on sait très bien que comparativement aux années 80, 90, et début 2000, ceux qui, comme nous, utilisent des outils permettant de faire un peu plus « complexe, précis et "sophistiqué" » que ce que l’on peut faire avec des « apps » sont maintenant minoritaire (et de plus en plus). Nous sommes donc de moins en moins une clientèle cible, que ce soit pour Apple, Microsoft et tous les autres. Nous formons une « niche » qui ne cesse de rapetisser, entre les pros et « M. & Mme tout le monde ».
Bien sûr restera toujours le marché des « pros », mais le danger, ce n’est pas que des outils dédiés~spécialisés cessent d’exister, mais que puisque le fossé et l’écart se creuse toujours plus entre le nombre de « pros spécialisés » (désolé du pléonasme) VS le nombre, parmi « M. & Mme tout le monde » qui se spécialise de moins en moins, même en temps que hobbyist passionné, les prix ne cesseront d’augmenter et donc l’accessibilité à des outils informatique (matériel comme logiciel) sera de plus en plus difficile. Et c’est exactement ce qu’on observe depuis quelques années avec le prix de plus en plus faramineux de certains ordinateurs Mac qui débutent à maintenant à plus 6,000€

Le seul truc qui empêche pour l'instant le même phénomène de se produire sous PC, c'est le nombre de gamers qui maintient un certains rapport de force et une demande encore relativement conséquente des composants PC. Le jours où la majorité des gamers passera sous console (il existe d'ailleurs déjà des adaptateurs pour connecter claviers/souris pour ceux qui redoute les manettes sous console), ce sera forcement, non pas la mort, mais la fin des PC puissant, mais abordables (pour ceux, qui comme plusieurs d'entre nous, ont besoin de plus que de l'entrée de gamme pour utiliser un DAW et/ou un soft de montage vidéo, mais n'ayant pas les moyens de payer 6,000€ pour autant).
Du coup, ce que moi je redoute, c’est que dans une petite décennie, ont en revienne au point de départ comme à la fin d'une certaines époque ou un ordinateur coûtait bcp trop cher à moins d’être un pro, tout comme les « bons » synthétiseurs d’ailleurs, entre autres. Le « grand public » n’avait alors les moyens que de s’acheter des « jouets~ersatz ». Bref, j’ai peur qu’au final, les puissants ordinateurs (et soft spécialisés) relativement abordable soient un jour réservés (que se soit de par leur tarif à l’achat ou de par le prix de la « location de puissance » via le cloud) au professionnel de métier (qui, eux, seront alors probablement heureux de perdre un peu de concurrence de la part des non-pros, qui étaient en 2020, des hobbyistes « avertis »).
"Si t'enregistres à Poudlard, avec l'ingé son Dumbledore, les lois physiques tu peux t'en foutre. Mais dans l'monde réel, les lois physiques, les mesures, le dBFS, tout ça existe bel et bien." youtou

Anonyme

Je ne vais pas reprendre point par point mais je ne partage pas du tout cette analyse. Une ergonomie bien pensée permet de produire plus rapidement (c’est l’intérêt du Mac) au lieu de « faire de l’informatique ». Ce n’est pas une question d’âge ou de compétence, juste de savoir où tu vas mettre ton énergie intellectuelle. Quand l’interface devient assez transparente pour te passer de manuel, là tu commences à être productif et créatif. Par ailleurs le marché des plugins et VST a explosé, pour le bien des musiciens, cf Billie Eilish entre autres. On assiste plutôt à la mise à dispo de technos pro pour beaucoup moins cher, par ex. le 24/96 et maintenant le DSD.

Anonyme

Pourtant le premier Apple avait été créé dans un garage par un gus aidé d'un bon copain (SW pour la partie technique et SJ pour le business). Ce n'est plus possible. Apple ne vend pas ses composants "Apple Silicon". Donc ne peut plus apprendre "sur le tas", par la bidouille. C'est bien un moyen de fermer/verrouiller le marché non?
À côté de ça, il y a un produit purement éducatif, à l'extrême opposé d'Apple, Raspberry Pi. Donc sous Linux. Mais avec un système facile à installer, facile à utiliser et des outils de développement adaptés aux débutants qui permettent ce retour à l'innovation. Car c'est bien ça le problème, si seuls quelques uns peuvent construire les machines de demain, on ne peut plus parler d'évolution.
Pour devenir développeur pour appareil Apple (c'est guère mieux avec Windows), il faut suivre une formation très spécialisée. Avec macOS c'est encore possible, difficile mais possible. Donc on réserve l'avenir avec une élite d'un côté et des "babouins" de l'autre. Pardon pour le terme "babouin" mais ça ressemble à l'esclavage. Dans une forme très moderne.
Beaucoup d'entre nous, probablement les plus âgés, ont cherchés à comprendre comment fonctionnait l'ordi qu'ils avaient. Au début, les machines étaient souvent vendues sans système d'exploitation. À la place il y avait un langage, généralement le BASIC. Ça réservait les machines a ceux qui osaient apprendre. Mais pas à une élite spécialement formée.
D'ailleurs, est-ce qu'il est possible de mettre les mains dans le cambouis avec macOS?
Est-ce qu'il est possible de mettre les mains dans le cambouis avec iOS?
Un Mac on peut aussi l'ouvrir pour changer la RAM. Avec un iMachin et la puce T2?
Je suis revenu car il y a des propos réfléchis, pas juste du dénigrement de tout ce qui n'est pas Apple.

Darkmoon

Citation de tguyfr :Je ne vais pas reprendre point par point mais je ne partage pas du tout cette analyse....
C’est sûr, je n’ai pas avantagé Apple dans mon pavé!
Citation de tguyfr :Une ergonomie bien pensée permet de produire plus rapidement (c’est l’intérêt du Mac) au lieu de « faire de l’informatique ».
Sérieusement, oui, pour certaines choses, bien sûr, naturellement, tu as raison (par contre, ce n'est pas exclusivement le propre de Apple~Mac, comme tu semble le croire).
...mais entre mon fils et mes neveux et nièces qui n’ont jamais daigné mettre les mains dans le cambouis pour apprendre Photoshop et qui utilisent des « apps » d’iPhone/smartphone pour ajouter des « faces de chats » par-dessus les visages et moi qui est capables (sous PC/Mac, peu importe), en moins de deux, d’ouvrir Photoshop, PaintShop Pro, The Gimp ou Affinity Photo et de faire 10 fois plus « sophistiqué » et « original », sans même très bien connaitre 2 des 4 logiciels mentionnés (parce qu’au final, quand on a la base, il se ressemble tous grosso modo), il y a un monde, une galaxie de différences!
Idem avec les « apps » pour faire de la musique sous iPad et tablette Android. Personne ne va me convaincre, même avec la meilleure adaptation tactile qui soit, qu’on peut faire autant que ce que l’on peut faire avec clavier/souris dans Logic, Cubase, SO ou Reaper en pouvant visualiser simultanément plusieurs dizaines de pistes sur deux écrans full hd (ou 4k).
Il n’est pas question de dire que l’un est « bien/mal », mais de dire , surtout, que l'utilisation n’est pas la même!
Et l’essentiel de mon propos était de dire que si la première forme d’utilisation (disons l’utilisation « ludique ») est maintenant bcp plus utilisée, car ayant bcp plus d’utilisateurs (mes neveux et nièces, en plus de tonton, mamie et papi, etc.) ben le « marché » de la 2e forme d'utilisation devient forcément bcp moins intéressante pour les constructeurs de matériel et les éditeurs de soft... ...ce qui va, je pense (je peux me tromper) continuer de creuser l’écart entre les véritables professionnels bossant dans l’industrie (vidéo, son, multimédia, etc.) et pouvant rentabiliser le prix de machines « pros » et les « utilisateurs ludiques » utilisant majoritairement des « apps » sous smartphone.
Nous les « hobbyistes passionnés~exigeants » ne serons bientôt plus considérés, car plus assez nombreux.
Tu ne crois pas?
"Si t'enregistres à Poudlard, avec l'ingé son Dumbledore, les lois physiques tu peux t'en foutre. Mais dans l'monde réel, les lois physiques, les mesures, le dBFS, tout ça existe bel et bien." youtou
[ Dernière édition du message le 30/06/2020 à 09:22:37 ]

Darkmoon

...On ne peut pas apprendre grand chose purement technique sur iMachin. C'est un fait.
Pourtant le premier Apple avait été créé dans un garage par un gus aidé d'un bon copain [...] Ce n'est plus possible. Apple ne vend pas ses composants "Apple Silicon". Donc ne peut plus apprendre "sur le tas", par la bidouille. C'est bien un moyen de fermer/verrouiller le marché non?
C’est intéressant, car, en effet, c’est un peu paradoxal (ironique même) quand on pense qu’il sera autrement plus difficile à l’avenir que des jeunes innovent et puissent répliquer ce qu’on fait Jobs et Gates, entre autres (concevoir un nouvel ordinateur/OS).
"Si t'enregistres à Poudlard, avec l'ingé son Dumbledore, les lois physiques tu peux t'en foutre. Mais dans l'monde réel, les lois physiques, les mesures, le dBFS, tout ça existe bel et bien." youtou
[ Dernière édition du message le 30/06/2020 à 09:30:38 ]

afone1977

"L'apprentissage de l'informatique. On ne peut pas apprendre grand chose purement technique sur iMachin. C'est un fait."
la majorité des gens se contrefoutent de faire de l'informatique, ils utilisent des outils (applications) qui ont un intérêt concret par apport à des besoins concrets.
en fait ce qui fait goder l'informaticien emmerde totalement l'utilisateur lambda, et le monde désiré par les informaticiens est un cauchemar pour 99 % des gens.
Un point que les même informaticiens (et leur linux dont tout le monde se contrefout) n'arrivent pas à comprendre.
la grandeur chez l'informaticien viendra quand son nombrilisme disparaitra au profit de la plus valu réelle qu'il peut apporter aux autres pas dans sa "geekerie autistique" et son usage intensif de terminologie qu'il est le seul à apprécier.
ce topic est l'exemple même de ce qui arrive dans une fêtes avec 10 personnes et 2 informaticiens, dès que ces 2 là commence à discuter ensemble les 8 autres sont partis dans la pièce à coté pour passer une bonne soirée.

Anonyme

La majorité, ça ne veut pas dire tous. Il y a toujours eu des curieux qui ne sont pas devenus informaticien mais qui ont pris du plaisir à faire un petit truc en BASIC.
Je ne suis pas informaticien, juste utilisateur disons "avancé". Il n'est pas question que l'on me vende un produit que je ne peux réparer/bidouiller moi-même. Si j'étais seul dans ce cas, Linux, Windows et macOS n'existeraient même pas.
Pour Linux, il a été créé par un étudiant qui ne comprenait pas qu'un support éducatif (le livre de Minix) soit payant car beaucoup d'étudiant pauvre n'y avait pas accès.
Ce que tu dis, le fait que dès qu'il y a deux informaticiens dans une salle, est vrai dans beaucoup de domaine. Dont l'automobile. Mets deux mécanos et tu auras le même résultat. Mets deux flics, ...

Darkmoon

Citation de afone1977 :...la majorité des gens se contrefoutent de faire de l'informatique, ils utilisent des outils (applications) qui ont un intérêt concret par apport à des besoins concrets[...]
T'as pas compris le fond du propos de bda65.
Il n'est pas question que la majorité des utilisateurs lambda se complique la vie en tentant de faire de la ligne de commande. C'est pas ça le propos.
S'il n'est plus possible pour des jeunes et moins jeunes de « bidouiller » en apprenant sur le tas, à cause des politiques « fermées » de certains, l'on ne verra plus jamais des jeunes comme Jobs et Gates (en leur temps), entre autres, pouvoir se foutre des leaders de leur époque (eux, c'était IBM, Xerox, etc.) afin d'innover et créer (ou modifier, dériver, améliorer afin d'apporter) quelque chose de nouveau!
Parce qu'ils devront suivre le « cursus » imposé par la philosophie des « systèmes fermé » (je simplifie).
"Si t'enregistres à Poudlard, avec l'ingé son Dumbledore, les lois physiques tu peux t'en foutre. Mais dans l'monde réel, les lois physiques, les mesures, le dBFS, tout ça existe bel et bien." youtou

Gam

. Au début, les machines étaient souvent vendues sans système d'exploitation. À la place il y avait un langage, généralement le BASIC. Ça réservait les machines a ceux qui osaient apprendre. Mais pas à une élite spécialement formée.
Je me souviens encore de mon Atari Mega st4 livre avec Basic, c'est vrai
Tu a raisons, la Raspberry a repris ce flambeau d'experimentation. J'ai un tas d'amis dev qui en ont fait une box multi-media par exemple.
[ Dernière édition du message le 30/06/2020 à 11:19:38 ]
- < Liste des sujets
- Charte