Se connecter
Se connecter

ou
Créer un compte

ou
FR
EN

réactions à la news Apple va équiper ses Mac de processeurs ARM

  • 474 réponses
  • 57 participants
  • 25 945 vues
  • 51 followers
Sujet de la discussion Apple va équiper ses Mac de processeurs ARM
apple-52.jpg
La Keynote WWDC20 organisée par Apple hier a confirmé la rumeur qui courait depuis plusieurs jours concernant la fin du partenariat avec Intel.


Lire la news




Ce thread a été créé automatiquement suite à la publication d'une news pour ce produit. N'hésitez pas à poster vos commentaires ici !
Afficher le sujet de la discussion
251

Je n’étais pas au courant de cette rumeur. Le côté matériel d’un iPhone sous MacOS me laisse sceptique, par contre l’idée d’applis complètes qui ne casseraient pas le flux de production est intéressante. C’est déjà le cas pour les apps basiques comme les TT ou tableurs. Par contre commencer un projet sur GarageBand pour IOS, l’importer sur GB sur le Mac puis l’ouvrir avec Logic est pénible, surtout qu’on perd au passage tous les plugins tiers et on réenregistre le projet. Si on pouvait commencer un projet directement sous Logic avec le mobile, même limité en pistes ou en instances de plugins, ça deviendrait beaucoup plus intéressant...
252
Citation de magasin :
[...] plus personne, sauf les pros bien sûr, ne font du montage sur un laptop ou ordi, on filme de courtes vidéos et on les publie a l'instant même sur les réseaux sociaux depuis son téléphone, c'est pas comme a l'époque ou le vidéaste filmait avec ses cassettes minidv puis faisait son montage sur adobe premiere éléments [...]


Certaines de tes observations/remarques sont intéressantes!

Par contre, je ne crois pas qu’on est face à un problème d’innovation ou de changement de paradigme (au sens d’innovation). En réalité, ce n’est qu’une question de marché et de gros sous. Le fait est qu’avant la démocratisation d’internet, et par la suite des smartphones et des réseaux sociaux, ceux qui utilisaient des ordinateurs étaient soit des pros (ou du moins des employés étant obligé de s'y mettre, si ce n’est qu’en bureautique), soit des gamers, soit des « geeks » (j'inclus dans ce terme les utilisateur du début des DAW, entres autres).

Conséquemment, les interfaces en ligne de commande et/ou en « dossiers/fichiers/menus/pointeur de souris » ne sont pas un paradigme et/ou une époque « archaïque », mais bel et bien des façons de « piloter » des logiciels de façon précise permettant un large éventail de possibilités. Mais ce sont nécessairement des moyens qui impliquent un certain « effort cérébral » et une courbe d’apprentissage.

Sauf que le monde dans lequel l’on vit étant ce qu’il est (capitalisme, loi du marché, etc.), puisque maintenant, de nos jours, ce « marché » ne touche plus que les pros, les gamer's et les « geek », ben l’avènement des « apps », des tuiles et interfaces adaptées au tactile n’est pas tant une évolution (dans le sens d'innovation) qu’un nivellement par le bas afin que tous (les mômes, tatie, tonton, papi et mamie) puissent utiliser (surtout acheter :roll:) des « ordinateurs » qu’on nomme maintenant tablettes et smartphones. :??:

C’est ça la réalité!

L’on peut faire un parallèle en considérant la ligne de commande et/ou les myriades de menus et des toutes petites icônes d’un « Photoshop » ou d’un « Reaper » comme étant des outils à « haute résolution cognitive», alors que les « apps » pour « M. & Mme tout le monde », ne comportant que quelques tuiles/grosse icônes facilement touchables avec les doigts sont des outils à « faible résolution cognitive ». Tout comme dans le domaine de la réflexion et de la pensée où la majorité réfléchit de façon binaire et dichotomique avec peu de « pixels cognitifs » alors que d’autres, moins nombreux, ont des réflexions bcp plus fines, précises et nuancées.

Conséquemment, les « apps faciles à utiliser » sur petit écran tactile ne sont pas nécessairement et dans tous les cas une « avancés » vers le mieux. Premièrement parce qu’un jeune, de nos jours, ne sera pas porté (comme plusieurs d’entre nous l’on été, même en tant que hobbyiste) à s’essayer à Toshop, Premiere, Davinci Resolve, Cubase Logic ou Reaper quand il leur suffit de télécharger une « app » qui leur permet de faire bcp plus « facilement » et rapidement une « pseudo-retouche » photo, par exemple (mais de façon bcp plus limitée et moins créative en réalité).

Deuxièmement, parce que ça tend à minimiser la complexité (pas au sens négatif et péjoratif du terme, mais en terme d’éventail de possibilités, de précision et d'originalité). Par exemple, pour un mec comme moi qui a connu l’évolution de l’informatique et qui est habitué, en tant que simple amateur passionné (je bosse dans un domaine qui n’a rien à voir avec l’informatique) à utiliser Photoshop, Premiere/Resolve, des éditeurs audio comme Adobe Audition (Cool Edit à l’époque), WaveLab, Sound Forge et qui manipule des DAW (sans parler que j’ai déjà scripté un tantinet pour le plaisir à une époque), ben utiliser des « apps » n’a aucune espèce d’intérêt puisque je suis nécessairement toujours plus limité qu’avec un « gros bon vieux software ». Oui, en déplacement et/ou pour s’amuser sur le canapé, c’est cool, :clin: ...mais ça ne remplacera jamais les dizaines de menus, de petites icônes et le pointeur de la souris lorsque je suis à la maison.

Tout ça pour dire qu’il ne faut pas confondre la volonté de certaines visionnaires (Steve Jobs et consorts à leur début) qui était de rendre l’informatique accessible à tous et le PC plus facile à utilisé avec la tendance que prend le marché actuel puisque tous ceux qui vendent des produits sont nécessairement en concurrence et se doivent de mettre « l’accent » là ou est ce qui se vend le plus (et ce n'est plus les tours ni les portables :( )!

C’est ça, àmha, qui explique que des individus comme nous, ici, entre autres, aient peur (en quelque sorte) de « perdre » un jour leurs logiciels (ou leur compatibilité) puisqu’on sait très bien que comparativement aux années 80, 90, et début 2000, ceux qui, comme nous, utilisent des outils permettant de faire un peu plus « complexe, précis et "sophistiqué" » que ce que l’on peut faire avec des « apps » sont maintenant minoritaire (et de plus en plus). Nous sommes donc de moins en moins une clientèle cible, que ce soit pour Apple, Microsoft et tous les autres. Nous formons une « niche » qui ne cesse de rapetisser, entre les pros et « M. & Mme tout le monde ».

Bien sûr restera toujours le marché des « pros », mais le danger, ce n’est pas que des outils dédiés~spécialisés cessent d’exister, mais que puisque le fossé et l’écart se creuse toujours plus entre le nombre de « pros spécialisés » (désolé du pléonasme) VS le nombre, parmi « M. & Mme tout le monde » qui se spécialise de moins en moins, même en temps que hobbyist passionné, les prix ne cesseront d’augmenter et donc l’accessibilité à des outils informatique (matériel comme logiciel) sera de plus en plus difficile. Et c’est exactement ce qu’on observe depuis quelques années avec le prix de plus en plus faramineux de certains ordinateurs Mac qui débutent à maintenant à plus 6,000€ :facepalm:

Le seul truc qui empêche pour l'instant le même phénomène de se produire sous PC, c'est le nombre de gamers qui maintient un certains rapport de force et une demande encore relativement conséquente des composants PC. Le jours où la majorité des gamers passera sous console (il existe d'ailleurs déjà des adaptateurs pour connecter claviers/souris pour ceux qui redoute les manettes sous console), ce sera forcement, non pas la mort, mais la fin des PC puissant, mais abordables (pour ceux, qui comme plusieurs d'entre nous, ont besoin de plus que de l'entrée de gamme pour utiliser un DAW et/ou un soft de montage vidéo, mais n'ayant pas les moyens de payer 6,000€ pour autant).

Du coup, ce que moi je redoute, c’est que dans une petite décennie, ont en revienne au point de départ comme à la fin d'une certaines époque ou un ordinateur coûtait bcp trop cher à moins d’être un pro, tout comme les « bons » synthétiseurs d’ailleurs, entre autres. Le « grand public » n’avait alors les moyens que de s’acheter des « jouets~ersatz ». Bref, j’ai peur qu’au final, les puissants ordinateurs (et soft spécialisés) relativement abordable soient un jour réservés (que se soit de par leur tarif à l’achat ou de par le prix de la « location de puissance » via le cloud) au professionnel de métier (qui, eux, seront alors probablement heureux de perdre un peu de concurrence de la part des non-pros, qui étaient en 2020, des hobbyistes « avertis »).

"Si t'enregistres à Poudlard, avec l'ingé son Dumbledore, les lois physiques tu peux t'en foutre. Mais dans l'monde réel, les lois physiques, les mesures, le dBFS, tout ça existe bel et bien." youtou

253
x
Hors sujet :
Je ne vais pas reprendre point par point mais je ne partage pas du tout cette analyse. Une ergonomie bien pensée permet de produire plus rapidement (c’est l’intérêt du Mac) au lieu de « faire de l’informatique ». Ce n’est pas une question d’âge ou de compétence, juste de savoir où tu vas mettre ton énergie intellectuelle. Quand l’interface devient assez transparente pour te passer de manuel, là tu commences à être productif et créatif. Par ailleurs le marché des plugins et VST a explosé, pour le bien des musiciens, cf Billie Eilish entre autres. On assiste plutôt à la mise à dispo de technos pro pour beaucoup moins cher, par ex. le 24/96 et maintenant le DSD.
254
Dans cette "évolution", avec des outils limités mais "facile", il y a un point qui est négligé. L'apprentissage de l'informatique. On ne peut pas apprendre grand chose purement technique sur iMachin. C'est un fait.
Pourtant le premier Apple avait été créé dans un garage par un gus aidé d'un bon copain (SW pour la partie technique et SJ pour le business). Ce n'est plus possible. Apple ne vend pas ses composants "Apple Silicon". Donc ne peut plus apprendre "sur le tas", par la bidouille. C'est bien un moyen de fermer/verrouiller le marché non?
À côté de ça, il y a un produit purement éducatif, à l'extrême opposé d'Apple, Raspberry Pi. Donc sous Linux. Mais avec un système facile à installer, facile à utiliser et des outils de développement adaptés aux débutants qui permettent ce retour à l'innovation. Car c'est bien ça le problème, si seuls quelques uns peuvent construire les machines de demain, on ne peut plus parler d'évolution.
Pour devenir développeur pour appareil Apple (c'est guère mieux avec Windows), il faut suivre une formation très spécialisée. Avec macOS c'est encore possible, difficile mais possible. Donc on réserve l'avenir avec une élite d'un côté et des "babouins" de l'autre. Pardon pour le terme "babouin" mais ça ressemble à l'esclavage. Dans une forme très moderne.
Beaucoup d'entre nous, probablement les plus âgés, ont cherchés à comprendre comment fonctionnait l'ordi qu'ils avaient. Au début, les machines étaient souvent vendues sans système d'exploitation. À la place il y avait un langage, généralement le BASIC. Ça réservait les machines a ceux qui osaient apprendre. Mais pas à une élite spécialement formée.
D'ailleurs, est-ce qu'il est possible de mettre les mains dans le cambouis avec macOS?
Est-ce qu'il est possible de mettre les mains dans le cambouis avec iOS?
Un Mac on peut aussi l'ouvrir pour changer la RAM. Avec un iMachin et la puce T2?

Je suis revenu car il y a des propos réfléchis, pas juste du dénigrement de tout ce qui n'est pas Apple.
255
x
Hors sujet :
Citation de tguyfr :
Je ne vais pas reprendre point par point mais je ne partage pas du tout cette analyse....


C’est sûr, je n’ai pas avantagé Apple dans mon pavé! :mdr:

Citation de tguyfr :
Une ergonomie bien pensée permet de produire plus rapidement (c’est l’intérêt du Mac) au lieu de « faire de l’informatique ».


Sérieusement, oui, pour certaines choses, bien sûr, naturellement, tu as raison (par contre, ce n'est pas exclusivement le propre de Apple~Mac, comme tu semble le croire :??: ).

...mais entre mon fils et mes neveux et nièces qui n’ont jamais daigné mettre les mains dans le cambouis pour apprendre Photoshop et qui utilisent des « apps » d’iPhone/smartphone pour ajouter des « faces de chats » par-dessus les visages et moi qui est capables (sous PC/Mac, peu importe), en moins de deux, d’ouvrir Photoshop, PaintShop Pro, The Gimp ou Affinity Photo et de faire 10 fois plus « sophistiqué » et « original », sans même très bien connaitre 2 des 4 logiciels mentionnés (parce qu’au final, quand on a la base, il se ressemble tous grosso modo), il y a un monde, une galaxie de différences!

Idem avec les « apps » pour faire de la musique sous iPad et tablette Android. Personne ne va me convaincre, même avec la meilleure adaptation tactile qui soit, qu’on peut faire autant que ce que l’on peut faire avec clavier/souris dans Logic, Cubase, SO ou Reaper en pouvant visualiser simultanément plusieurs dizaines de pistes sur deux écrans full hd (ou 4k).

Il n’est pas question de dire que l’un est « bien/mal », mais de dire , surtout, que l'utilisation n’est pas la même! :clin:

Et l’essentiel de mon propos était de dire que si la première forme d’utilisation (disons l’utilisation « ludique ») est maintenant bcp plus utilisée, car ayant bcp plus d’utilisateurs (mes neveux et nièces, en plus de tonton, mamie et papi, etc.) ben le « marché » de la 2e forme d'utilisation devient forcément bcp moins intéressante pour les constructeurs de matériel et les éditeurs de soft... ...ce qui va, je pense (je peux me tromper) continuer de creuser l’écart entre les véritables professionnels bossant dans l’industrie (vidéo, son, multimédia, etc.) et pouvant rentabiliser le prix de machines « pros » et les « utilisateurs ludiques » utilisant majoritairement des « apps » sous smartphone.

Nous les « hobbyistes passionnés~exigeants » ne serons bientôt plus considérés, car plus assez nombreux.

Tu ne crois pas?





"Si t'enregistres à Poudlard, avec l'ingé son Dumbledore, les lois physiques tu peux t'en foutre. Mais dans l'monde réel, les lois physiques, les mesures, le dBFS, tout ça existe bel et bien." youtou

[ Dernière édition du message le 30/06/2020 à 09:22:37 ]

256
Citation de bda65 :
...On ne peut pas apprendre grand chose purement technique sur iMachin. C'est un fait.
Pourtant le premier Apple avait été créé dans un garage par un gus aidé d'un bon copain [...] Ce n'est plus possible. Apple ne vend pas ses composants "Apple Silicon". Donc ne peut plus apprendre "sur le tas", par la bidouille. C'est bien un moyen de fermer/verrouiller le marché non?


C’est intéressant, car, en effet, c’est un peu paradoxal (ironique même) quand on pense qu’il sera autrement plus difficile à l’avenir que des jeunes innovent et puissent répliquer ce qu’on fait Jobs et Gates, entre autres (concevoir un nouvel ordinateur/OS).

"Si t'enregistres à Poudlard, avec l'ingé son Dumbledore, les lois physiques tu peux t'en foutre. Mais dans l'monde réel, les lois physiques, les mesures, le dBFS, tout ça existe bel et bien." youtou

[ Dernière édition du message le 30/06/2020 à 09:30:38 ]

257
Citation :
"L'apprentissage de l'informatique. On ne peut pas apprendre grand chose purement technique sur iMachin. C'est un fait."


la majorité des gens se contrefoutent de faire de l'informatique, ils utilisent des outils (applications) qui ont un intérêt concret par apport à des besoins concrets.

en fait ce qui fait goder l'informaticien emmerde totalement l'utilisateur lambda, et le monde désiré par les informaticiens est un cauchemar pour 99 % des gens.

Un point que les même informaticiens (et leur linux dont tout le monde se contrefout) n'arrivent pas à comprendre.

la grandeur chez l'informaticien viendra quand son nombrilisme disparaitra au profit de la plus valu réelle qu'il peut apporter aux autres pas dans sa "geekerie autistique" et son usage intensif de terminologie qu'il est le seul à apprécier.

ce topic est l'exemple même de ce qui arrive dans une fêtes avec 10 personnes et 2 informaticiens, dès que ces 2 là commence à discuter ensemble les 8 autres sont partis dans la pièce à coté pour passer une bonne soirée.

258
Sans informaticien, l'informatique n'existe pas. Qui fait les applications? Qui fait les plugins? Qui fait les cloud?
La majorité, ça ne veut pas dire tous. Il y a toujours eu des curieux qui ne sont pas devenus informaticien mais qui ont pris du plaisir à faire un petit truc en BASIC.
Je ne suis pas informaticien, juste utilisateur disons "avancé". Il n'est pas question que l'on me vende un produit que je ne peux réparer/bidouiller moi-même. Si j'étais seul dans ce cas, Linux, Windows et macOS n'existeraient même pas.
Pour Linux, il a été créé par un étudiant qui ne comprenait pas qu'un support éducatif (le livre de Minix) soit payant car beaucoup d'étudiant pauvre n'y avait pas accès.

Ce que tu dis, le fait que dès qu'il y a deux informaticiens dans une salle, est vrai dans beaucoup de domaine. Dont l'automobile. Mets deux mécanos et tu auras le même résultat. Mets deux flics, ...
259
x
Hors sujet :
Citation de afone1977 :
...la majorité des gens se contrefoutent de faire de l'informatique, ils utilisent des outils (applications) qui ont un intérêt concret par apport à des besoins concrets[...]


T'as pas compris le fond du propos de bda65.

Il n'est pas question que la majorité des utilisateurs lambda se complique la vie en tentant de faire de la ligne de commande. C'est pas ça le propos.

S'il n'est plus possible pour des jeunes et moins jeunes de « bidouiller » en apprenant sur le tas, à cause des politiques « fermées » de certains, l'on ne verra plus jamais des jeunes comme Jobs et Gates (en leur temps), entre autres, pouvoir se foutre des leaders de leur époque (eux, c'était IBM, Xerox, etc.) afin d'innover et créer (ou modifier, dériver, améliorer afin d'apporter) quelque chose de nouveau!

Parce qu'ils devront suivre le « cursus » imposé par la philosophie des « systèmes fermé » (je simplifie).

"Si t'enregistres à Poudlard, avec l'ingé son Dumbledore, les lois physiques tu peux t'en foutre. Mais dans l'monde réel, les lois physiques, les mesures, le dBFS, tout ça existe bel et bien." youtou

260
Citation de bda65 :
. Au début, les machines étaient souvent vendues sans système d'exploitation. À la place il y avait un langage, généralement le BASIC. Ça réservait les machines a ceux qui osaient apprendre. Mais pas à une élite spécialement formée.


Je me souviens encore de mon Atari Mega st4 livre avec Basic, c'est vrai
Tu a raisons, la Raspberry a repris ce flambeau d'experimentation. J'ai un tas d'amis dev qui en ont fait une box multi-media par exemple.

[ Dernière édition du message le 30/06/2020 à 11:19:38 ]

261
x
Hors sujet :
D’ailleurs (puisqu'on est au moins 2 utilisateurs, disons « avancé » :mrg: je me permets de papoter :mdr: ), ce n’est ni Jobs, ni Gates qui ont réellement inventé le bureau avec dossiers, fichier, icônes, pointeur et souris.

Dès 1971, sous la direction de John Warnock et Larry Tesler, pour Xerox, c’est un groupe de 50 informaticiens, dans le cadre d’une expérience particulière en recherche fondamentale, qu’est inventé le « bureau électronique », une interface graphique 20 ans en avance sur son temps tournant sur l’Alto (micro-ordinateur jamais commercialisé) avec l’utilisation d’une souris (à 3 boutons :roll: ...Jobs n'a rien inventé)!!! ...mais le groupe de recherche n’a jamais pu convaincre les patrons de Xerox de l’utilité et du potentiel de l’Alto et de sa GUI et personne parmi les dirigeants chez Xerox ne voulut exploiter le prototype (vieux connards manquant de vision et d’audace... ...contrairement à Jobs)....

Ce groupe de recherche (50 informaticiens), chez Xerox, en 1971, est en fait l’inventeur de l’OS graphique, du « paradigme informatique » comme on le connaît aujourd’hui!

Ensuite, quelque années plus tard, en 1979, Jobs obtînt le droit de visiter les laboratoires de Xerox, y vit l’Alto avec son interface graphique et fut littéralement subjugué. Il ramena donc un peu plus tard son équipe de devs au complet en demandant à Xerox de faire une présentation devant cette dernière. S’ensuit donc ensuite le projet « Lisa » (développement d’une GUI pour Apple) mais, suite à des conflits internes, Jobs fut expulsé du CA du projet Lisa. Il s’en retourna donc voir un ancien ingé d’Apple, Jef Raskin, qui travaillait sur sa propre idée: un PC nommé « Macintosh », s’empara de l’idée de Raskin, y inclut les idées de l’Alto~Lisa et ce fut le début du Mac et de l’interface graphique pour les micro-ordinateurs telle qu’on la connait jusqu’à aujourd’hui!

Si Xérox n’avait pas accepté de partager ses idées en essai/développement à Jobs, on aurait peut-être 10 ou 20 ans de retard!

Bon, ce n’est pas tout à fait du même ordre, mais dans l’idée : plus une technologie est conçue de façon à ne pouvoir être explorée, analysée, observée, triturée, bidouillée, partagée, moins elle se développe et évolue! ...au détriment des consommateurs en bout de ligne.

____

Si le sujet vous intéresse, comme moi, je vous conseille l’excellent docu : Les Cinglés De L’informatique

C’est de là que je tire ces quelques infos et ce trop bref résumé. J’dois l’avoir visionné au moins 25 fois ce docu, je le connais par cœur! :aime:

Les Cinglés De L’informatique Partie 1

Les Cinglés De L’informatique Partie 2

Les Cinglés De L’informatique Partie 3

"Si t'enregistres à Poudlard, avec l'ingé son Dumbledore, les lois physiques tu peux t'en foutre. Mais dans l'monde réel, les lois physiques, les mesures, le dBFS, tout ça existe bel et bien." youtou

[ Dernière édition du message le 30/06/2020 à 11:16:14 ]

262
Citation de Darkmoon :

Sauf que le monde dans lequel l’on vit étant ce qu’il est (capitalisme, loi du marché, etc.), puisque maintenant, de nos jours, ce « marché » ne touche plus que les pros, les gamer's et les « geek », ben l’avènement des « apps », des tuiles et interfaces adaptées au tactile n’est pas tant une évolution (dans le sens d'innovation) qu’un nivellement par le bas afin que tous (les mômes, tatie, tonton, papi et mamie) puissent utiliser (surtout acheter :roll:) des « ordinateurs » qu’on nomme maintenant tablettes et smartphones. :??:

C’est ça la réalité!


Je suis plutôt d'accords avec toi, mais tu oublies une chose de taille, c'est le "cloud", bref, le calcul déporté et l'IA, qui n'est jamais que des supra-algorhitme, l'informatique à évolué pour monsieur et madame tout le monde mais pour les informaticiens aussi.

Une interface à la photoshop demande plus de "réflexe cognitif" parce que l'on a (ou que l'on doit avoir) un résultat final en tête, c'est de la création, mais arrive le jour on en un clic on pourra détourer un personnage (on peut déjà le faire), même en vidéo, et en musique c'est pareil, il y'a des plugin ou des options d'automixage...
Pour un tas de domaine, même pour la finance, bientôt t'iras chez le banquier demander un prêt pour ouvrir un commerce, et grâce aux big data, la banque sera branché sur des outils statistique propriétaire, et en un clic le banquier pourra te dire si ton projet en vaux la peine, si le quartier ou tu t'installe a assez de densité et de passage (il pourra le savoir en temps réel) pour t'assurer des rentrées d'argent et si le projet vaux le coup.
D'ailleurs a terme, tu n'auras plus besoin de te déplacer, (aujourd’hui déjà avec google trends et les statistique google map, tu peux faire ta propre petite enquête sur un quartier commerçant)

J'ai utilisé pour un projet, un algo de machine learning, (j'ai juste cliqué sur deux trois script en ligne) qui colorise des vidéos en noir et blanc, le résultat est bluffant, pas parfait mais bluffant
l'informaticien ou le creatif est aujourdhui pris a son propre jeu, ou il n'est plus maitre des algo qu'il utilise, et deja aujourdhui on demande aux informaticiens de se brancher sur des systèmes qui le dépasse, ces algos appartenant a d'autres, et c'est plutôt la dessus que se place les gros sous. Les plus grosses societés devenant dependantes d'encore plus grosses societés et en business, c'est pas bon d'etre dépendant des autres. (cf: le petit restaurant comme macdo sont dependant et perdre de l'argent en passant par deliveroo)

Un application demande moins de réflexion cognitive, mais parce qu’il est désormais possible d'arriver plus vite a un résultat voulu, une app est contextuelle, l'ergonomie d'une app aussi, chaque "carte" à sa flopée d'options contextuelle, c'est différent des interfaces de logiciel qui ont encore cours aujourd’hui ou toute les options s'affiche a nous sous une seule fenêtre et ou on va a la pêche.

d'ailleurs c'est pas une question de petit ecran, sur un ecran 4k, c'est tout aussi impossible de travailler sans avoir l'impression d'un bordel et de devoir faire des kilomètres a la souris.

[ Dernière édition du message le 30/06/2020 à 12:55:45 ]

263
Quand est-ce qu’on reparle du sujet ? :oo:
264
Citation de tguyfr :
Quand est-ce qu’on reparle du sujet ? :oo:


c'est le sujet, ou plutot le sujet, c'est a quoi va ressembler nos logiciels de mao et de maniere plus pragmatique, quelles sont les logiciels qui vont pas etre mis à jours.

Sinon on s'en fout du debat technique, c'est interessant, mais c'est pas forcement le lieu.

apres quand à savoir si apple va reussir son mouv, personne n'est devin, les projets auquels apple s'est lancé et qui ont foiré, y'en a un paquet, pour moi les deux seuls reussites d'apple, c'est itunes, mais spotify à pris la releve et l'iphone.

quand ils sont passés du powerpc a intel, ca a reussi, mais parcequ'ils ont du s'aligner, aujourdhui finalement, ils s'allignent sur windows rt (mais a l'inverse de windows, ils ont un parc insolent de devices qui n'appartiennent qu'a eux sous arm).

[ Dernière édition du message le 30/06/2020 à 13:32:59 ]

265
Non ce n’est pas le sujet, tout n’est pas dans tout, et il y a des balises pour ça. Bizarre que le off-topic à ce point ne fasse même pas réagir la modo...
266
Citation de tguyfr :
Non ce n’est pas le sujet, tout n’est pas dans tout, et il y a des balises pour ça. Bizarre que le off-topic à ce point ne fasse même pas réagir la modo...


ben propose un truc pour faire relancer le topic... au lieu de faire appel à une supra autorité de modo comme si on etait des enfants et toi l'autorité :clin:
267
Ah non justement je ne suis pas modo sur AF, puisque j’en déplore l’absence. Si tu as un complexe de supériorité et des problèmes d’enfance à régler, ce n’est pas dans mon champ de compétence. Je me suis juste permis de faire une remarque sur la tenue des échanges, comme ça se fait sur n’importe quel forum qui part en roue libre.
Je ne sais pas, on peut commencer par les premiers benchmarks (pourtant interdits par des clauses) du DTK : https://consomac.fr/news-12770-deja-de-premiers-benchmarks-pour-le-mac-mini-arm.html
Pas hyper intéressant puisque le CPU n’est pas optimisé pour un desktop, et que le système est encore en chantier. Des performances d’IPad, avec quand même des perfs graphiques qui explosent un MB Air.
268
x
Hors sujet :
Citation de tguyfr :
Non ce n’est pas le sujet, tout n’est pas dans tout...


Toi tu peux te permettre de faire des analyses et des pavés en mélangeant un peu tout, mais c’est correct... ...parce que tu encenses Apple au passage! :roll:

Comme d’autres l’ont mentionné, pour toi, dès qu’on critique Apple, c’est qu’on n’y comprend rien, qu’on ne connaît pas « ceci ou cela » et/ou qu’on est hors sujet avec nos pavés.

La résultante, c’est que ce n’est pas intéressant et qu’on perd intérêt à échanger avec toi puisque t’es incapable de nuancer. Ne te demande pas pourquoi certains ont créé un autre sujet.:roll:

"Si t'enregistres à Poudlard, avec l'ingé son Dumbledore, les lois physiques tu peux t'en foutre. Mais dans l'monde réel, les lois physiques, les mesures, le dBFS, tout ça existe bel et bien." youtou

269
Citation de Darkmoon :
x
Hors sujet :
Citation de tguyfr :
Non ce n’est pas le sujet, tout n’est pas dans tout...


Toi tu peux te permettre de faire des analyses et des pavés en mélangeant un peu tout, mais c’est correct... ...parce que tu encenses Apple au passage! :roll:

Comme d’autres l’ont mentionné, pour toi, dès qu’on critique Apple, c’est qu’on n’y comprend rien, qu’on ne connaît pas « ceci ou cela » et/ou qu’on est hors sujet avec nos pavés.

La résultante, c’est que ce n’est pas intéressant et qu’on perd intérêt à échanger avec toi puisque t’es incapable de nuancer. Ne te demande pas pourquoi certains ont créé un autre sujet.:roll:


x
Hors sujet :
Des pavés ? C’est l’hôpital qui se fout de la charité. On est sur un sujet Apple non ? Si tu veux qu’on aille causer pêche à la mouche on peut ouvrir un topic sur pechepassion.fr. J’essaie d’analyser le tournant MacARM, si tu n’es pas d’accord cite-moi et argumente qu’on en discute. Je mettrai beaucoup moins d’énergie à défendre Apple que les ayatollahs de Linux ou RasPi qui viennent polluer le topic. J’ai d’ailleurs exprimé à de nombreuses reprises un avis très mesuré sur Apple, Windows et Linux, donc je ne vois même pas d’où tu viens me les casser en fait. Chaque système a ses forces et ses faiblesses. Ce sont peut-être les faits qui te dérangent ? Les contradictions par rapport à tes propres représentations ? Mais tout cela est HS.
270
Excusez-moi de revenir au sujet avec un article très intéressant pour les zicos :

https://www.google.fr/amp/s/www.pro-tools-expert.com/production-expert-1/2020/6/25/apple-silicon-a-developer-helps-to-unpack-what-we-know%3fformat=amp

Je n’avais pas capté par exemple un effet de bord majeur, à savoir l’abandon potentiel du TB3, sous licence Intel. C’est peut-être pas le moment d’investir dans UAD :mrg:

[ Dernière édition du message le 30/06/2020 à 14:17:57 ]

271
Suite de ma lecture de cet article passionnant : pas de possibilité de mixer un DAW natif ARM et des plugins Intel, ou l’inverse.
272
Une possibilité également d’utiliser le GPU pour traiter de l’audio, là ce serait intéressant pour des gourmands comme Acustica Audio. Si un nerd veut lire l’article pour y dénicher d’autres pépites, cela fera sans doute du bien au topic :bravo:
273

Sujet qui part un peu dans tout les sens, normal c'est un sujet sur Apple/mac, mais le "ARM" est parti très loin. Il y a des trucs intéressants, et d'autres navrants, genre
Citation :
Un point que les même informaticiens (et leur linux dont tout le monde se contrefout) n'arrivent pas à comprendre.
ou autre "linux élitiste"...
Les gars, vous avez installé un linux quand pour la dernière fois (ou pas). Ou même juste utilisé, pour du basique surf/mail...
Pour la MAO, je veux bien croire qu'il faut mettre le nez dedans, mais pas plus qu'un windows ou un mac. Je ne suis qu'utilisateur depuis une vingtaine d'années, et bien les seules limitations, on les doit aux fabricants de matos ou de softs. Avec le class compliant, tu branches c'est reconnu et fonctionnel, par exemple s'il y a une "appli" pour modifier la config par défaut, là c'est... Mais certains font des efforts, par exemple le components de novation (mais pas le midicontrolcenter d'arturia), les DAW: bitwig, reaper, tracktion... des développeurs de plugins aussi, qui font du multi-plateforme.
De toute façon concevoir l’utilisation d'outils, comme l'informatique, téléphonie... avec juste l'espérance d'une expérience utilisateur (de malade). C'est juste consternant, il faut un minimum d'investissement personnel.
Merdouille, le ARM est parti encore plus loin.
274
Tiens c'est marrant, cet article va dans le même sens que moi ;) Au moins en partie.
Pour la MAO et d'autres domaines où la puissance d'un CPU est bien exploitée, ça va ramer sévère avec Rosetta voir même ne pas fonctionner. Exactement comme avec l'émulateur x86 de MicroSoft.
L'article précise aussi que "quelques jours", dans le meilleur des cas et pour une seule application. Pour les gros logiciels comprenant des millions de ligne de code, ce sera bien plus long sauf sur des logiciels assez "basiques" comme une suite Office.
Thunderbolt, c'est une des choses qui sera probablement abandonnée. Il y a quelques années, Apple avait "forcé" l'adoption de FireWire et USB. Beaucoup y avaient perdus des périphériques. La vie est un éternel recommencement?
Les miracles, ça n'existe pas à Lourdes alors chez Apple...
275
Citation de tguyfr :
Une possibilité également d’utiliser le GPU pour traiter de l’audio, là ce serait intéressant pour des gourmands comme Acustica Audio. Si un nerd veut lire l’article pour y dénicher d’autres pépites, cela fera sans doute du bien au topic :bravo:

Oui et non. Je fais déjà usage de mon GPU pour divers calculs. Ça fonctionne très bien mais ralenti l'affichage. Donc imaginer un plugin avec un affichage "complexe" et l'usage du GPU pour des calculs, c'est possible mais vraiment limitant.

x
Hors sujet :
C'est d'ailleurs la seule chose que je vois de bien dans la techno Optimus de nvidia (il y a un équivalent chez AMD). Avoir un petit GPU pour l'affichage, un gros pour les calculs OU l'affichage plus complexe. On moins on peut continuer à utiliser la machine pour des tâches légères.