![]() |
Bienvenue invité ( Connexion | Inscription )
![]() ![]() |
![]() |
![]()
Message
#31
|
|
![]() Adepte de Macbidouille ![]() Groupe : Membres Messages : 237 Inscrit : 10 Feb 2004 Lieu : Toulouse Membre no 14 613 ![]() |
C'est du standard, Apple n'a fait "que" mettre deux fois le meme ensemble de 4 unites pour doubler la puissance.
![]() ps: quand je dis standard c'est dans le sens que les unites utilisees sont standardisees contrairement aux modifications qu'apple realise sur les cores CPU par rapport au design ARM. Des modifications ont bien sur du etre implantees pour fonctionner avec ce nombre d'unite, sachant qui plus est que les gpu powervr series6XT ne sont sences utiliser au max que 6 unites. Ce message a été modifié par superayate - 13 Nov 2014, 15:24. -------------------- 2015: Macbook pro 13,3' early 2011 (i5 2410M) + Config fixe Gamer + Huawei mate 7 + Ipad Air 32Go + Cowon S9
2004 = > DD externe 120Go + graveur DVD dual 8x firewire |
|
|
![]()
Message
#32
|
|
![]() BIDOUILLE Guru ![]() ![]() ![]() ![]() ![]() Groupe : Admin Messages : 55 525 Inscrit : 14 Jan 2001 Lieu : Paris Membre no 3 ![]() |
MS en ce moment à l'air de se remuer un peu (mieux vaut tard…), donc supporter l'ARM n'aurait rien d'insurmontable pour eux. Adobe par contre est encore empêtré dans des logiciels assez archaïques et dépassés, et là ça va prendre un peu plus de temps. Mais on se souviendra qu'Adobe n'a pas eu trop le choix que de passer à OS X et aux procs Intel alors qu'à l'époque la part de marché du Mac était bien inférieure à celle d'aujourd'hui. Et Apple n'avait clairement pas le même poids ! Donc lentement peut-être, mais ça se ferait. Archaïque, dépassé mais incontournable. Si Adobe n'est plus compatible avec les futurs Mac, à ton avis qu'est ce qu'il va se passer ? Ben des tas de gens pragmatiques vont acheter un PC. D'autres laisseront tomber Adobe pour.... quoi au fait ? -------------------- C'est parce que la vitesse de la lumière est plus grande que celle du son que tant de gens paraissent brillants avant d'avoir l'air con
|
|
|
![]()
Message
#33
|
|
![]() Macbidouilleur d'Or ! ![]() ![]() ![]() ![]() ![]() Groupe : Membres Messages : 4 894 Inscrit : 24 Apr 2003 Lieu : Depuis chez lui Membre no 7 276 ![]() |
Ça arrangeait Adobe et Microsoft que Mac OS X tourne en x86, parce que ça permettait un portage plus facile du code entre Windows et Mac. ARM, ça serait le contraire, parce qu'il y aurait du travail à reprendre de zéro, des trucs distinctifs en plus à coder, et que ces éditeurs essayent quand même de faire autant que possible du multiplateforme, avec peu d'éléments codés en Objective C ou exploitant Cocoa, alors que c'est justement ce code-là qui est le plus indépendant de l'architecture processeur et le plus simple à faire basculer.
Apple pourrait passer outre les éditeurs, à condition d'avoir une solution façon Rosetta pour convertir du code Intel en ARM à la volée, au prix d'un ralentissement. Il faudrait donc par exemple avoir un processeur ARM qui soit d'emblée deux fois aussi efficace que son prédécesseur Intel pour compenser la dégradation des performances causée par la traduction à la volée. -------------------- « Ayez confiance, je sais ce que je fais. »
|
|
|
![]()
Message
#34
|
|
Macbidouilleur d'Or ! ![]() ![]() ![]() ![]() ![]() Groupe : Rédacteurs Messages : 32 233 Inscrit : 15 Nov 2005 Membre no 49 996 ![]() |
Enfin pour l'instant, dans les SoC Apple, il n'y a que le CPU qui soit Apple, le GPU ça reste du PowerVR standard, donc pas vraiment made in Apple. Il me semble que pourtant l'article explique que le GPU utilisé n'est pas si standard que ça, non ?Alors que pour la partie CPU, seul le jeu d'instructions est standard, le schéma est propre à Apple. -------------------- |
|
|
![]()
Message
#35
|
|
![]() Adepte de Macbidouille ![]() Groupe : Membres Messages : 237 Inscrit : 10 Feb 2004 Lieu : Toulouse Membre no 14 613 ![]() |
Le floorplan de l'A8X est assez surprenant par rapport a d'autres chips:
![]() Perso ce que je trouve interessant dans le cas present c'est qu'il sagit d'un vrai 3 cores et non d'un 4 cores avec desactivation de l'un d'eux, il semble que TSMC maitrise pas si mal que ca leur 20nm pour qu'Apple soit si confiant ![]() -------------------- 2015: Macbook pro 13,3' early 2011 (i5 2410M) + Config fixe Gamer + Huawei mate 7 + Ipad Air 32Go + Cowon S9
2004 = > DD externe 120Go + graveur DVD dual 8x firewire |
|
|
![]()
Message
#36
|
|
Macbidouilleur d'Or ! ![]() ![]() ![]() ![]() ![]() Groupe : Membres Messages : 3 090 Inscrit : 13 Jul 2005 Membre no 42 327 ![]() |
Faut dire aussi que ce sont des produits qui à la base n'ont pas du tout été conçus pour les mêmes usages et ne sont pas nés en même temps, loin de là. Et quand je vois les dernières puces mobiles d'Intel j'ai l'impression qu'ils ont parfaitement compris la situation. C'est pas du tout un débat pro/anti Intel. On discute là juste de ce qui est opportun de faire. Crois-bien en tout qu'Apple ne prendra pas de décision à la légère et sûrement pas par fanatisme comme laisse par contre transparaître ton commentaire. Il faut dire que l'expérience te pousse à la prudence. Qu'est ce que j'ai pu rigoler le jour où Apple a annoncé que les Mac passaient sous Intel. La veille encore LVM chiait sur les processeurs Intel et du jour au lendemain, il les a trouvé super. C'est formidable le fanboyisme, ça permet de faire un virage à 180 degré en moins de 24 heures. Tellement prévisible et tellement peu crédible. ![]() |
|
|
![]()
Message
#37
|
|
![]() Macbidouilleur d'Or ! ![]() ![]() ![]() ![]() ![]() Groupe : Membres Messages : 4 933 Inscrit : 1 Jul 2010 Membre no 156 073 ![]() |
MS en ce moment à l'air de se remuer un peu (mieux vaut tard…), donc supporter l'ARM n'aurait rien d'insurmontable pour eux. Adobe par contre est encore empêtré dans des logiciels assez archaïques et dépassés, et là ça va prendre un peu plus de temps. Mais on se souviendra qu'Adobe n'a pas eu trop le choix que de passer à OS X et aux procs Intel alors qu'à l'époque la part de marché du Mac était bien inférieure à celle d'aujourd'hui. Et Apple n'avait clairement pas le même poids ! Donc lentement peut-être, mais ça se ferait. Archaïque, dépassé mais incontournable. Si Adobe n'est plus compatible avec les futurs Mac, à ton avis qu'est ce qu'il va se passer ? Ben des tas de gens pragmatiques vont acheter un PC. D'autres laisseront tomber Adobe pour.... quoi au fait ? Adobe aussi est pragmatique en travaillant à des versions déportées dans le nuage de ses applications. Photoshop Streaming fonctionne pour Chrome 0S (ARM et x86) ainsi que dans le navigateur Chrome (Windows 7 et 8). Un Mac ARM iOS X aura peut-être droit un jour à une version. -------------------- L'homme n'est que poussière... c'est dire l'importance du plumeau ! Alexandre Vialatte
|
|
|
![]()
Message
#38
|
|
![]() Macbidouilleur d'Or ! ![]() ![]() ![]() ![]() ![]() Groupe : Membres Messages : 3 458 Inscrit : 23 Mar 2004 Lieu : Paris / Vancouver Membre no 16 640 ![]() |
Passer du X86 à l'ARM est avant tout une décision idéologique et politique. Le problème n'est plus tant de pouvoir proposer des applications véloces sur des processeurs ayant 3 milliards de transistors comme l'A8X mais de faire que tous les grands suivent Apple. Quels grands ? Ceux du logiciel style MS ou Adobe ? MS en ce moment à l'air de se remuer un peu (mieux vaut tard…), donc supporter l'ARM n'aurait rien d'insurmontable pour eux. Adobe par contre est encore empêtré dans des logiciels assez archaïques et dépassés, et là ça va prendre un peu plus de temps. Mais on se souviendra qu'Adobe n'a pas eu trop le choix que de passer à OS X et aux procs Intel alors qu'à l'époque la part de marché du Mac était bien inférieure à celle d'aujourd'hui. Et Apple n'avait clairement pas le même poids ! Donc lentement peut-être, mais ça se ferait. Quand aux autres développeurs, une éventuelle transition ça se résumera à 95% du temps à cocher une case dans Xcode. Exactement comme le passage à Intel ou au 64 bits. ... Bien argumenté. Il faut rajouter que la grosse evolution en terme de processeur c'est la reduction de consommation, parce que la puissance brute elle stagne méchamment depuis 2007 sur x86: ![]() Intel a fait de gros progres sur la performance par watt, mais il faut bien se mettre en tete qu'il s'agit s'une optimisation de l'architecture archaique du x86 qui etait initialement pensee dans la dynamique de la conjecture de Moore: la progression de la finesse de gravure etait la clef du gain de puissance et de diminution de la consommation... Le x86 a ete stoppe net avec le mur des 4ghz qui a sonne le glas du mythe de la conjecture de Moore: on peut descendre en finesse de gravure, mais ca n'ameliore pas beaucoup la situation, notamment en terme de dégagement thermique. AMD a permis au x86 d'avoir un sursit en lui offrant un moteur RISC et une architecture 64 bits, mais ca ne change rien au probleme de conception initiale et il faut se rappeler que le code x86 doit etre converti en instructions RISC avant d'etre execute, et le processeur dispose d'un ordonnanceur qui reorganise les instructions avant de les executer... Donc on est sur une architecture complexe, avec des technologies tres avancees, un niveau de complication extreme pour maintenir une vieille architecture basée sur un principe dépassé. ARM c'est l'inverse, une architecture pensee pour l'efficacite par watt, la plasticite et l'efficience du code. Et surtout l'architecture n'est pas basée sur la conjecture de Moore, les processeurs ARM devant etre efficaces en embarqué bien plus vite que ne progressait le finesse de gravure. On voit qu'a la différence du x86, ARM offre une architecture ouverte dans une environnement extrêmement concurrentiel ou des solutions innovantes peuvent etre facilement mise en place: tout l'inverse du x86 et de la politique de monopole totalitaire d'Intel. Aujourd'hui ARM est l'architecture de reference pour le mobile, et se developpe hors de l'embarque vers le serveurs, le HPC et maintenant le PC. Ce qu'a fait Apple est un processeur ultra mobile mais qui a une puissance desktop. Le travail sur le GPU est une nouveaute qui demontre qu'Apple a acquis non seulement le savoir faire sur CPU mais va au-dela. Pour comprendre ou en est Apple réellement, il va falloir attendre le SoC de l'Apple watch. Pour Apple passer sous ARM sa ligne PC a plusieurs avantages, a commencer par le cout et la maitrise logiciel/materiel. Le probleme pour Apple c'est qu'aujourd'hui la partie logicielle a besoin d'etre reprise en main sérieusement ![]() Adobe aussi est pragmatique en travaillant à des versions déportées dans le nuage de ses applications. Photoshop Streaming fonctionne pour Chrome 0S (ARM et x86) ainsi que dans le navigateur Chrome (Windows 7 et 8). Un Mac ARM iOS X aura peut-être droit un jour à une version. Si Adobe ne passait pas a ARM cela relancerait la concurrence sur un secteur qui est soumis a un monopole délétère depuis des années, et la baisse des ventes chez Adobe va les inciter a se réveiller enfin. Donc Adobe passera a ARM c'est meme pas la question. Ce qui compte pour utiliser ces logiciels c'est plus les performances graphiques que le CPU, et la on a bien des gens qui travaillent avec uniquement les pauvres unites graphiques integrées aux Core ix... On ne parle meme pas des Mac Pro qui embarquent des GPU NVidia alors que la majorite des softs de traitements graphiques sont optimise pour les cartes NVidia. Donc lorsque Apple sortira ces Mac ARM, ils tourneront au moins aussi vite que ce que l'on a actuellement et les performances graphiques seront probablement meilleures, a part pour les modeles haut de gamme avec des GPU Nvidia, et encore, quand on voit l'anemique GPU de l'iMac retina, ca va pas etre difficile de faire mieux. Quant a l'histoire du cloud computing pour faire tourner ce type de soft c'est du markting et c'est sans interet. Ce message a été modifié par r@net54 - 13 Nov 2014, 19:03. -------------------- Agnostique multipratiquant: Unixs, Linux, Mac OS X, iOS et un peu de Windows. Des Macs, des iDevices, des PC et des "ordinosaures"…
Citation « Celui qui t’entretient des défauts d’autrui entretient les autres des tiens. », Diderot« Quand on suit une mauvaise route, plus on marche vite, plus on s'égare. » |
|
|
![]()
Message
#39
|
|
Macbidouilleur de bronze ! ![]() ![]() Groupe : Membres Messages : 495 Inscrit : 18 Sep 2007 Membre no 95 094 ![]() |
Passer du X86 à l'ARM est avant tout une décision idéologique et politique. Le problème n'est plus tant de pouvoir proposer des applications véloces sur des processeurs ayant 3 milliards de transistors comme l'A8X mais de faire que tous les grands suivent Apple. Le problème est là et Intel fera tout pour que ce n'arrive pas. Rappelez vous juste ce qu'Intel a réussi à faire pour bloquer AMD. Si Apple veut passer à de l'ARM pour les Macs, personne ne pourra les arrêter. Qu'en est-il de l'avance d'ARM par rapport à X86 en termes de performance/Watt ? De même pour le GPU type powerVR versus l'intel IRIS ? C'est un critère important. Intel a dépassé ARM sur le rapport performance/Watt lors de la sortie des Atoms Baytrail. Il est possible que certains designs de référence d'ARM soient repassés légèrement devant depuis mais ils ont été à nouveau dépassés par les derniers Moorefield. Par contre Apple et ses Ax a largement dépassé ARM depuis longtemps et dépasse visiblement assez largement Intel avec l'A8. Pour ce qui est de l'efficacité des PowerVR, c'est réellement difficile à évaluer. Une chose dont on peut être sûrs c'est qu'ils sont si bons que même Intel en utilise (sur des puces d'entrée de gamme : les Atoms Moorefield ). |
|
|
![]()
Message
#40
|
|
Macbidouilleur d'Or ! ![]() ![]() ![]() ![]() ![]() Groupe : Rédacteurs Messages : 32 233 Inscrit : 15 Nov 2005 Membre no 49 996 ![]() |
Il faut rajouter que la grosse evolution en terme de processeur c'est la reduction de consommation, parce que la puissance brute elle stagne méchamment depuis 2007 sur x86: Bien essayé... Mais :![]() 1) SuperPi est un benchmark qui n'utilise aucune nouvelle instruction. C'est bien pour comparer les performances brutes sur quelques opérations simples, mais ce n'est absolument pas représentatif de l'évolution des performances réelles à l'usage sur pas mal de tâches, car toutes les applications d'aujourd'hui utilisent les nouveaux jeux d'instructions... C'est particulièrement vrai par exemple pour tout ce qui est applications multimédia, où l'apport des nouvelles instructions peut parfois se traduire par un doublement des performances d'une génération à l'autre, même si les performances en arithmétique pure n'ont presque pas bougé. 2) L'auteur de ce graphique a choisi une échelle linéaire pour le temps de calcul : c'est complètement con comme échelle ! Une échelle linéaire sur un temps de calcul, ça fait qu'une augmentation exponentielle des performances donne une courbe logarithmique : c'est totalement biaisé, ça donne l'impression que la progression est de plus en plus faible. À plus forte raison, quand le progression n'est plus exponentielle, une représentation logarithmique "écrase" encore plus la courbe, renforçant l'impression de stagnation. En l'occurrence, la "méchante stagnation" depuis 2007, c'est quand même une multiplication des performances par un facteur supérieur à 2 (certes, on était auparavant plus habitué à voir ça sur deux ans, voir moins), sur du code ne profitant pas des plus grosses améliorations... AMD a permis au x86 d'avoir un sursit en lui offrant un moteur RISC et une architecture 64 bits, mais ca ne change rien au probleme de conception initiale et il faut se rappeler que le code x86 doit etre converti en instructions RISC avant d'etre execute, et le processeur dispose d'un ordonnanceur qui reorganise les instructions avant de les executer... Ce qui est rigolo avec toi, c'est que on a beau t'expliquer que tous les processeurs performants d'aujourd'hui font de la traduction d'instruction (et en particulier les deux ARM les plus performants sur le marché grand public : A8 et Tegra K1, ce dernier faisant cette traduction de façon logicielle) et qu'une bonne part fait aussi de l'exécution out-of-order (y compris l'A8, dont le re-order buffer est aussi gros que celui d'un Haswell), tu continues à présenter ça comme un défaut propre à l'architecture x86 ![]() Quand à la complexité de l'architecture, quand on voit qu'un A8 tape dans les 2 milliards de transistors, soit plus qu'un Haswell quad-core GT2 (1.6 milliards), on peut se demander si c'est vraiment aussi simple que tu le prétends ![]() EDIT : d'après cette image http://pc.watch.impress.co.jp/img/pcw/docs/615/261/06.jpg et celle là http://media.bestofmicro.com/R/R/462375/or..._A7-A8_Dies.jpg, on peut estimer que les deux cœurs CPU du A8 font ~12.9mm² contre ~8.8mm² pour deux cœurs Atom Bay Trail. Alors que l'A8 est gravé très légèrement plus fin. Même avec la grosse marge d'erreur inhérente à ce type de mesures, il est donc à peu près certain que deux cœurs A8 nécessitent plus de transistors que 2 cœurs Bay Trail. Complexité du x86 tu disais ? ![]() -------------------- |
|
|
![]()
Message
#41
|
|
![]() Macbidouilleur de vermeil ! ![]() ![]() ![]() ![]() Groupe : Membres Messages : 1 076 Inscrit : 16 Dec 2002 Membre no 5 167 ![]() |
Je pense à un truc du genre MacTracker qui donne plein d'informations mais pas de mesure comparative de puissance. MacTracker à pourtant une rubrique Benchmarks dans la partie processeur pour quasiment tout les modèles. Ah oui, j'avions point vu. Merci. En admettant que c'est représentatif, mon imac fait quatre fois moins bien qu'un imac actuel. Ils auraient gardé des écrans mats que ça me donnerait envie de moderniser mon engin... -------------------- Co-fondateur et Administrateur de l'U.P.L.
Membre du club des AIPBP (Anciens Inscrits Pas Beaucoup de Posts) Voir la liste |
|
|
![]()
Message
#42
|
|
![]() Macbidouilleur d'Or ! ![]() ![]() ![]() ![]() ![]() Groupe : Membres Messages : 3 458 Inscrit : 23 Mar 2004 Lieu : Paris / Vancouver Membre no 16 640 ![]() |
Il faut rajouter que la grosse evolution en terme de processeur c'est la reduction de consommation, parce que la puissance brute elle stagne méchamment depuis 2007 sur x86: Bien essayé... Mais :![]() 1) SuperPi est un benchmark qui n'utilise aucune nouvelle instruction. C'est bien pour comparer les performances brutes sur quelques opérations simples, mais ce n'est absolument pas représentatif de l'évolution des performances réelles à l'usage sur pas mal de tâches, car toutes les applications d'aujourd'hui utilisent les nouveaux jeux d'instructions... C'est particulièrement vrai par exemple pour tout ce qui est applications multimédia, où l'apport des nouvelles instructions peut parfois se traduire par un doublement des performances d'une génération à l'autre, même si les performances en arithmétique pure n'ont presque pas bougé. 2) L'auteur de ce graphique a choisi une échelle linéaire pour le temps de calcul : c'est complètement con comme échelle ! Une échelle linéaire sur un temps de calcul, ça fait qu'une augmentation exponentielle des performances donne une courbe logarithmique : c'est totalement biaisé, ça donne l'impression que la progression est de plus en plus faible. À plus forte raison, quand le progression n'est plus exponentielle, une représentation logarithmique "écrase" encore plus la courbe, renforçant l'impression de stagnation. En l'occurrence, la "méchante stagnation" depuis 2007, c'est quand même une multiplication des performances par un facteur supérieur à 2 (certes, on était auparavant plus habitué à voir ça sur deux ans, voir moins), sur du code ne profitant pas des plus grosses améliorations... SuperPi évalue la puissance de calcul brute du core comme tu le reconnais. Il n'évalue pas les autres unites comme les unites de traitement vectoriel, les unite de gestion I/O, les equivalents des DSP, etc. Ce test est donc représentatif de la puissance de calcul en monocore. il est valable et représentatif de la progression reelle de la puissance. Et cette puissance de calcul est celle du CPU. Si on veut évaluer la puissance en vectoriel, par exemple pour le traitement video, les CPU sont totalement écrasés par le GPGPU. Pareil pour le traitement de signal. Je sais que ca fait mal de voir ca, mais le choix de la representation est legitime et significative. Le systeme est simple et il dit bien ce qu'il veut dire: combien de temps met un processeur pour realiser un calcul standard? Il dit donc que depuis 2007 il n'y a pas eu d'evolution significative sur la puissance de traitement: le temps necessaire pour realiser le calcul étant quasi le meme depuis 7 ans, ce que tu reconnais aussi! Quant a la complexité de l'architecture, tu détournes volontairement le sujet sur le nombre de composants (transistors). Ca n'a rien a voir évidemment avec la complexité de l'architecture. Dans un x86 on a au moins 1 niveau de pre-traitement et de post-traitement des données supplémentaires, donc ca augmente la complexité d'au moins 2 niveaux. D'ailleurs tu le sais pertinemment. Intel a un savoir faire en terme d'optimisation de rendement qui est superieur a la majorite des autres concepteurs de CPU, a part IBM. Ils disposent aussi d'un savoir faire en terme de gravure parmi les meilleurs. Pourquoi avec une telle avance ils n'arrivent pas avec les Atom a écraser les ARM? Si aujourd'hui TSMC est en train de faire son retard sur Intel en terme d'efficacite de gravure, c'est tout nouveau et ils sont pas encore aussi efficace qu'Intel. Donc on a un x86 totalement maitrisé optimisé comme une formule 1 par des ingenieurs qui sont les meilleurs au monde et en face on a de l'ARM qui est encore tres loin d'etre aussi optimisé et qui est moins maitrisée. Donc la marge de progression entre le x86 et l'ARM n'est pas la meme. La difference c'est l'efficacité de l'architecture:CQFD. Ce message a été modifié par r@net54 - 14 Nov 2014, 17:03. -------------------- Agnostique multipratiquant: Unixs, Linux, Mac OS X, iOS et un peu de Windows. Des Macs, des iDevices, des PC et des "ordinosaures"…
Citation « Celui qui t’entretient des défauts d’autrui entretient les autres des tiens. », Diderot« Quand on suit une mauvaise route, plus on marche vite, plus on s'égare. » |
|
|
![]()
Message
#43
|
|
![]() Macbidouilleur d'Or ! ![]() ![]() ![]() ![]() ![]() Groupe : Membres Messages : 3 515 Inscrit : 21 Sep 2005 Membre no 46 410 ![]() |
SuperPi évalue la puissance de calcul brute du core comme tu le reconnais. Il n'évalue pas les autres unites comme les unites de traitement vectoriel, les unite de gestion I/O, les equivalents des DSP, etc. Ce test est donc représentatif de la puissance de calcul en monocore. il est valable et représentatif de la progression reelle de la puissance. Et cette puissance de calcul est celle du CPU. Si on veut évaluer la puissance en vectoriel, par exemple pour le traitement video, les CPU sont totalement écrasés par le GPGPU. Pareil pour le traitement de signal. Je sais que ca fait mal de voir ca, mais le choix de la representation est legitime et significative. Le systeme est simple et il dit bien ce qu'il veut dire: combien de temps met un processeur pour realiser un calcul standard? Il dit donc que depuis 2007 il n'y a pas eu d'evolution significative sur la puissance de traitement: le temps necessaire pour realiser le calcul étant quasi le meme depuis 7 ans, ce que tu reconnais aussi! Ça revient à mesurer la vitesse maximale d'une voiture en la bloquant au 1er rapport de sa boîte de vitesse. Ce n'est donc absolument pas significatif pour la vie de tous les jours. |
|
|
![]()
Message
#44
|
|
Macbidouilleur d'Or ! ![]() ![]() ![]() ![]() ![]() Groupe : Rédacteurs Messages : 32 233 Inscrit : 15 Nov 2005 Membre no 49 996 ![]() |
Ce test est donc représentatif de la puissance de calcul en monocore. Dans un contexte bien particulier. Donc pas représentatif de la réalité.Si on veut évaluer la puissance en vectoriel, par exemple pour le traitement video, les CPU sont totalement écrasés par le GPGPU. Sauf qu'il y a dans la réalité énormément de logiciels qui font appel à ces unités vectorielles (y compris les OS eux mêmes), sans pour autant faire appel au GPGPU. Donc ignorer totalement ces unités dans les tests, ce n'est pas du tout représentatif de l'usage réel.Et les nouvelles instructions qui sont apportées à chaque génération de CPU, c'est pas forcément que sur du vectoriel, c'est parfois aussi sur de l'arithmétique de base, sur de la manipulation de chaînes de caractères, etc... Je sais que ca fait mal de voir ca, mais le choix de la representation est legitime et significative. Désolé, mais non. Un choix de présentation graphique qui transformerait une croissance exponentielle en courbe logarithmique, ce n'est pas très légitime, c'est une façon de biaiser la perception qu'on fait du résultat...Il dit donc que depuis 2007 il n'y a pas eu d'evolution significative sur la puissance de traitement: le temps necessaire pour realiser le calcul étant quasi le meme depuis 7 ans, ce que tu reconnais aussi! Depuis 7 ans, si on regarde la courbe on a l'impression que ça n'a pas bougé d'un poil. Si on fait un peu plus attention, on voit qu'il y a une progression d'un facteur de l'ordre de deux, ce qui reste loin d'être négligeable (surtout que dans le même temps, on a aussi quadruplé le nombre de cœurs...). Refait la courbe en prenant la vitesse de traitement au lieu du temps de traitement, elle donnera une vision nettement différente. EDIT : tiens en prime pour ajouter au caractère non représentatif de ce graphique, il ne s'agit pas de l'évolution des performances des CPU commerciaux, mais de l'évolution des records de performances avec des CPU overclockés à mort (c'est dommage de devoir aller chercher moi même ce genre d'infos... si t'avais un minimum d'honnêteté intellectuelle, tu aurais précisé dès le départ le nom du bench, le type de processeurs testés, etc... mais non, toi tu balances juste une courbe sans légende...)... Or, les CPU d'il y a quelques années avaient souvent une marge de progression en OC bien plus importante : les Pentium 4 étaient essentiellement limités par leur dissipation thermique, donc s'envolaient dès qu'on les mettait sous azote, ce qui est beaucoup moins vrai avec les CPU d'aujourd'hui. Tiens, cadeau, voilà la courbe de la vitesse de traitement (tiens, je fait comme toi, je met pas de légende... mais au moins on sait de quoi je parle) : ![]() Qu'est ce qu'on voit alors ? Les performances ne stagnent pas depuis 2007, elles ont simplement cessé d'avoir une progression exponentielle pour s'approcher de quelque chose de plutôt linéaire. Mais le plus intéressant à mon sens, c'est cette courbe là, qui correspond au rapport de performances sur 3 ans : ![]() On voit bien qu'il y a une diminution de la progression de performances, mais on voit aussi qu'on n'est pas encore en stagnation sur 3 ans, et à fortiori encore moins sur 7 ans (la stagnation correspond à 100%). Et c'est sans compter l'impact de la multiplication des cœurs et sans regarder le rapport performances/consommation... Mais ça serait par contre bien plus intéressant de faire ça avec des chiffres de performances à la date de sortie pour des processeurs à leur fréquence normale. Des chiffres réalistes quoi... Quant a la complexité de l'architecture, tu détournes volontairement le sujet sur le nombre de composants (transistors). Ca n'a rien a voir évidemment avec la complexité de l'architecture. Dans un x86 on a au moins 1 niveau de pre-traitement et de post-traitement des données supplémentaires, donc ca augmente la complexité d'au moins 2 niveaux. Euh si, complexité et nombre de transistors sont quand même assez liés... Et au contraire, tu peux avoir un processeur plus simple tout en ayant plus de niveaux, les différents niveaux pouvant être plus ou moins complexes...Mais bon, puisque tu es convaincu que seul ne nombre de niveaux compte, regardons le le nombre de niveaux... Tu dis qu'il y a au moins deux niveaux de plus ? Ben non Le pipeline du Haswell fait entre 14 et 19 niveaux selon les cas, Bay Trail 14 à 17. Un Cortex A15, c'est 15 niveaux pour les entiers, 17 à 25 niveaux pour les flottants. Et pour l'A8, c'est en moyenne au moins 16 niveaux, et généralement compris entre 14 et 19 niveaux (oui, pile poil comme Haswell) (cf AnandTech : http://www.anandtech.com/show/7910/apples-...ecture-detailed , la longueur du pipeline étant forcément supérieure ou égale à la pénalité en cas de mauvaise prédiction de branchement). Accessoirement, comme tu l'auras déduit de ces chiffres, le nombre de niveaux à traverser pour traiter une instruction ne dépend pas de l'architecture, mais de la microarchitecture. D'un processeur ARM à l'autre, on n'a pas le même nombre de niveaux, tout comme il varie d'un processeur x86 à l'autre. Mais on constate que tous les CPU ARM hautes performances ont des pipelines du même ordre de longueur que ceux des Intel haut de gamme. Pourquoi avec une telle avance ils n'arrivent pas avec les Atom a écraser les ARM? Mais quelle avance ? C'est tout le contraire, le x86 est arrivé très tard sur le marché de l'ultramobilité, alors qu'ARM y était déjà en quasi monopole. ARM est présent sur les PDA/smartphones depuis 15/20 ans, le x86 depuis 4-5 ans (Atom Z500, lancé en juin 2010). Et en prime, Intel est arrivé avec un SoC incomplet par rapport à ceux du leader (Qualcomm), donc handicapant (pas de baseband intégré au SoC).Et quand tu arrives ainsi bien après le concurrent, c'est jamais facile de rattraper le retard, surtout avec des OS et des logiciels optimisés uniquement pour le concurrent, et les pertes liées à l'émulation/traduction pour tous les logiciels qui n'auront pas été portés en natif. On voit d'ailleurs bien que le seul marché de l'ultra-mobilité sur lequel ARM n'est pas arrivé bien avant le x86, il est déjà quasiment perdu pour ARM : il ne sort quasiment plus aucune nouvelle tablette Windows ARM, toute la production a basculé sur le x86. Donc on a un x86 totalement maitrisé optimisé comme une formule 1 par des ingenieurs qui sont les meilleurs au monde et en face on a de l'ARM qui est encore tres loin d'etre aussi optimisé et qui est moins maitrisée. Donc la marge de progression entre le x86 et l'ARM n'est pas la meme. Il suffit pas de mettre un CQFD à la fin d'une phrase pour que la phrase en question démontre quoique ce soit... En gros, là tu nous dit juste que selon toi ARM à de la marge de progression parce que selon toi ARM est actuellement moins maitrisé et moins optimisé que le x86. Mais tu démontres que dalle, tu n'as rien pour étayer, aucun argument technique. Juste du doigt levé et du pifomètre.La difference c'est l'efficacité de l'architecture:CQFD. Et au contraire, la réalité des faits montre plutôt que ça commence à stagner aussi dans la monde ARM... Regarde par exemple la progression des performances CPU entre l'A6 et l'A7 puis entre l'A7 et l'A8, la progression a très fortement ralenti... Et c'est encore pire chez la concurrence. -------------------- |
|
|
![]()
Message
#45
|
|
![]() Macbidouilleur d'Or ! ![]() ![]() ![]() ![]() ![]() Groupe : Membres Messages : 4 933 Inscrit : 1 Jul 2010 Membre no 156 073 ![]() |
Quant a l'histoire du cloud computing pour faire tourner ce type de soft c'est du markting et c'est sans interet. Parle pour toi ! Les solutions déportées ne sont pas l'idéal mais peuvent s'avérer fort pratiques dans un monde vraiment mobile, en tout cas, je saurais quoi en faire. Adobe aussi est pragmatique en travaillant à des versions déportées dans le nuage de ses applications. Photoshop Streaming fonctionne pour Chrome 0S (ARM et x86) ainsi que dans le navigateur Chrome (Windows 7 et 8). Un Mac ARM iOS X aura peut-être droit un jour à une version. Si Adobe ne passait pas a ARM cela relancerait la concurrence sur un secteur qui est soumis a un monopole délétère depuis des années, et la baisse des ventes chez Adobe va les inciter a se réveiller enfin. Donc Adobe passera a ARM c'est meme pas la question. Ce qui compte pour utiliser ces logiciels c'est plus les performances graphiques que le CPU, et la on a bien des gens qui travaillent avec uniquement les pauvres unites graphiques integrées aux Core ix... Tu es anti x86 et anti Adobe, je comprends que tu ne sois pas plus nuancé sur le sujet. Le GPU est déporté dans le nuage. Et alors ? Tu ne vois pas d'opportunités de t'en servir ? Quelle concurrence ? Je précise que je n'ai pas d'affection pour Adobe ni pour Intel, je suis agnostique comme toi ![]() -------------------- L'homme n'est que poussière... c'est dire l'importance du plumeau ! Alexandre Vialatte
|
|
|
![]() ![]() |
Nous sommes le : 18th July 2025 - 14:25 |