IPB

Bienvenue invité ( Connexion | Inscription )

2 Pages V  < 1 2 >  
Reply to this topicStart new topic
> Les performances des nouveaux MacBook Pro et Air, Réactions à la publication du 14/03/2015
Options
Alias
posté 15 Mar 2015, 09:51
Message #21


Macbidouilleur d'argent !
***

Groupe : Membres
Messages : 695
Inscrit : 30 Dec 2003
Membre no 12 896



Personnellement, je viens de vendre mon MBA 4/128 de 2012 pour un MBPr 8/256 de 2015.
Je trouve que le bon de performances entre les deux est très sensible. Sans parler de l'écran retina qui a été un gros argument pour changer.
Le nouveau Trackpad est sympa. Je n'utilisais que le toucher pour cliquer mais là c'est très agreable et mieux que l'ancien vrai clic.
Pour l'autonomie je n'ai pas encore assez de recul mais si c'est vraiment équivalent a mon iPad Air ce sera top.


--------------------
iMac 27" 5k 2015 32/512SSD 395X / MacBook Pro TB 13" i5 2,3GHz 2018 8/256
iPad Pro 10,5" WiFi 256 Go + Pencil / iPhone Xs 256 Go / AirPort Extreme
Quelques actions AAPL ...
"La simplicité est la sophistication ultime" (L. da Vinci)
Go to the top of the page
 
+Quote Post
r@net54
posté 15 Mar 2015, 12:21
Message #22


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 3 458
Inscrit : 23 Mar 2004
Lieu : Paris / Vancouver
Membre no 16 640



Citation (SartMatt @ 14 Mar 2015, 22:41) *
Citation (r@net54 @ 14 Mar 2015, 13:36) *
Certes la progression est tres faible, mais elle correspond a ce qui ete attendu de la presence d'un CPU ayant une frequence superieure.
Toi faudrait vraiment qu'on te mette sur dynamo... Tu tournes tellement vite sur toi même qu'on aurait une source d'énergie inépuisable laugh.gif


Bravo pour l'attaque personnelle: tu n’arrivais déjà plus qu'a surnager mais la tu coules dans la vulgarité et tes propos n'ont plus la moindre crédibilité ou un quelconque intérêt. C'est pathétique et ça en dis long sur ton comportement et sur ce qu'il te reste.

Je sais pas quel est ton problème exactement, a part que tu détestes Apple, mais on dirait que ton jugement n'est plus qu’émotionnel et réactionnel et tu ne supporte plus de ne pas avoir raison, d’être contredis, que ce soit par quelqu'un et plus encore par la réalité. Même lorsque l'on ne s'adresse pas a toi, tu attaques les gens, tu les apostrophes vulgairement, et tu ne développe pas d'argumentaire construit...
Tu n'as plus d'opinion mais tu défends un dogme...!

Mais regarde autour de toi: ici personne ne t'agresse, les gens ne font que parler de technologies. On se fout de qui tu es, d’où tu viens, de ce que tu peux représenter, de ton métier, de ta formation ou pas. Tu n'existes pas!

La seule chose ici c'est que l'on écrit, on échange des opinions, on constate des faits.

Le fait dont il est question ici c'est qu'Intel est pris une fois de plus en défaut sur sa propagande face a la réalité.
On constate tous que le x86 n'est plus capable de monter en puissance, que la débauche technologique et financière d'Intel aboutie a un surplace incontestable. Broadwell est un échec a divers niveaux pour Intel, qui a pourtant fait des investissements de manière colossale. Le passage de 22nm a 14nm n'apporte vraiment pas grand chose, et surtout en regard des investissements qui ont été nécessaires pour sa mise en place. Intel se retrouve aujourd'hui en concurrence directe et frontale avec Samsung: TSMC et GF ne sont pas loin... Tous constatent que la conjecture de Moore a atteint son terme.

Lionel a commencé cette serie d'articles des la sortie des premiers exemplaires avec ce que nous disons tous, ici: broadwell n'apporte rien qui ne justifie l'achat d'une nouvelle machine. On le voit tous, on est tous d'accord. Apres ca veut pas dire que les machines sont a jeter, mais le bon conseil c'est d'attendre la prochaine génération ou d'acheter une machine a un meilleur prix sur le refurb, c'est tout.

Broadwell aurait du signer un mise a jour majeure des Mac et des PC, voire révolutionner le marche mobile: c'est un échec assourdissant.
Broadwell est si en retard qu'il n'y a que les petits portables qui peuvent etre equipés, il risque de ne jamais y avoir de broadwell en dehors, Intel passant directement a Skylake. Et les performances de broadwell signent une stagnation incontestable.

On constate tous que le passage a Broadwell des plus petits Mac est anecdotique: pour qu'Apple mentionne cette mise a jour il a fallut parler d'autres technologies. Les Mac concernés sont un peu plus rapides grâce a des fréquences un peu plus élevées, ben oui c'est logique fréquence plus élevée = vitesse supérieure.
Apple aurait mis des Haswell avec le meme gain de frequence, on aurait eu le meme gain de vitesse... Apple n'aurait juste pas pu monter autant le prix de ses machines.

Mais en fait on s'en fout. D'ailleurs les quelques lecteurs de ce forum, majoritairement j'ai l'impression, se contrefichent totalement de que ce tu peux raconter et n'ont aucun intérêts dans tes propos.
Pas plus que dans les miens. La seule chose qui leur importe c'est pour une partie de savoir s'ils ont un intérêt a acheter cette génération 2015. Et ce que tout le monde leur dis, c'est que non, ces machines ne sont pas meilleures que celles d'il y a 2ou 3 ans pour l'utilisation qu'ils en ont.
C'est tout. Et ça s’arrête la. Que je donne quelques infos, fasse des remarques, conteste la propagande d'Intel pour la remettre face a la réalité, ce qui va intéresser un peu quelques uns c'est le débat technique et les connaissances que ca peut véhiculer. En dehors d'un argumentaire technique que n'importe qui pourrait tenir, tes propos a ce niveau n'ont pas la moindre importance.

Ce message a été modifié par r@net54 - 15 Mar 2015, 12:56.


--------------------
Agnostique multipratiquant: Unixs, Linux, Mac OS X, iOS et un peu de Windows. Des Macs, des iDevices, des PC et des "ordinosaures"…
Citation
« Celui qui t’entretient des défauts d’autrui entretient les autres des tiens. »,
« Quand on suit une mauvaise route, plus on marche vite, plus on s'égare. »
Diderot
Go to the top of the page
 
+Quote Post
zero
posté 15 Mar 2015, 12:44
Message #23


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 11 330
Inscrit : 25 Nov 2001
Membre no 1 397



Citation (r@net54 @ 15 Mar 2015, 20:21) *
Le fait dont il est question ici c'est qu'Intel est pris une fois de plus en défaut sur sa propagande face a la réalité.
On constate tous que le x86 n'est plus capable de monter en puissance, que la débauche technologique et financière d'Intel aboutie a un surplace incontestable. Broadwell est un échec a divers niveaux pour Intel, qui a pourtant investit de manière colossale. Le passage de 22nm a 14nm n'apporte vraiment pas grand chose, et surtout en regard des investissement qui ont été nécessaire pour sa mise en place. Intel se retrouve aujourd'hui en concurrence direct et frontal avec Samsung: TSMC et GF ne sont pas loin... Tous constatent que la conjecture de Moore a atteint son terme.

Ce constat est faussé et la loi de Moore n'a aucun sens.
Le x86 ne monte plus en puissance parce que aujourd'hui le marché est différent et Intel doit s'adapter. Ce sont les puces économes qui se vendent de nos jours.
ARM doit monter en puissance en restant dans le même ordre de consommation. Intel doit faire l'inverse, baisser la consommation sans perdre en puissance.
La loi de Moore avait pour but de servir de base pour le marché.

Ce message a été modifié par zero - 15 Mar 2015, 12:56.
Go to the top of the page
 
+Quote Post
SartMatt
posté 15 Mar 2015, 13:12
Message #24


Macbidouilleur d'Or !
*****

Groupe : Rédacteurs
Messages : 30 367
Inscrit : 15 Nov 2005
Membre no 49 996



Citation (r@net54 @ 15 Mar 2015, 12:21) *
Mais regarde autour de toi: ici personne ne t'agresse
Il est mignon... L'autre jour, quand je contestais la validité des premiers résultats Geekbench des nouveaux MBP/MBA, tu m'as traité de "dévot du x86", et maintenant, alors que les faits me donnent finalement raison et que je pointe du doigt ton magistral retournement de veste sur le sujet (puisque tu considères maintenant que les gains de performances étaient attendus, trois jours après m'avoir insulté parce que je contestais la validité d'un test qui ne montrait pas de gain... et que même les auteurs du bench disaient de prendre avec des pincettes), tu fais ta vierge effarouchée et m'accuse de faire une attaque personnelle alors que personne ne m'avait agressé ? Trop gros, ça passera pas...

Ce nième retournement de veste de ta part, au fur et à mesure que les faits prouvent que tu avais tort, montre à quel point tes propos ne sont pas crédibles, ce qui explique aussi pourquoi à chaque fois qu'on te demande tes sources tu es incapables d'en fournir...

Citation (r@net54 @ 15 Mar 2015, 12:21) *
d’être contredis, que ce soit par quelqu'un et plus encore par la réalité. Même lorsque l'on ne s'adresse pas a toi, tu attaques les gens, tu les apostrophes vulgairement, et tu ne développe pas d'argumentaire construit...
Contredis par la réalité ? Contrairement à toi, je donne régulièrement des sources qui prouvent mes propos... Toi, même quand on te les demande, on n'en obtiens rarement, pour ne pas dire jamais...
Quand à l'absence d'argumentaire construit comment dire... Peut-être que si tu t'arrêtais pas à la première ligne de mes posts, tu le verrais l'argumentaire...

Citation (r@net54 @ 15 Mar 2015, 12:21) *
Le fait dont il est question ici c'est qu'Intel est pris une fois de plus en défaut sur sa propagande face a la réalité.
La "propagande" d'Intel, elle affirme que l'IPC progresse de 5.5% entre Haswell et Broadwell*. En quoi les résultats donnés ici montrent que cette "propagande" est fausse ? C'est tout le contraire, ces résultats tendent justement plutôt à le confirmer, puisqu'on voit qu'un Broadwell 2.9 GHz atteint les mêmes performances, voir un peu plus, qu'un Haswell 3 GHz... Tu vois, c'est ça la réalité : Broadwell démontre des performances supérieures à Haswell avec une fréquence de base inférieure de 100 MHz, une fréquence turbo inférieure de 200 MHz (3.3 GHz contre 3.5) et 1 Mo de cache en moins (3 contre 4). Mais bon, puisque tu prétends que l'architecture n'apporte rien, on va te croire sur parole rolleyes.gif

Citation (r@net54 @ 15 Mar 2015, 12:21) *
On constate tous que le x86 n'est plus capable de monter en puissance
C'est vrai que jusqu'à 14% de gains d'une génération à l'autre pour le même prix (i7-5650U vs i7-4650U, tous deux à 426$), c'est pas énorme. Mais de là à prétendre qu'il n'y a pas de gain rolleyes.gif T'es vraiment fâché à ce point avec les maths ?

Citation (r@net54 @ 15 Mar 2015, 12:21) *
broadwell n'apporte rien qui ne justifie l'achat d'une nouvelle machine. On le voit tous, on est tous d'accord.
Oui, si on a une machine qui n'a que deux ou trois ans. Rien de nouveau à ce niveau, c'est normal, ça fait bien longtemps que ça n'a aucun intérêt de renouveler aussi rapidement. La dernière fois que ça valait le coup de remplacer une machine de l'année passée, c'est quand les premiers processeurs à 4 cœurs sont arrivés, avec du coup un doublement des performances brutes par rapport à l'année d'avant.

Mais les gains apportés par Broadwell en termes de performances et d'autonomie pour un même coût sont bien là, et ils sont absolument pas négligeables.

Citation (r@net54 @ 15 Mar 2015, 12:21) *
Broadwell aurait du signer un mise a jour majeure des Mac et des PC
Non, ça n'a jamais été le but de Broadwell, qui n'est qu'un die shrink d'Haswell... En dehors des gains de consommation, qui ont permis une mise à jour majeure des tablettes, dont on sait que c'était LE but d'Intel avec Broadwell, il n'y avait pas grand chose de plus qu'un léger gain de performances et d'autonomie à attendre de Broadwell... C'est ce qu'on a obtenu.

Citation (r@net54 @ 15 Mar 2015, 12:21) *
voire révolutionner le marche mobile: c'est un échec assourdissant
Tu as vu les performances qu'on arrive maintenant à sortir d'une tablette de 8mm d'épaisseur grâce à Broadwell ? On arrive enfin à des tablettes qui peuvent devenir l'ordinateur principal, sans sacrifier sur la mobilité (finesse et autonomie)... C'est sans conteste le plus grand bon en avant fait par les tablettes en 5 ans.

Citation (r@net54 @ 15 Mar 2015, 12:21) *
Les Mac concernés sont un peu plus rapides grâce a des fréquences un peu plus élevées, ben oui c'est logique fréquence plus élevée = vitesse supérieure.
Apple aurait mis des Haswell avec le meme gain de frequence, on aurait eu le meme gain de vitesse...
Non... Prenons par exemple le 4578U et le 5557U. On passe de 3.0 GHz à 3.1 GHz, c'est un gain de fréquence de 3.3%, tandis qu'en turbo on passe de 3.5 GHz à 3.4 GHz, soit une baisse de 2.9%. S'il n'y avait pas eu d'amélioration de l’architecture, en appliquant les mêmes fréquences à un Haswell on n'aurait pas pu avoir un gain de performances supérieur à 3.3% dans le cas où le processeur est à sa fréquence de base, tandis qu'on aurait eu une baisse pouvant approcher de 2.9% à fond de turbo. Hé oui, le gain de performances en augmentant la fréquence est AU MIEUX égal au gain de fréquence, JAMAIS supérieur, presque toujours inférieur (parce que c'est pas toujours la fréquence CPU qui limite les performances).

Et là, qu'est ce qu'on voit ? Des gains qui atteignent 3.1% en mono-coeur et 6% en multi-cœur. Tu m'expliques comment un gain de 3.3% en fréquence et une baisse du turbo de 2.9% aurait pu apporter 6% de gain en restant sur Haswell ? La seule explication, c'est que ça vient de l'amélioration de l'architecture (IPC en hausse de 5.5% selon Intel*) et de la baisse de consommation qui permet de maintenir le turbo à sa fréquence maximale dans des situations où ce n'était pas possible avec Haswell (d'où l'écart plus grand quand les deux cœurs sont sollicités, puisque c'est justement dans ce cas que le turbo est le plus limité par le TDP). Impossible d'avoir de tels gains avec Haswell en augmentant simplement la fréquence de 3.3%. En single core, les gains viennent même probablement quasiment exclusivement de l'amélioration de l'architecture, puisque la fréquence turbo maximale a baissée et qu'en single core le processeur peut généralement rester à fond de turbo, même à pleine charge.

Tu vois, moi j'argumente... Je pense qu'avec le même gain de fréquence, on aurait pas eu le même gain de vitesse, mais je me contente pas de l'affirmer comme en fait établi en n'apportant ni argument, ni source pour étayer cette affirmation, j'explique pourquoi je le pense... Maintenant, si tu as des arguments pour étayer ton affirmation, je suis tout ouïe. Je serais très curieux de savoir comment selon toi une hausse de fréquence de base de 3.1% et une baisse de fréquence turbo de 2.9% pourrait apporter un gain de performances 6%.

Et encore une fois, comme je te l'ai déjà expliqué, passer à des Haswell de fréquence supérieure aurait impliqué une augmentation du prix du CPU et une hausse de la consommation, donc une baisse de l'autonomie à capacité de batterie égale. En passant à Broadwell, non seulement les performances à fréquence égale sont supérieure, mais en plus l'augmentation de la fréquence est gratuite (sur les Macbook Pro, les Broadwell à une fréquence x sont au même prix que les Haswell à x - 100 MHz au catalogue Intel, sur le MBA le 5650U à 2.2-3.1 GHz est au même prix que le 4650U à 1.7-3.3 GHz) et la consommation est en baisse... Absolument RIEN n'aurait donc justifié de rester sur Haswell.

* source : le sixième slide Intel sur cet article d'AnandTech : http://www.anandtech.com/show/9070/intel-x...-for-enterprise
Ça concerne les Xeon, mais le cœur d'exécution des Xeon et des Core i est le même.


--------------------
Go to the top of the page
 
+Quote Post
Eagle Kiss
posté 15 Mar 2015, 14:15
Message #25


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 3 390
Inscrit : 5 Jan 2002
Lieu : Nantes (aux confins du Retz)
Membre no 1 754



Citation (r@net54 @ 15 Mar 2015, 12:21) *
La seule chose qui leur importe c'est pour une partie de savoir s'ils ont un intérêt a acheter cette génération 2015. Et ce que tout le monde leur dis, c'est que non, ces machines ne sont pas meilleures que celles d'il y a 2ou 3 ans pour l'utilisation qu'ils en ont.

On aurait même pu rajouter 1 ou 2 ans de plus si il n'y avait pas eu le passage à l'USB3. Je suis d'accord avec toi pour dire que l'utilisateur lamba n'a que peu d'intérêt à changer de machine actuellement.
Alors après on peut parler chiffres, 3%, 6% de gain qui n'intéresseront que les geek. Mais ces minuscules pourcentages se traduisent par des milliers d'euros dans la vraie vie !
Et c'est de ça qu'on parle wink.gif


--------------------
En service :
MacBook Pro 15" mi 2014 • i7 2,5Ghz • SSD 512Go • 16Go RAM • Mojave • Refurb
Mac Mini Early 2006 • Core Duo 1,66Ghz • HD 80Go • 2Go RAM • Snow Leopard • Récup en 2016 • Station média musique dans le salon
En sommeil :
PowerMac G5 Late 2005 • Dual 2Ghz • Leopard • Récup en 2016
iBook G3 Late 2001 • 600Mhz • Tiger
Vendu : MacBook Pro 15" Early 2011 • i7 2Ghz • SSD M4 256Go • 8Go RAM • Sierra • Refurb
Volé : PowerBook 1400 CS • 117Mhz • Mac OS 9.1
HS : iPod classic 80Go • Refurb • DD HS
WAG
Go to the top of the page
 
+Quote Post
r@net54
posté 15 Mar 2015, 15:10
Message #26


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 3 458
Inscrit : 23 Mar 2004
Lieu : Paris / Vancouver
Membre no 16 640



Citation (zero @ 15 Mar 2015, 12:44) *
Citation (r@net54 @ 15 Mar 2015, 20:21) *
Le fait dont il est question ici c'est qu'Intel est pris une fois de plus en défaut sur sa propagande face a la réalité.
On constate tous que le x86 n'est plus capable de monter en puissance, que la débauche technologique et financière d'Intel aboutie a un surplace incontestable. Broadwell est un échec a divers niveaux pour Intel, qui a pourtant investit de manière colossale. Le passage de 22nm a 14nm n'apporte vraiment pas grand chose, et surtout en regard des investissement qui ont été nécessaire pour sa mise en place. Intel se retrouve aujourd'hui en concurrence directe et frontale avec Samsung: TSMC et GF ne sont pas loin... Tous constatent que la conjecture de Moore a atteint son terme.

Ce constat est faussé et la loi de Moore n'a aucun sens.
Le x86 ne monte plus en puissance parce que aujourd'hui le marché est différent et Intel doit s'adapter. Ce sont les puces économes qui se vendent de nos jour.
ARM doit monter en puissance en restant dans le même ordre de consommation. Intel doit faire l'inverse, baisser la consommation sans perdre en puissance.
La loi de Moore avait pour but de servir de base pour le marché.


Ben la conjecture de Moore a servi de base pour de développement des x86 depuis 1975. En 1965 Moore, cofondateur d'Intel constate que la complexité des semiconducteur double a cout constant tous les ans. En 1975, trois an après l'apparition du microprocesseur, rendu possible par le transistor, Moore predit que le nombre de transistors dans le microprocesseur double tous les 18 mois, et de fait que la puissance du processeur liée au nombre de transistors subissait la même croissance. Donc en miniaturisant les transistors, on augmente la puissance en gardant le même cout.
Le corolaire c'est que l'on peut augmenter la vitesse de traitement en augmentant la fréquence, et puisque la densité augmente, la fréquence peut augmenter dans le même ordre, se disait on alors...
C'est effectivement la feuille de route d'une stratégie industrielle et commerciale qui s'est installée dans un monopole partagé entre Intel et Microsoft: Wintel.
Moore avait prédit que la miniaturisation des transistors tomberait sur un "mur" physique aux environs de 2015. Sauf que le mur a ete atteint en 2004 en ce qui concerne la montee en frequence.
Et la grosse epine dans ce dogme omniprésent a ete le développement du mobile, totalement rate par le x86(efficacite energetique), et surtout l’avènement du GPGPU(puissance de calcul), qu'Intel a aussi totalement raté avec Larrabee.

Maintenant, si tu parles des évolutions technologiques en profondeur, il est vrai que le x86 rénové par AMD avec le passage a l'architecture 64bits et le passage a un moteur RISC, tout comme la parallélisation du traitement (pipeline/reordonnancement) ont changé la donne et ont modéré le principe de la conjecture de Moore pour la maintenir jusqu'a 2014.
Ensuite la conjecture de Moore ne vaut que dans le monde x86. Dans le monde RISC les principes fondateurs sont différentes depuis le debut. On voit dans le monde ARM une croissance de la puissance qui s'opere avec au pire un maintien de la consommation et au mieux une diminution de cete comssomation. Et d'apres ARM la marge de progression pour les deux axes est encore conséquente comme le démontre le cortex A72 (-75%).

Tu constates que le x86 ne monte plus réellement en puissance, on est tous d'accord.
La ou les avis divergent c'est sur les causes. Je fais partie de ceux qui pensent que le x86 ne peut plus monter en puissance a cause des principes de fondement de son architecture, même si celle-ce a ete bien revue, notamment par AMD et aussi avec l'adoption du Finfet en 2011 par Intel. Le Finfet c'est un travail d'architecture sur le transistor pour augmenter son efficacité énergétique (plus de 35% de vitesse pour 2 fois moins d’énergie: certains estiment que c'est la plus importante évolution dans les processeurs depuis 40ans)

On constate aussi que le besoin de puissance est toujours présent, même s'il n'est plus focalisé sur le CPU, mais va sur le GPU, le vectoriel, le traitement des ES, le traitement de signal,... tout ca realisé par des unités spécialisées utilisant des architectures différentes de celles du CPU: les coprocesseurs, qu'ils soient integres au SoC ou repartis sur la CM.

Par contre l’efficacité énergétique est devenue une priorite. Pourquoi?
On donne souvent comme argument que c'est face a la crise énergétique dans laquelle on s'engage. D'autres rapportent que c'est a cause de la miniaturisation des appareils.
C'est deux arguments sont recevables, mais ne justifient pour autant pas l’arrêt de la croissance de la puissance... sauf sur les systèmes qui sont originellement et fondamentalement mauvais sur l’efficacité énergétique.
Ils n'ont comme alternatives que de figer leur puissance en essayant d'etre énergétiquement plus rentable: en multipliant les core et en gerant plus finement l'alimentation en fonction des besoins reels, il y a une diminution de la consommation non negligeable pour le meme traitement: en gros si au lieu d'eclairer toute la ville en permanence on éclaire que les zone ou il y a des gens, on gagne en consommation... Bien sur l'autre solution c'est d'installer des ampoules LED qui elles sont tres efficaces énergétiquement...

Je vais d'ailleurs prendre l'exemple de l'ampoule a incandescence: 95% de la production de ce type d'ampoule c'est de ... la chaleur! Donc plus on veut de puissance d’éclairage plus l'ampoule va dégager de chaleur et le filament va perdre de la matière. C'est typiquement mauvais en efficacité énergétique.
Et on arrive a un parallèle assez intéressant: plus on veut de lumière plus il faut que la piece soit grande pour absorber la chaleur produite, et forcement si on a une pièce plus grande, il faut plus de lumière pour l’éclairer, et ainsi de suite. La solution c'est de ventiler, sauf que la aussi il y a des limites...

Fondamentalement le x86 est par principe mauvais en efficacité énergétique, du fait qu'il s'appuie sur la conjecture de Moore, ce qui pourrait revenir -en reprenant l'exemple de l'ampoule a incandescence- a dire que pour augmenter la production lumineuse on augmente la puissance électrique, le filament doublant sa résistance a l’évaporation tous les 18 mois...
L'exemple de ca c'est typiquement le P4. Intel n'avait pas de difficultés pour faire progresser sa puissance, il suffisait d'augmenter la densité de transistor et monter la fréquence. L'equation etait d'ailleurs encore simple pour le marketing: augmentation de fréquence = croissance de puissance. Sauf que ce principe a atteint un mur physique: celui de la gestion de la production thermique. Si les processeurs sont limités a 4Ghz c'est pas un chiffre qui est tombé comme ca de manière arbitraire: les causes sont des lois physiques.
A partir de ce constat il a fallut changer de stratégie et commencer a s'adapter a la notion d’efficacité énergétique.
En plus de cela les physiciens commencent a définir que seuls les systèmes physiques qui disposent d'une bonne efficacité énergétique intrinsèques peuvent durer et se développer.
Intel étant soumis maintenant a une vraie concurrence, il faut qu'il fasse évoluer son système vers l’efficacité énergétique: très gros défi vu les bases de départ, mais c'est une question de survie.

Ce message a été modifié par r@net54 - 15 Mar 2015, 15:21.


--------------------
Agnostique multipratiquant: Unixs, Linux, Mac OS X, iOS et un peu de Windows. Des Macs, des iDevices, des PC et des "ordinosaures"…
Citation
« Celui qui t’entretient des défauts d’autrui entretient les autres des tiens. »,
« Quand on suit une mauvaise route, plus on marche vite, plus on s'égare. »
Diderot
Go to the top of the page
 
+Quote Post
SartMatt
posté 15 Mar 2015, 15:56
Message #27


Macbidouilleur d'Or !
*****

Groupe : Rédacteurs
Messages : 30 367
Inscrit : 15 Nov 2005
Membre no 49 996



Citation (r@net54 @ 15 Mar 2015, 15:10) *
et surtout l’avènement du GPGPU(puissance de calcul), qu'Intel a aussi totalement raté avec Larrabee.
Larrabee à la base, c'était un projet qui visait à faire un GPU à base de x86 (il y avait des pilotes DirectX et OpenGL...). C'est suite à l'échec de ce projet qu'Intel a décidé, plutôt que de tout jeter, de le réorienter vers un concurrent du GPGPU : c'est ainsi qu'est né le Xeon Phi, qui reprend les principes de Larrabee et qui sert à la même chose que le GPGPU. La seule chose qui a été abandonnée par rapport à Larrabee, c'est en fait la possibilité d'utiliser la puce comme un GPU... On ne peut donc pas considérer Larrabee comme un ratage total sur le GPGPU, alors qu'aujourd'hui une carte d'accélération basée directement sur les travaux du projet Larrabee permet justement à Intel de contrer efficacement le GPGPU dans le HPC. À tel point que c'est grâce à ce descendant de Larrabee que, pour la première fois de l'histoire du Top 500, une machine dont toute la puissance de calcul provenait de puces Intel est arrivée en tête du classement en juin 2013, et n'a plus quitté cette place depuis (et ça aussi, je crois que c'est une première, une machine qui reste en première position sur 4 classements de suite SANS modification de sa configuration matérielle (IBM avait eu 6 ou 7 premières place de suite avec BlueGene, mais c'était en ajoutant régulièrement des processeurs, la machine était passée de 65 000 cœurs à plus de 200 000)...

Citation (r@net54 @ 15 Mar 2015, 15:10) *
Maintenant, si tu parles des évolutions technologiques en profondeur, il est vrai que le x86 rénové par AMD avec le passage a l'architecture 64bits et le passage a un moteur RISC, tout comme la parallélisation du traitement (pipeline/reordonnancement)
Sauf que comme on te l'a déjà expliqué, le décodage des instructions x86 en micro-ops avant leur injection dans le pipeline est arrivé bien avant le 64 bits (2002), aussi bien chez Intel (Pentium Pro, 1995) que chez AMD (K5, 1996).
Et clairement, aujourd'hui ces micro-ops ne peuvent pas être considérées comme du RISC, c'est plutôt du VLIW, depuis qu'Intel a introduit la fusion de micro-ops (avec le Pentium M, repris plus tard par AMD de façon très limitée dans le K8, puis plus complète dans le K9).

De même pour le pipeline et l'exécution out-of-order, ce n'est pas AMD qui a introduit ça dans le x86.
Le 8086, c'est-à-dire le tout premier CPU x86, il avait déjà un pipeline (en fait, j'aimerais bien un exemple de processeur sans pipeline... je ne pense pas que ça existe), et le premier x86 conçu par AMD était l'Am386 (avant, AMD utilisait directement les micro-architecture Intel sous licence), des années plus tard.
Pour l'out-of-order, le premier x86 à le faire était le Pentium Pro, en 1995, suivi par l'AMD K5 en 1996 (qui est du coup le premier x86 grand-public à le faire, mais pas le premier x86... chez Intel c'est arrivé chez le grand public avec le Pentium II, basé sur le Pentium Pro, en 1997).
Quand à la parallélisation en interne, avec les pipelines superscalaires, c'est aussi Intel qui l'a introduit sur le x86, avec le Pentium, en 1993, AMD a attendu 96 avec le K5.

Et c'est d'ailleurs pareil sur les CPU ARM les plus performants, qui ont aussi adopté le décodage en micro-ops suivi d'une fusion de micro-ops et atteignent un niveau de complexité qui n'a plus rien à voir avec ce que prône le RISC (un cœur Apple Cyclone, c'est aujourd'hui plus complexe qu'un cœur Intel Atom : l'analyse de la surface des cœurs démontre clairement que le cœur Cyclone utilise plus de transistors que le cœur Atom, et ce malgré une quantité de cache moindre...).

Citation (r@net54 @ 15 Mar 2015, 15:10) *
C'est deux arguments sont recevables, mais ne justifient pour autant pas l’arrêt de la croissance de la puissance...
La croissance de la puissance n'a pas été arrêtée, sur les marchés où il y a encore une forte demande pour de la puissance supplémentaire : serveurs et datacenter.

Sur le marché du PC, la demande pour plus de puissance c'est clairement tassée, depuis un moment. Parce qu'on a aujourd'hui des CPU qui répondent aux besoins de 99% des gens sans ralentissements.

Je me souviens que quand j'ai commencé à m'intéresser à l'informatique, je changeais régulièrement de CPU, en prenant toujours le plus haut de gamme. Je ne changeais pas parce qu'il y avait plus puissant que ce que j'avais, mais parce que j'avais "besoin" de plus puissant, ce que je ressentais régulièrement à l'usage. Maintenant, je change pour réduire la consommation, et je ne prends même plus les puces les plus haut de gamme, car je sais que je n'ai absolument pas besoin du supplément de puissance qu'elles apportent... Tu me proposerais aujourd'hui un processeur deux fois plus rapide que le mien pour la même efficacité énergétique, ça ne m'intéresserait pas de le changer (de fait, ça existe du x86 deux fois plus performant que le mien, et non, ça ne m'intéresse pas de changer... je changerais peut-être dans deux ou trois ans...). Parce que je ne vois pas dans quel usage ça m'apporterait quelque chose. Même mon portable, beaucoup moins puissant que mon PC de bureau, me suffit en fait dans l'écrasante majorité des cas !

Et ce tassement de la demande de puissance ne concerne d'ailleurs pas que les CPU des PC, c'est aussi le cas sur les GPU (aujourd'hui avec un GPU milieu de gamme de 2-3 ans, tu fais tourner tous les jeux avec une bonne qualité, il y a dix ans c'était vraiment pas le cas), sur les mobiles...

Citation (r@net54 @ 15 Mar 2015, 15:10) *
Fondamentalement le x86 est par principe mauvais en efficacité énergétique
Sauf que aujourd'hui des solutions x86 sont régulièrement plus efficaces énergétiquement que des solutions à base d'ARM. Il n'y a que sur les CPU les moins performants qu'ARM arrive à surpasser l'efficacité énergétique du x86...

Tiens par exemple, puisque l'autre jour tu vantais les mérites du X-Gene sur les serveurs, qui menacerait selon toi Intel, voici ce que ça donne niveau efficacité énergétique : http://www.anandtech.com/show/8357/explori...er-platforms/17
Le X-Gene offre les performances d'un Atom C pour deux fois et demi sa consommation, tandis que le Xeon E3-1230L a une efficacité énergétique près de 3 fois supérieure à celle du X-Gene... Tu parles d'une menace ^^

De même, si tu regardes ce qu'un Core M est capable de sortir comme performances avec une enveloppe thermique de 5W et si tu compares ça à ce que sort un SoC ARM haut de gamme, avec là aussi une enveloppe thermique qui approche aujourd'hui les 5W, voir la dépasse, ça ne fait aucun doute que l'efficacité énergétique est supérieure sur le Core M.

Tiens, quelques chiffres de consommation à la prise mesurés à l'instant avec des appareils Android exécutant BOINC à 100% de charge CPU, écran éteint et batterie chargée, tous branchés au chargeur du Nexus 6 (sauf la TF701T qui a besoin de son chargeur propriétaire) :
- 9.3W la tablette TF701T en Tegra 4
- 10.3W pour le Nexus 6 en Snapdragon 800 (et ça tombe à 8.3 quand il se met à faire du throttling parce que la température dépasse largement les limites du raisonnable et qu'on se retrouve avec un cœur à l'arrêt et un au 2/5 de sa fréquence)
- 5.1W avec la Nexus 7 2013 en Snapdragon S4 Pro
- 1.7W pour le Moto G 2013 en Snapdragon 400

Bien sûr on peut sans doute enlever 10-30% à cause du rendement du transfo, mais ça reste quand même des consommations élevées, on est loin des SoC ARM haut de gamme 2-3W d'il y a quelques années, des niveaux de consommation qu'on ne trouve plus que sur l'entrée de gamme aujourd'hui...


--------------------
Go to the top of the page
 
+Quote Post
r@net54
posté 15 Mar 2015, 16:26
Message #28


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 3 458
Inscrit : 23 Mar 2004
Lieu : Paris / Vancouver
Membre no 16 640



Citation (SartMatt @ 15 Mar 2015, 13:12) *
Citation (r@net54 @ 15 Mar 2015, 12:21) *
Mais regarde autour de toi: ici personne ne t'agresse
Il est mignon... L'autre jour, quand je contestais la validité des premiers résultats Geekbench des nouveaux MBP/MBA, tu m'as traité de "dévot du x86", et maintenant, alors que les faits me donnent finalement raison et que je pointe du doigt ton magistral retournement de veste sur le sujet (puisque tu considères maintenant que les gains de performances étaient attendus, trois jours après m'avoir insulté parce que je contestais la validité d'un test qui ne montrait pas de gain...


Malgré ton cynisme, tes sarcasmes et tes véhémences gratuites, je ne t'ai jamais insulté. Pas plus qu je ne me permet d'avoir des comportements comme les tiens qui vont a la limite de l'agression dans des interpellations de plus en plus vulgaires face a des gens qui ne t'ont même pas désignés dans leurs propos.

Je sais pas ce que je t'ai fais -ni ce que t'ont fait les autres- mais tu as l'air d'etre bloqué sur une idee fixe. Si je critique un produit d'Intel on dirait que c'est un outrage que je te fais personnellement, et si je constate un bénéfice, c'est soit que je suis une girouette, soit tu l’éludes soigneusement...
Tu es dans un trip flippant tu sais, faut pas focaliser sur les gens comme ca.
Y a pas de complot contre toi et ici c'est pas ton site non plus.
Je te le redis, ici personne ne t'agresse, personne ne sait même qui tu es et n'a envie de le savoir. Tu n'es personne, tu n'as pas d’intérêt, pas plus que n'importe quel autre membres qui veut donner un avis. Seuls les débats techniques comptent ici, alors s'il te plait, reste poli et civilisé et ne prends pas ce lieux de partage et de connaissance pour ce qu'il n'est pas et surtout vient pas amener ici tes problèmes d'ego, de boulot ou personnels.
Apres si tu as le sentiment que tu es investi d'une mission ou un truc du genre, c'est pas sur un site techno qu'il faut venir et chercher des noises aux uns et aux autres histoire de marquer ton territoire.

Sur ce, bonne fin d'aprem et va profiter de l'air frais.

Ce message a été modifié par r@net54 - 15 Mar 2015, 16:27.


--------------------
Agnostique multipratiquant: Unixs, Linux, Mac OS X, iOS et un peu de Windows. Des Macs, des iDevices, des PC et des "ordinosaures"…
Citation
« Celui qui t’entretient des défauts d’autrui entretient les autres des tiens. »,
« Quand on suit une mauvaise route, plus on marche vite, plus on s'égare. »
Diderot
Go to the top of the page
 
+Quote Post
SartMatt
posté 15 Mar 2015, 16:49
Message #29


Macbidouilleur d'Or !
*****

Groupe : Rédacteurs
Messages : 30 367
Inscrit : 15 Nov 2005
Membre no 49 996



Citation (r@net54 @ 15 Mar 2015, 16:26) *
Malgré ton cynisme, tes sarcasmes et tes véhémences gratuites, je ne t'ai jamais insulté.
Si tu considères que "dévot" ou "apôtre" n'est pas insultant, permet moi de considérer que "girouette" ne l'est pas.

Et si tu cessais une bonne fois pour toute de lancer des affirmations gratuites, sans la moindre source pour les prouver, même quand on t'en réclame quinze fois, je serais sûrement moins sarcastique. Désolé, mais quand je me fait chier à faire des explications argumentées et sourcées, je n'apprécie pas qu'on me contredise sans aucune argumentation ni source. Qu'on m'explique et qu'on me prouve que j'ai tort, je n'ai rien contre, bien au contraire, c'est justement pour ça que je participe à des forums. Mais qu'on prétende que j'ai tort sans jamais être en mesure de prouver ses propos, et alors que j'ai pour ma part apporté arguments et sources, je ne l'accepte pas. Et forcément à la longue, à force de répéter quinze fois la même chose, je finis par perdre patience et devenir sacrastique... Surtout que tu ne te gênes pas pour manipuler toi aussi le sarcasme hein...

Je constate d'ailleurs ici encore que plutôt que de me répondre sur le fond, avec des arguments, tu ne parles plus que de la forme... Faute d'arguments de fond ? Et c'est comme ça à chaque fois avec toi, dès qu'on te demande d'argumenter sur le fond, c'est silence radio, ou bien répétition des mêmes affirmations comme si elles étaient elles mêmes un argument (voir retournement de veste si vraiment ta position n'est plus tenable...) rolleyes.gif Si je faisait la liste de toutes les fois où je t'ai demandé d'apporter une source ou des arguments techniques à tes propos sans obtenir de réponse, je pourrais remplir des pages de ce forum avec... Rien que sur cette semaine, ça doit dépasser les dix fois...

Citation (r@net54 @ 15 Mar 2015, 16:26) *
Si je critique un produit d'Intel on dirait que c'est un outrage que je te fais personnellement, et si je constate un bénéfice, c'est soit que je suis une girouette
Tu peux critiquer tous les produits Intel que tu veux, tout comme ceux de n'importe quelle autre société, sans que ça me dérange. Tant que la critique est étayée par des arguments vérifiables dans les faits.
De même, tu peux critiquer un produit Intel et constater un bénéfice sur un autre sans être une girouette. Par contre affirmer un jour qu'il est CERTAIN que Broadwell n'apporte pas de gain de performance pour dire 3 jours plus tard que le gain de performances observé est attendu, ça oui, c'est être une girouette. Alors forcément, quand en plus la première fois tu m'as insulté parce que j'ai osé dire que l'absence de gain n'était pas normale et qu'il faudrait attendre d'autres tests, j'ai du mal à accepter que tu dises ensuite que le gain était attendu, c'est-à-dire exactement les propos pour lesquels tu m'avais insulté...

Citation (r@net54 @ 15 Mar 2015, 16:26) *
Je sais pas ce que je t'ai fais -ni ce que t'ont fait les autres- mais tu as l'air d'etre bloqué sur une idee fixe.
Ce que tu m'as fait ? Simplement un refus trop fréquent d'argumenter sur le fond, un refus d'apporter une source à tes propos, un refus de prendre en compte les démonstrations faites par d'autres (que ça soit moi où n'importe qui d'autres) qui montrent les faiblesses de tes positions face aux faits, un refus obstiné à ne pas voir la réalité en face quand on t'apporte pourtant sur un plateau toutes les preuves nécessaires.

Citation (r@net54 @ 15 Mar 2015, 16:26) *
Tu n'es personne, tu n'as pas d’intérêt [...] surtout vient pas amener ici tes problèmes d'ego, de boulot ou personnels
Et ça dit rester poli et civilisé, sans faire d'attaques personnelles rolleyes.gif
Alors, pourquoi toujours pas de réponses à mes questions sur le fond ? rolleyes.gif
Comment selon toi une hausse de fréquence de base de 3% et une baisse de fréquence turbo de 3% aurait apporté 6% de gain de performance ?

Citation (r@net54 @ 15 Mar 2015, 16:26) *
Seuls les débats techniques comptent ici, alors s'il te plait, reste poli et civilisé
Alors toi aussi, reste poli et civilisé. Et si tu aimes les débats techniques, prouve le : un débat sans argumentation étayée, ça n'est pas un débat ! Car ce qui est important dans le débat, c'est justement les arguments, pas les idées. Ce sont les arguments qui donnent toute leur valeur aux idées.

Pour citer un exemple récent, dire que comparer la puissance brute du CPU d'un SoC avec celle d'un CPU hors SoC c'est aussi incohérent et approximatif que comparer un CPU à un DSP, mais sans apporter le moindre argument expliquant pourquoi, ça n'a aucune valeur (et en prime, c'est insultant pour celui qui a fait l'effort de construire cette comparaison avec des arguments techniques sur la question). Je n'accepte pas qu'on dise que mes propos sont incohérents sans m'expliquer en quoi ils le sont. Et quand je t'ai demandé pourquoi, hop, silence radio, y a plus personne...

De même, dans ce fil de discussion, tu as affirmé que les mêmes gains auraient été possibles en appliquant les mêmes fréquences à des Haswell ou des Broadwell. Je t'ai apporté des arguments techniques expliquant pourquoi de mon point de vue on n'aurait pas pu avoir les mêmes gains, et pourquoi, quand bien même ce serait vrai, ça n'aurait pas d'intérêt (plus cher, plus énergivore). Je t'ai demandé d'apporter des arguments étayant ta thèse, pour les confronter aux miens. Peine perdue, pas de réponse...

Alors arrête de chercher à faire croire que tu veux du débat technique : prouve le en participant au débat technique. Avec des arguments.


--------------------
Go to the top of the page
 
+Quote Post
Dreaming
posté 15 Mar 2015, 19:41
Message #30


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 5 851
Inscrit : 8 Dec 2004
Lieu : Dans un coin perdu du 41
Membre no 28 453



Comme s'il allait s'abaisser à ça...


--------------------
Macbook 2006 C2D 2 GHz, 3 Go, Snow Leopard
Macbook Pro 15" 2010 i5 2,4 GHz, 4 Go, Mavericks (pour ma chérie)
Nexus 4 sous Lollipop
Samsung Galaxy S2 sous Gingerbread (pour ma chérie)
Deux chats

Le blog de ma chérie
Go to the top of the page
 
+Quote Post
Eagle Kiss
posté 15 Mar 2015, 19:43
Message #31


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 3 390
Inscrit : 5 Jan 2002
Lieu : Nantes (aux confins du Retz)
Membre no 1 754



Moi je pense que votre différent est récurrent et qu'il fini par polluer les topics. Une bonne petite explication en MP ferait le plus grand bien à la communauté wink.gif


--------------------
En service :
MacBook Pro 15" mi 2014 • i7 2,5Ghz • SSD 512Go • 16Go RAM • Mojave • Refurb
Mac Mini Early 2006 • Core Duo 1,66Ghz • HD 80Go • 2Go RAM • Snow Leopard • Récup en 2016 • Station média musique dans le salon
En sommeil :
PowerMac G5 Late 2005 • Dual 2Ghz • Leopard • Récup en 2016
iBook G3 Late 2001 • 600Mhz • Tiger
Vendu : MacBook Pro 15" Early 2011 • i7 2Ghz • SSD M4 256Go • 8Go RAM • Sierra • Refurb
Volé : PowerBook 1400 CS • 117Mhz • Mac OS 9.1
HS : iPod classic 80Go • Refurb • DD HS
WAG
Go to the top of the page
 
+Quote Post
bricoleur
posté 15 Mar 2015, 20:43
Message #32


Adepte de Macbidouille
*

Groupe : Membres
Messages : 82
Inscrit : 16 May 2008
Membre no 114 265



Moi, j'ai une question basique rolleyes.gif (excusez de ne pas maîtriser aussi bien que nos deux spécialistes qui s'affrontent ci-dessus):

Quelle est la configuration optimum pour un MBA 11 pouces au niveau de l'autonomie? Si je prends un processeur plus puissant, ça devrait logiquement consommer plus, non? Plus puissant = plus gourmant ? Je veux surtout faire des choses simples (écrire, sufer et voir des films en déplacement).

Je pensais prendre 8 de Ram et 256 de SSD. Mais quid du cpu? Merci
Go to the top of the page
 
+Quote Post
SartMatt
posté 15 Mar 2015, 21:03
Message #33


Macbidouilleur d'Or !
*****

Groupe : Rédacteurs
Messages : 30 367
Inscrit : 15 Nov 2005
Membre no 49 996



Citation (bricoleur @ 15 Mar 2015, 20:43) *
Quelle est la configuration optimum pour un MBA 11 pouces au niveau de l'autonomie? Si je prends un processeur plus puissant, ça devrait logiquement consommer plus, non? Plus puissant = plus gourmant ? Je veux surtout faire des choses simples (écrire, sufer et voir des films en déplacement).
Non, ça ne consomme pas forcément plus, les processeurs modulent leur fréquence en fonction des besoins, ce qui fait que bien souvent le processeur plus rapide sur la fiche technique tournera à la même vitesse et avec la même consommation que le modèle moins rapide... Et en pleine charge sur une tâche lourde, il consommera plus, mais moins longtemps... Du coup c'est difficile de déterminer quelle machine donnera effectivement le maximum d'autonomie pour une tâche donnée autrement qu'en mesurant, sauf bien sûr pour des tâches de pleine charge constante ou clairement le processeurs moins rapide durera plus longtemps (mais n'abattra pas forcément plus de travail !).

Mais sur un usage comme celui que tu décris, je pense pas qu'il y ait des écarts significatifs, vu que le processeur passera le plus clair de son temps au repos ou presque. Du coup, si j'étais toi je me contenterais du i5, le surcoût du i7 n'est pas justifié.


--------------------
Go to the top of the page
 
+Quote Post
bricoleur
posté 15 Mar 2015, 22:13
Message #34


Adepte de Macbidouille
*

Groupe : Membres
Messages : 82
Inscrit : 16 May 2008
Membre no 114 265



Merci smile.gif pour l'explication (plus puissant Vs moins longtemps) et le conseil: ça confirme ce que je pensais. Du coup je vais rester au i5.
Go to the top of the page
 
+Quote Post
iAPX
posté 15 Mar 2015, 22:26
Message #35


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 10 543
Inscrit : 4 Jan 2006
Lieu : Montréal
Membre no 52 877



Tout ça pour quoi?!?

Finalement les performances stagnent depuis les Core™2 à micro-architecture core, avec de légers mieux chaque génération, mais si on compare un MacPro 2010 12-coeurs et un MacPro vendu aujourd'hui en 2015 avec 12 coeurs, c'est juste 20% de plus sur GeekBench 64bit multi-coeur! 20% en près de 5ans, c'est une progression ça???

3,7% par an d'augmentation en moyenne.


--------------------
Apple fanboy, un des rares ici à défendre immanquablement l'immaculée (pas le prononcer "y m'a 'culé" svp!) vertu de cette société qui est le dernier rempart de la civilisation contre la barbarie, grâce au Précieux!
Go to the top of the page
 
+Quote Post
SartMatt
posté 15 Mar 2015, 22:54
Message #36


Macbidouilleur d'Or !
*****

Groupe : Rédacteurs
Messages : 30 367
Inscrit : 15 Nov 2005
Membre no 49 996



Citation (iAPX @ 15 Mar 2015, 22:26) *
Finalement les performances stagnent depuis les Core™2 à micro-architecture core, avec de légers mieux chaque génération, mais si on compare un MacPro 2010 12-coeurs et un MacPro vendu aujourd'hui en 2015 avec 12 coeurs, c'est juste 20% de plus sur GeekBench 64bit multi-coeur! 20% en près de 5ans, c'est une progression ça???

3,7% par an d'augmentation en moyenne.
Alors déjà, faudrait pas oublier que le Mac Pro vendu en 2015, il a pas un processeur de 2015 mais un processeur de 2013. Depuis Intel a fait plus performant (le E5-2697v2 12c a été remplacé par un E5-2697v3 à 14c gérant la DDR4, avec 100 MHz de moins sur la fréquence de base, mais 100 de plus sur toutes les fréquences turbo, y compris avec les 14c actifs, et il y a désormais aussi des 16c et 18c), mais Apple n'a pas daigné mettre à jour sa machine...

Ensuite, si je regarde la base de résultats de Geekbench, je vois plutôt 30% de gain. 30% de gain en trois ans et demi donc (mars 2010 pour le X5650 du Mac Pro 12c 2010, septembre 2013 pour le E5-2697v2 du Mac Pro 12c 2013), et non pas 20% en cinq ans. Ce qui fait une moyenne de 7.8% par an.

Je m'explique pour les 30% :
- La plage de variation pour le Mac Pro Mid 2010 2.66 GHz dans la base Geekbench est de 1101/11970 à 2384/26467 (je suis toujours aussi fan de la fiabilité de Geekench rolleyes.gif ). La médiane est à environ 2180/22900 (le browser permet pas d'avoir la médiane quand il y a plus de résultats, mais on peut voir que le 1000ème meilleur est à 2183/22967 et le 1000ème plus mauvais à 2176/22856).
- Pour le Mac Pro Late 2013 2.7 GHz, ça va de 1801/17659 à 3287/33461 avec une médiane à 2920/29600 environ (là encore, on voit la fiabilité du bench...).
- Sur la médiane, le gain est donc de 34%/29%.

Et faut pas oublier que dans le même temps, il y a eu des gains de consommations importants (le Mac Pro 12 cœurs de 2010, c'était 190W de TDP au total pour les processeurs, contre 130W pour le Mac Pro 2013) et que pour ceux qui ont besoin de plus de puissance, il y a la possibilité d'avoir plus de deux fois plus de cœurs avec le même nombre de sockets par rapport à 2010 : maxi 8 cœurs par socket en 2010, 18 en 2014). Forcément, quand on met l'accent sur la baisse de consommation, on ne peut plus augmenter autant les performances... Si tu regardais à consommation égale, les gains de performances seraient largement supérieurs à ce que tu observes entre les deux Mac Pro, et ça va encore s'accentuer (le Xeon D a théoriquement des performances brutes en multi-cœur supérieures à celles du quadri-cœur du Mac Pro d'entrée de gamme, dans une enveloppe thermique de 45W, chipset compris puisque c'est un SoC !).


Accessoirement, le Mac Pro de 2010, c'était déjà trois générations après la sortie du Core 2 (c'était du Westmere)... Depuis le Core 2, le gain d'IPC est de 47% selon Intel : http://2eof2j3oc7is20vt9q3g7tlo5xe.wpengin...c-over-time.jpg


C'est sûr que sur une telle période, avoir seulement 47% de gain d'IPC, ça parait peu. Mais je suis pas sûr que c'était beaucoup mieux dans la décennie précédente. En fait, je pense même que les progrès d'IPC ont été moindres pendant les décennie précédente (même en excluant Netburst, qui avait induit une forte baisse d'IPC), c'est la montée en fréquence qui faisait le gros des gains de performances d'une génération à l'autre, à l'époque où on arrivait encore à faire +50% en fréquence sur un an.


On observe ce même problème sur tous les CPU hautes performances, les fréquences stagnent, seul l'amélioration de l'IPC et la multiplication des cœurs permettent de gagner en performances, mais du coup c'est plus des gains énormes. La seule exception, c'est ARM, mais parce que niveau performance ils viennent de très loin et avaient jusqu'à peu des fréquences très largement inférieures aux limites (quand Intel et IBM plafonnaient déjà aux alentours de 4 GHz, les ARM les plus rapides moulinaient encore aux alentours de 400 MHz...), mais les limites commencent à être atteintes, on voit que les fabricants de SoC se mettent à multiplier les cœurs parce qu'ils n'arrivent plus à monter en fréquence sans exploser la consommation, et les progrès sur l'IPC se paient également sur la consommation... Quand je vois mon smartphone qui tire 10W à la prise quand le processeur est à pleine charge, écran éteint et sans charger la batterie, ça fait peur sad.gif


--------------------
Go to the top of the page
 
+Quote Post
zero
posté 16 Mar 2015, 04:37
Message #37


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 11 330
Inscrit : 25 Nov 2001
Membre no 1 397



Citation (r@net54 @ 15 Mar 2015, 23:10) *
Fondamentalement le x86 est par principe mauvais en efficacité énergétique, du fait qu'il s'appuie sur la conjecture de Moore, ce qui pourrait revenir -en reprenant l'exemple de l'ampoule a incandescence- a dire que pour augmenter la production lumineuse on augmente la puissance électrique, le filament doublant sa résistance a l’évaporation tous les 18 moi

La loi de Moore est juste une approximation grossière pour prévoir l'évolution de la puissance des ordinateurs sur le marché. Elle a déjà été rafistolée pour s'adapter la réalité d'ailleurs. De nos jours, le marché change à grand pas vers l'informatique intégrée à toute sorte d'appareils. L'ordinateur n'est plus le roi. Ce n'est pas à cause du mur technologique dont tu parles même si il se fait de plus en plus sentir. La plupart de ces nouveaux appareils ont besoin de puces économes. Plus le marché change, plus cette loi perdra son sens.

Bref, toute ta réflexion est fondée sur du vieillot. (Moore, Architectures, AMD, etc)

PS: Les ampoules a incandescences aussi sont obsolettes.
Go to the top of the page
 
+Quote Post
Webtourist
posté 16 Mar 2015, 12:21
Message #38


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 1 633
Inscrit : 28 Oct 2008
Membre no 124 528



J'attends surtout le test de performances du nouveau macbook. Quand peut-on l'espérer?


--------------------
AdBlock désactivé sur MB
Go to the top of the page
 
+Quote Post
SartMatt
posté 16 Mar 2015, 15:12
Message #39


Macbidouilleur d'Or !
*****

Groupe : Rédacteurs
Messages : 30 367
Inscrit : 15 Nov 2005
Membre no 49 996



Citation (Webtourist @ 16 Mar 2015, 12:21) *
J'attends surtout le test de performances du nouveau macbook. Quand peut-on l'espérer?
Sans doute pas avant sa commercialisation, donc en avril... Il n'est pas dans les habitudes d'Apple d'envoyer des exemplaires à la presse avant le lancement (ou en tout cas, pas sans un NDA imposant d'attendre le lancement pour publier...).


--------------------
Go to the top of the page
 
+Quote Post
Bug
posté 16 Mar 2015, 17:43
Message #40


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 2 352
Inscrit : 29 Aug 2005
Membre no 44 705



Citation (Webtourist @ 16 Mar 2015, 12:21) *
J'attends surtout le test de performances du nouveau macbook. Quand peut-on l'espérer?


Quelque chose de similaire au MacMini 1.4Ghz actuel.


--------------------
AppCleaner Désinstaller proprement Mac in chemistry Mac et sciences
AppShoper Toutes les promos iOS D-O-F Blog français sur FCPX
Go to the top of the page
 
+Quote Post
Lionel
posté 16 Mar 2015, 17:48
Message #41


BIDOUILLE Guru
*****

Groupe : Admin
Messages : 52 602
Inscrit : 14 Jan 2001
Lieu : Paris
Membre no 3



Citation (zero @ 16 Mar 2015, 04:37) *
Citation (r@net54 @ 15 Mar 2015, 23:10) *
Fondamentalement le x86 est par principe mauvais en efficacité énergétique, du fait qu'il s'appuie sur la conjecture de Moore, ce qui pourrait revenir -en reprenant l'exemple de l'ampoule a incandescence- a dire que pour augmenter la production lumineuse on augmente la puissance électrique, le filament doublant sa résistance a l’évaporation tous les 18 moi

La loi de Moore est juste une approximation grossière pour prévoir l'évolution de la puissance des ordinateurs sur le marché. Elle a déjà été rafistolée pour s'adapter la réalité d'ailleurs. De nos jours, le marché change à grand pas vers l'informatique intégrée à toute sorte d'appareils. L'ordinateur n'est plus le roi. Ce n'est pas à cause du mur technologique dont tu parles même si il se fait de plus en plus sentir. La plupart de ces nouveaux appareils ont besoin de puces économes. Plus le marché change, plus cette loi perdra son sens.

Bref, toute ta réflexion est fondée sur du vieillot. (Moore, Architectures, AMD, etc)

PS: Les ampoules a incandescences aussi sont obsolettes.

La loi de Moore n'est une loi que parce que Gordon Moore était un éminent cadre d'Intel. La société a érigé en dogme ce qui était une constatation sur les évolutions passées.


--------------------
C'est parce que la vitesse de la lumière est plus grande que celle du son que tant de gens paraissent brillants avant d'avoir l'air con
Go to the top of the page
 
+Quote Post
Webtourist
posté 17 Mar 2015, 13:15
Message #42


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 1 633
Inscrit : 28 Oct 2008
Membre no 124 528



Citation (Bug @ 16 Mar 2015, 17:43) *
Citation (Webtourist @ 16 Mar 2015, 12:21) *
J'attends surtout le test de performances du nouveau macbook. Quand peut-on l'espérer?


Quelque chose de similaire au MacMini 1.4Ghz actuel.

Non, alors là, pas du tout.

ce qu'il y a dans le mac mini, corrigez moi si ce n'est pas ca, est un i5 bicoeur (4e G.) 1,4Ghz (turbo 2,7) prévu pour une enveloppe thermique de 15W et refroidit activement par le mini.

Dans le cas du macbook, c'est un bicoeur (5e G.) 1,2-1,4Ghz (turbo 2,6?) prévu pour une enveloppe thermique de 4,5-6W et refroidit passivement. (intel laisse beaucoup de liberté aux constructeurs pour "paramétrer" le fonctionnement de ce CPU en fonctoin de la contrainte thermique, donc un même CPU de cette gamme aura des performances plus ou moins différentes selon les constructeurs/appareils)

Ca ne va pas du tout donner les mêmes performances. Le mini refroidit activement et le fanless ne vont pas du tout extraire la même puissance. le fanless va beaucoup plus difficilement tenir une charge "lourde" (comprendre utilisation CPU/GPU élevée) sans sous-cadencer les parties CPU et GPU.

Ce message a été modifié par Webtourist - 17 Mar 2015, 13:22.


--------------------
AdBlock désactivé sur MB
Go to the top of the page
 
+Quote Post

2 Pages V  < 1 2 >
Reply to this topicStart new topic
1 utilisateur(s) sur ce sujet (1 invité(s) et 0 utilisateur(s) anonyme(s))
0 membre(s) :

 



Nous sommes le : 24th January 2019 - 08:15