IPB

Bienvenue invité ( Connexion | Inscription )

4 Pages V  « < 2 3 4  
Reply to this topicStart new topic
> [Rumeur] Apple travaillerait bien à des Mac ARM, Réactions à la publication du 24/05/2014
Options
jlu
posté 26 May 2014, 07:34
Message #91


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 5 710
Inscrit : 19 Nov 2002
Lieu : Uzes
Membre no 4 743



le jour ou j'en verrais un dans le top 500, je changerais d'avis
http://www.top500.org
meme AMD a été distancé, le premier est deux fois plus lent


--------------------
MacPro 5.1 3,47 Ghz 6 core, 32 Go, MacOS 10.11.6 nVidia GTX 780, Airport, Bluetooth, SSD 250 Go, DD 1000 Go
MacPro 3.1 2*2,8 Ghz 16Go, MacOS 10.9.5, NVIDIA GTX 680 Mac, Airport, Bluetooth, DD 2000 Go +1000 Go +1000 Go + SSD 240 Go, Pioneer DVR-111D + Optiarc AD-7170A, Dell U2713HM, Dell 2709 WFP, LiveBox abonnement Open, Time Capsule 2Go, AppleTV2, AppleTV3, Apple Watch2 42 mm noire, iPhone 6 64 Go, Orange Open, iPad Retina 32Go, iPod Video 60Go Blanc, iPhone V1 8 Go, déverrouillé légalement. PC auto-monté Gigabyte Z77-DS3H rev1.1, corei5-3570K 3.4Ghz, Radeon HD 6870, Clavier Apple avec pavé numérique, 8Go, Dell 2707 WFP, MacOS 10.10.4, imprimantes, Epson Stylus Photo RX640, Brother HL-3140CW series-AirPrrint
Go to the top of the page
 
+Quote Post
Ambroise
posté 26 May 2014, 08:52
Message #92


Macbidouilleur de bronze !
**

Groupe : Membres
Messages : 494
Inscrit : 18 Sep 2007
Membre no 95 094



Citation (JoKerforever @ 24 May 2014, 11:01) *
Pourquoi les processeurs ARM qui pourraient être intégré aux Mac ne seraient pas de vraies processeurs puissants ?
Beaucoup de progrès on été réalisé dans le domaine.


Si on regarde l'histoire des ARM face aux x86 alors on peut avoir quelques doutes sur les progrès d'ARM. Je me souviens quand Acorn avait sorti sa bombe : l'Archimedes avec son ARM2 à 8Mhz qui a l'époque battait à plates coutures le 386 à 16Mhz alors que le processeur ARM coûtait 5 fois moins cher.
Mais le 486 est sorti et a fait oublier les bonnes performances d'ARM.
Et depuis l'écart s'est largement creusé : en 25 ans nous sommes passés d'un ARM2 1,2x plus rapide que le contemporain 80386, à un ARM Cortex-A57 octo-coeurs 25 fois moins rapide qu'un actuel Xeon E5.
Go to the top of the page
 
+Quote Post
phulax
posté 26 May 2014, 10:29
Message #93


Adepte de Macbidouille
*

Groupe : Membres
Messages : 191
Inscrit : 29 Mar 2003
Membre no 6 886




tout ça me paraît pas trop compliqué. Porter un OS à micro noyau ne doit pas poser de problème particulier, Next l'avait déjà fait sur SPARC POWER HP et X86. Pourquoi pas sur ARM ou autre chose. Fourbir une carte mère ARM de tablette sur un portable ne doit pas être beaucoup plus compliqué que de mettre une carte mère de portable dans un desktop (southbridge ?). Répondre à la temporaire stagnation d'Intel sur les perf et la consomation est peut être la vraie raison de la différentiation. En tout cas, dans les datacenter où la mesure est le PUE, tout le monde demande de l'archi basse consomation et les réalisations d'HP sur le sujet (moonshot). Aujourd'hui , dans un datacenter moderne, les applications ne savent pas quel type de processeur elles utilisent.


--------------------
MacBook Pro 13" / Ipad pro
Go to the top of the page
 
+Quote Post
Lanza
posté 26 May 2014, 14:19
Message #94


Adepte de Macbidouille
*

Groupe : Membres
Messages : 242
Inscrit : 15 Feb 2004
Membre no 14 861



Citation (SartMatt @ 25 May 2014, 00:48) *
]En gros, ça serait 50 à 100% plus rapide que les processeurs ARM 2 ou 4 cœurs d'aujourd'hui (qui tournent entre 1.5 et 2.3 GHz en haut de gamme).

Côté consommation, dans le meilleur des cas, elle doublerait. Mais c'est un cas totalement utopique : il faudrait arriver à doubler la fréquence sans toucher au design de la puce et sans augmenter la tension de fonctionnement.

En réalité, il faudrait au minimum augmenter les tensions, ce qui ferait augmenter la consommation (de manière très empirique, la consommation d'une puce est une fonction linéaire de la tension et du taux d'utilisation et quadratique de la tension d'alimentation), mais sans doute aussi revoir le design de certaines portions du CPU, pour l'adapter à des fréquences plus élevées, avec en conséquence une hausse supplémentaire de la consommation...

Merci pour ta réponse plus que complète. smile.gif


--------------------
Hackintosh i7 4790k 4Ghz sur Gigabyte Z87MX-D3H, Radeon RX 480, RAM 12Go, SSD 128 + 256 Go, DD 1,5 To... sous Linux.
Macbook Noir (avec carte mère blanche 2008) (C2D 2,4GHz, RAM 4Go, DD320Go). Sous Linux itou.
iPhone 5

Membre du club des AIPBP (Anciens Inscrits Pas Beaucoup de Posts) Voir la liste
Go to the top of the page
 
+Quote Post
Lionel
posté 26 May 2014, 14:23
Message #95


BIDOUILLE Guru
*****

Groupe : Admin
Messages : 55 346
Inscrit : 14 Jan 2001
Lieu : Paris
Membre no 3



Si je me rappelle bien, la tension est en fait élevée au carré dans le calcul de la consommation d'une puce. On a en gros une équation du genre C = R x F x T(carré).
C est la consommation totale, R une constante de résistance propre à chaque puce, F la fréquence et T la tension appliquée en volt. Donc, toucher à la tension a un très fort impact sur la consommation, bien plus que de jouer avec la fréquence.


--------------------
C'est parce que la vitesse de la lumière est plus grande que celle du son que tant de gens paraissent brillants avant d'avoir l'air con
Go to the top of the page
 
+Quote Post
SartMatt
posté 26 May 2014, 14:26
Message #96


Macbidouilleur d'Or !
*****

Groupe : Rédacteurs
Messages : 32 187
Inscrit : 15 Nov 2005
Membre no 49 996



Citation (Lionel @ 26 May 2014, 15:23) *
Si je me rappelle bien, la tension est en fait élevée au carré dans le calcul de la consommation d'une puce. On a en gros une équation du genre C = R x F x T(carré).
C est la consommation totale, R une constante de résistance propre à chaque puce, F la fréquence et T la tension appliquée en volt. Donc, toucher à la tension a un très fort impact sur la consommation, bien plus que de jouer avec la fréquence.
Yep, c'est ce que je voulais dire en fait, mais j'ai écrit deux fois tension, le premier c'était en fait la fréquence ^^


--------------------

Go to the top of the page
 
+Quote Post
flan
posté 26 May 2014, 22:07
Message #97


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 1 608
Inscrit : 1 Jul 2006
Membre no 63 808



J'aimerais bien voir la différence entre un système ARM et un système x86-64, une fois qu'on regarde les plates-formes complètes avec la RAM (100 Go de RAM, ça consomme beaucoup, et ça coûte quand même un peu) et tout la structure (un châssis, une carte-mère, une double-alim, etc., ça coûte sensiblement la même chose que ce soit pour du ARM ou pour du x86).

Bref, même si le x86 coûte 3 fois plus cher, une plate-forme complète ARM ne sera pas forcément beaucoup moins chère, et ne consommera pas forcément beaucoup moins, qu'une plate-forme x86.
Go to the top of the page
 
+Quote Post
SartMatt
posté 26 May 2014, 22:17
Message #98


Macbidouilleur d'Or !
*****

Groupe : Rédacteurs
Messages : 32 187
Inscrit : 15 Nov 2005
Membre no 49 996



Citation (flan @ 26 May 2014, 23:07) *
J'aimerais bien voir la différence entre un système ARM et un système x86-64, une fois qu'on regarde les plates-formes complètes avec la RAM (100 Go de RAM, ça consomme beaucoup, et ça coûte quand même un peu) et tout la structure (un châssis, une carte-mère, une double-alim, etc., ça coûte sensiblement la même chose que ce soit pour du ARM ou pour du x86).

Bref, même si le x86 coûte 3 fois plus cher, une plate-forme complète ARM ne sera pas forcément beaucoup moins chère, et ne consommera pas forcément beaucoup moins, qu'une plate-forme x86.
Exactement.

C'est ce que j'expliquais l'autre jour, en comparant les perfs sous BOINC de ma Nexus 7 et de mon mini-PC Core i3 Haswell.

Sur la consommation à la prise, j'ai un rapport de 6.3 entre les deux (écran éteint), pour un rapport de performances de 3.5, ce qui ne laisse au final qu'un petit facteur 2 sur l'efficacité énergétique de la Nexus, mais avec beaucoup plus d'équipements dans le PC, même s'il est "mini" (dual GbE, contrôleurs PCI-Express, SATA, USB 3.0, 8 Go de RAM vs 1 Go...). Tous ces composants, même lorsqu'ils ne sont pas utilisés, ont toujours une consommation résiduelle.

Et comme l'expliquais dandu un peu plus haut, l'avantage énergétique de l'ARM se réduit encore un peu quand on compare un iPad Air et un MBA 2014...


--------------------

Go to the top of the page
 
+Quote Post
aigo
posté 29 May 2014, 04:35
Message #99


Adepte de Macbidouille
*

Groupe : Membres
Messages : 73
Inscrit : 17 Dec 2010
Membre no 162 446



Le seul problème avec ARM, c'est qu'on va perdre la possibilité d'utiliser Windows (Boot Camp) ou par la virtualisation, pour le reste j'ai aucun doute qu'Apple va réussir même au niveau des applications. Je me souviens quand j'étais avec NeXTStep, supporter une application pour un autre CPU, c'est juste cocher les CPU à supporter par l'application avant de faire le BUILD.
Go to the top of the page
 
+Quote Post
Skwaloo
posté 6 Jun 2014, 15:25
Message #100


Macbidouilleur de bronze !
**

Groupe : Membres
Messages : 497
Inscrit : 16 Oct 2005
Membre no 48 046



Citation (SartMatt @ 25 May 2014, 13:26) *
Plus les GPU sont puissants, plus il y a besoin de CPU puissants à côté pour "alimenter" les GPU.

Qu'est-ce que le CPU doit calculer pour que GPU fasse ses calculs ?!



Citation (SartMatt @ 25 May 2014, 14:06) *
J'ai un petit i3 Haswell dual qui fait du World Community Grid, il me fait 770 points par heure contre 1200 pour mon i5 quad Ivy... Un i7 quad Ivy serait pas énormément plus rapide, et un i7 Haswell ferait environ 10% de mieux qu'un i7 Ivy. À côté de ça, j'ai une tablette avec un quad ARM Cortex A15, elle fait à peine 270 points par heure...

!!!!!!!!!!!!!!!!
C'est toi qui veut ridiculiser les comparatifs Geekbench et ceux qui en parlent, alors que toi tu prends en exemple des résultats de BOINC !!!! Whaouu, t'es impressionnant.
Tu craches sur un ensemble de 54 tests pour t'imaginer avoir quelque chose de représentatif avec un ensemble de... un seul test qui très dépendant des conditions ?! Nan mais c'est une blague ! C'est dommage que tu n'es pas compris que c'est une tâche de fond avec le minimum de priorité, son temps d'exécution est donc dépendante de l'utilisation que tu fais de la machine. Là tu compares des machines avec des utilisations différentes -> donc temps d'exécution de BOINC différents. On ne sait même pas si tu as des réglages de limitations en fonction de la charge de la batterie, de la température ou s'il y a baisse de fréquence en veille. Même pas d'indications sur les W... Il y'a tellement d'aléas dans ton "comparatif" qu'il ne compare rien.
Et faut arrêter avec ton nombrilisme, TON ARM est très loin du maximum possible et n'est même pas ce qui se fait de mieux actuellement . Celui d'Apple (ça te dis quelque chose Apple ? C'est par manque d'honnêteté intellectuelle ou c'est juste par fanatisme pour Intel que tu le passe sous silence ?) en simple coeur est 50% + rapide GLOBALEMENT alors que ton A15 à 30% de fréquence en +. Et je ne parle pas des A17, A57, nouvelles finesses de gravure et transistors 3D qui arrivent sur ARM.

Tu es donc toujours en campagne de dé-information. Heureusement d'autres ne t'ont pas attendu pour savoir ce que vaut de l'ARM, comme " Un composant ARM quadricœur se hausse ainsi au niveau de puces quadricœurs AMD, ou de composants Intel bicœurs threadés. Et nous parlons bien ici de Core i, les Intel Atom étant depuis longtemps dépassés." http://www.silicon.fr/apple-envisage-livre...bits-94667.html

Anandtech à expliquer pourquoi Apple à dit de son A7 qu'il est "desktop class", il a des similitudes avec avec du i7, il de bonnes chances pour que se soit pour faire autre chose que des tab et smartphones.



Citation (dtb06 @ 25 May 2014, 08:19) *
Citation (__otto__ @ 25 May 2014, 13:09) *
Citation (dtb06 @ 25 May 2014, 09:57) *
Donc pour moi il est impensable que ça remplace un ordi.

Ton post indique pourtant le contraire...
Jouer à candy crush, aller sur Fb, youtube ça correspond et ça suffit (malheureusement) à la grande majorité...


Je suis sûr que les gens qui utilisent leur ordi à 95% pour des tâches qu'une tablette fait correctement râleraient quand même s'ils perdaient les 5% restants !

Ces 5% ce réduisent de jour en jour, et se réduira bien + vite quand Apple arrêtera de faire le radin avec si peu de RAM.
Rodrigo sur ORLM dit prendre de + en + souvent son iPad en déplacement en remplacement de son MacBook.
On s'est habitué aux très grands écran d'ordinateurs, aux écrans énormes des TV tout comme aux écrans minuscules des smartphones. Parmis les 3 principaux OS, 2 sont sur écrans minuscules et tous petits écans : http://gs.statcounter.com/#desktop+mobile+...y-201403-201406
Quand on veut s'habituer à quelque chose de différent, on peut.



Citation (dtb06 @ 25 May 2014, 08:19) *
C'est pour cela qu'en général les gens qui ont une tablette ont aussi un ordi (ne serait-ce que pour synchroniser leur tablette par exemple biggrin.gif )

Les gens qui ont aussi un ordi son en général des gens qui avaient déjà un ordi avant d'acheter une tab.



Citation (iAPX @ 25 May 2014, 16:44) *
Eh bien justement, tous ces sites, et de nombreux autres comme Google Doc, utilisent Javascript au boutte. Hors le moteur javascript n'est pas multithreadé, dans aucun navigateur actuel, avec plusieurs onglets ouverts et la quantité de pub javascript (ou pire Flash!), on arrive avec une thread a 100% d'un core x86-64, sans utiliser les autres core, et une reactivité médiocre du navigateur (voir pire, il m'arrive de devoir le fermer tellement il rame).

Avec de l'ARM, peu importe le nombre de coeur, le navigateur sera 3x a 4X plus lent sur ce type de scenario très usuel pour le grand-public, et même les pros, puisque tout le monde utilise Internet a et des services au travers de navigateurs web. ARM n'est vraiment pas aujourd'hui taillé pour être utilisé, même par le grand publique!

!!!
Qui est-ce qui trouve que son iPad Air est lent en navigation ?!
Si les ARM n'étaient vraiment pas taillés pour ça alors jamais il ne grignoteraient des parts sur les ordi. Pourtant ils sont en constante progression et sont actuellement utilisés dans + d'1/3 des cas : http://gs.statcounter.com/#desktop+mobile+...y-201306-201406.
Pourquoi Apple vend énormément + d'ARM que de x86 si ce n'est pas pour être utilisé, même par le grand publique ?!



Citation (Ambroise @ 26 May 2014, 09:52) *
Citation (JoKerforever @ 24 May 2014, 11:01) *
Pourquoi les processeurs ARM qui pourraient être intégré aux Mac ne seraient pas de vraies processeurs puissants ?
Beaucoup de progrès on été réalisé dans le domaine.


Si on regarde l'histoire des ARM face aux x86 alors on peut avoir quelques doutes sur les progrès d'ARM. Je me souviens quand Acorn avait sorti sa bombe : l'Archimedes avec son ARM2 à 8Mhz qui a l'époque battait à plates coutures le 386 à 16Mhz alors que le processeur ARM coûtait 5 fois moins cher.
Mais le 486 est sorti et a fait oublier les bonnes performances d'ARM.
Et depuis l'écart s'est largement creusé : en 25 ans nous sommes passés d'un ARM2 1,2x plus rapide que le contemporain 80386, à un ARM Cortex-A57 octo-coeurs 25 fois moins rapide qu'un actuel Xeon E5.

Le RiscPC était + rapide que les 486 de l'époque. Le problème n'a pas été la rapidité (d'ailleurs DEC à fait le StrongARM qui à été racheté par Intel, donc Intel à déjà vu la supériorité du ARM sur le x86) mais à l'époque une énorme majorité de gens réclamaient du Windoz, les non Wintel se vendaient très très mal (Apple à failli disparaître aussi).
Du coup les ARM ont développés leurs avantages sur d'autres marchés que la micro-informatique et sont restés dans des domaines où la rapidité n'est pas primordiale.
Dans la courbe des progrès, il n'est pas impossible qu'ARM maintienne un rythme pas super rapide pour pouvoir vendre régulièrement de nouvelles licences. Ça n'a pas suffit à Apple, maintenant il fait bien mieux avec son propre desing. nVidia, AMD, Samsug... vont sortir leur propre design.



Citation (SartMatt @ 25 May 2014, 00:48) *
]En gros, ça serait 50 à 100% plus rapide que les processeurs ARM 2 ou 4 cœurs d'aujourd'hui (qui tournent entre 1.5 et 2.3 GHz en haut de gamme).

Côté consommation, dans le meilleur des cas, elle doublerait. Mais c'est un cas totalement utopique : il faudrait arriver à doubler la fréquence sans toucher au design de la puce et sans augmenter la tension de fonctionnement.

En réalité, il faudrait au minimum augmenter les tensions, ce qui ferait augmenter la consommation (de manière très empirique, la consommation d'une puce est une fonction linéaire de la tension et du taux d'utilisation et quadratique de la tension d'alimentation), mais sans doute aussi revoir le design de certaines portions du CPU, pour l'adapter à des fréquences plus élevées, avec en conséquence une hausse supplémentaire de la consommation...

Faut se méfier de sa dé-information. Quand AMD compare SES propres puces en ARM et l'équivalent en x86 alors oui, la conso grimpe beaucoup par rapport aux ARM dont on a l'habitude. Mais à conso très proche, le x86 est + rapide ? Non ! Il se fait torcher sévère :
" AMD surclasse, avec son son Opteron A1100 (en version octocoeur), l’Opteron X2150 (4 cœurs Jaguar x86) pour une consommation à peu près comparable (25W contre 22W). A fréquence d’horloge équivalente, Seattle proposerait des capacités de calcul environ 2,5 fois plus élevées que son équivalent sous environnement x86. Selon les mesures présentées par AMD."
http://www.silicon.fr/amd-course-serveurs-arm-92397.html

Ce n'est pas par hasard qu'Intel à acheter du ARM et fait le i960, c'est que le x86 n'est pas le + efficace.



Sinon, en prenant suffisamment de recul, est-ce que Apple pourrait sourtir une machine OSX avec son A7 modifié (genre 4 coeurs à 2GHz, tout à faisable aujourd'hui) ?
Question rapidité, oui. Il y a HP, DELL et bien d'autres qui vendent des ordi sous Windoz avec des Atom qui sont bien moins rapide que ça. Donc il y a un marché pour des machines peu rapide. D'ailleurs, les nombreuses machines qui servent encore en étant toujours sous WinXP ne doivent pas être utilisé pour leur super performances.
Question logiciel ? C'est un problème, mais pas pour tout le monde. Apple peut se permettre financièrement ce qu'il a envie, les Mac ont de moins en moins d'importance chez Apple. D'ailleurs beaucoup de travail est fait pour que OSX paraisse iOS.
Les pro ? Il pourrait y avoir des solutions Cloud. Mais leur importance aux yeux d'Apple quand on voit ce qui s'est passé pendant des années avec le MacPro...



--------------------
Go to the top of the page
 
+Quote Post
SartMatt
posté 6 Jun 2014, 15:44
Message #101


Macbidouilleur d'Or !
*****

Groupe : Rédacteurs
Messages : 32 187
Inscrit : 15 Nov 2005
Membre no 49 996



Citation (Skwaloo @ 6 Jun 2014, 16:25) *
Qu'est-ce que le CPU doit calculer pour que GPU fasse ses calculs ?!
Je ne saurais pas le dire exactement, parce que c'est pas mon domaine. Mais comme le GPU ne communique pas directement avec le reste de la machine, il y a au minimum un travail de gestion des I/O, mais sans doute aussi un travail de prétraitement des données pour les rendre utilisables par le GPU (par exemple, il me semble que c'est pas le GPU qui fait le découpage pour paralléliser les traitements, ni par la suite l’agrégation des résultats). Et bien sûr, il y a aussi tout ce que le GPU n'est tout simplement pas capable de faire efficacement...

Voilà une étude sur le sujet, avec des mesures sur différentes applications : http://cseweb.ucsd.edu/~marora/files/paper...emicro-2012.pdf
Le graphique en page 9 montre que dans pas mal de cas, l'utilisation CPU n'est vraiment pas négligeable. Sur 22 tests, il y en a 5 où la charge CPU reste à plus de 80%, 4 autres où elle est à plus de 40% et 8 où elle est à moins de 20%... Donc avec un CPU cinq fois plus lent, quasiment les deux tiers de ces applications exploitant le GPGPU seraient limitées par le CPU.

Citation (Skwaloo @ 6 Jun 2014, 16:25) *
C'est toi qui veut ridiculiser les comparatifs Geekbench et ceux qui en parlent, alors que toi tu prends en exemple des résultats de BOINC !!!! Whaouu, t'es impressionnant.
Tu craches sur un ensemble de 54 tests pour t'imaginer avoir quelque chose de représentatif avec un ensemble de... un seul test qui très dépendant des conditions ?! Nan mais c'est une blague !
J'ai toujours dit que ce que je reproche à Geekbench, c'est la durée trop courte de ses tests, qui les rend peu fiable (comme je l'ai déjà dit, j'observe parfois des variations de plus de 20% entre deux runs successifs sur une même machine) et le fait que la base de résultats accepte sans broncher des trucs totalement aberrants (genre un HTC One qui atomiserait des Mac Pro en arrivant au niveau d'un serveur 32 cœurs, des Pentium III 64 bits), ce qui en dit long sur le sérieux du machin... Si encore c'était des scores qui passaient inaperçu dans les profondeurs du classement, ça passerait encore, mais on en trouve dès la première page du top, et ils y sont depuis des mois...

Avec BOINC au contraire, j'ai un test sur la durée (ma machine qui tourne le plus est à plus d'un 1 an de temps processeur cumulé, celle qui tourne le moins est à 72 jours), et je constate quand j'actualise mes stats que le nombre de points par heure de temps CPU est très stable, il varie tout au plus de 5%.

Citation (Skwaloo @ 6 Jun 2014, 16:25) *
C'est dommage que tu n'es pas compris que c'est une tâche de fond avec le minimum de priorité, son temps d'exécution est donc dépendante de l'utilisation que tu fais de la machine. Là tu compares des machines avec des utilisations différentes -> donc temps d'exécution de BOINC différents.
Sauf que le temps mesuré par BOINC, ce n'est pas le temps réel, c'est le temps CPU. L'utilisation de la machin n'a donc pas d'impact : si en tournant en tâche de fond pendant 1h BOINC a la main sur un cœur du CPU pendant 2 minutes, il enregistrera 2 minutes de temps CPU, pas 1h. Ça élimine donc tout aléa lié à l'utilisation de la machine.

Mais c'est marrant de voir comme tu met BOINC en avant quand ça t'arrange et le dénigre quand ça t'arrange pas : "World Community Grid sur Nexus10 (NativeBOINC), en 1 mois fait autant de points que 50% des contributeurs tout en consommant 40 fois moins que du gros ordi."

Tiens, combien de temps pour arriver à tes 426 000 points du coup ? Mon i3 Haswell a fait 800 000 en un mois et demi...

Citation (Skwaloo @ 6 Jun 2014, 16:25) *
On ne sait même pas si tu as des réglages de limitations en fonction de la charge de la batterie, de la température ou s'il y a baisse de fréquence en veille.
Ça ne tourne que pendant que la batterie est en charge, et j'ai pas mis de limite sur la température.

Quand à la baisse de fréquence en veille, j'ai jamais entendu parler d'un tel mécanisme, qui aurait bien peu de sens... Adapter la fréquence du CPU en fonction de la charge, de la puissance de l'alimentation ou de la capacité restante de la batterie, ça peut avoir un sens. Par contre la lier à l'état allumé ou éteint de l'écran, quel intérêt ? Et comme de toute façon mes mesures de consommation ont été faites avec l'écran éteint, aussi bien pour les PC que pour les tablettes (justement pour éliminer la consommation de l'écran), ma conclusion sur la consommation reste tout a fait valable, puisque la consommation que j'ai relevée correspond bien à la consommation dans la situation où la tablette a fait ses points sous BOINC.

Citation (Skwaloo @ 6 Jun 2014, 16:25) *
Même pas d'indications sur les W...
Si tu cliques sur le lien que j'ai mis 3 posts au dessus, j'ai bien donné mes mesures de consommation, ainsi que les conditions dans lesquelles elles ont été faites.

Citation (Skwaloo @ 6 Jun 2014, 16:25) *
TON ARM est très loin du maximum possible et n'est même pas ce qui se fait de mieux actuellement . Celui d'Apple en simple coeur est 50% + rapide GLOBALEMENT
Et donc, comme mon ARM a 4 coeurs et l'A7 seulement deux, sur du multithreadé capable d'exploiter les quatre coeurs mon ARM reste 33% plus rapide... Ça tombe bien, BOINC utilise les 4 cœurs.

Citation (Skwaloo @ 6 Jun 2014, 16:25) *
" Un composant ARM quadricœur se hausse ainsi au niveau de puces quadricœurs AMD, ou de composants Intel bicœurs threadés. Et nous parlons bien ici de Core i, les Intel Atom étant depuis longtemps dépassés." http://www.silicon.fr/apple-envisage-livre...bits-94667.html
Une phrase comme ça balancée sans préciser dans quel test de performances, ça ne vaut rien.

Citation (Skwaloo @ 6 Jun 2014, 16:25) *
Anandtech à expliquer pourquoi Apple à dit de son A7 qu'il est "desktop class", il a des similitudes avec avec du i7, il de bonnes chances pour que se soit pour faire autre chose que des tab et smartphones.
Des similitudes sur l'architecture, peut-être. Sur les performances, c'est loin derrière...


Citation (Skwaloo @ 6 Jun 2014, 16:25) *
Mais à conso très proche, le x86 est + rapide ? Non ! Il se fait torcher sévère :
" AMD surclasse, avec son son Opteron A1100 (en version octocoeur), l’Opteron X2150 (4 cœurs Jaguar x86) pour une consommation à peu près comparable (25W contre 22W). A fréquence d’horloge équivalente, Seattle proposerait des capacités de calcul environ 2,5 fois plus élevées que son équivalent sous environnement x86. Selon les mesures présentées par AMD."
Mais Jaguar est loin d'être le x86 le plus efficace hein... Les Atom Bay Trail font bien mieux niveau conso...

Regarde les tests de tablettes Bay Trail, grosso modo, elles offrent des performances et une autonomie similaire aux tablettes Bay Trail, avec une batterie de capacité équivalent.

Et quasiment toutes les tablettes qui viennent d'être présentées au Computex sont en Bay Trail. Et même plusieurs smartphones, dont le premier smartphone haut de gamme Samsung sous Tizen...

Citation (Skwaloo @ 6 Jun 2014, 16:25) *
Sinon, en prenant suffisamment de recul, est-ce que Apple pourrait sourtir une machine OSX avec son A7 modifié (genre 4 coeurs à 2GHz, tout à faisable aujourd'hui) ?
Question rapidité, oui. Il y a HP, DELL et bien d'autres qui vendent des ordi sous Windoz avec des Atom qui sont bien moins rapide que ça. Donc il y a un marché pour des machines peu rapide. D'ailleurs, les nombreuses machines qui servent encore en étant toujours sous WinXP ne doivent pas être utilisé pour leur super performances.
Question logiciel ? C'est un problème, mais pas pour tout le monde. Apple peut se permettre financièrement ce qu'il a envie, les Mac ont de moins en moins d'importance chez Apple.
Oui, une machine d'entrée de gamme, ça serait possible. Mais ça serait difficile à positionner sur le plan tarifaire (faudrait la placer en dessous du Mac Mini, donc dans une tranche tarifaire qui n'intéresse pas Apple). D'ailleurs, si Apple s'intéressait à ce type de machines peu performantes, pourquoi ne le ferait-elle pas déjà avec des Atom ?

Et ça apporterait sans doute plus de problèmes que de solutions, puisqu'il faudrait maintenir deux branches d'OS X, il faudrait que les développeurs produisent des applications compatibles avec les deux archis, etc... Et surtout, une machine Windows lente à base d'Atom, elle exécute tous les logiciels Windows un peu plus lentement, même les gros logiciels (on trouve sur le net plein de retours d'expérience de Photoshop ou Lightroom sur Bay Trail par exemple). Alors que si Apple fait juste une machine OS X ARM d'entrée de gamme, avec le reste en x86, il y a peu de chances que les éditeurs de logiciels lourds portent leurs produits vers ARM (vu que c'est pas du tout leur cible), et du coup, soit ces logiciels ne marcheront pas, soit il rameront à mort s'il y a une émulation, bien plus que ce qu'on peut observer avec un petit PC Atom...

Regarde un peu ce qu'à donné RT côté Windows... Quand ça a été annoncé il y a quelques années, tu fanfaronnais en disant que ça allait bouffer le PC x86. Résultat un an et demi après la sortie, quasiment tous les constructeurs qui ont fait des produits RT les remplacent maintenant par du 8.1 à base de Bay Trail. Même Microsoft semble déjà prêt à l'abandonner (Surface RT ARM et Surface Pro x86, puis Surface 2 ARM et Surface 2 Pro x86, et maintenant juste Surface 3 Pro x86, pas de nouveau modèle ARM...).

Quand à l'aspect financier, oui Apple pourrait se le permettre financièrement. Mais on sait tous qu'Apple est très près de ses sous, et elle ne le fera que si elle peut gagner suffisamment d'argent avec... Donc si ça induits des coûts de développement élevés tout en étant limité à des machines d'entrée de gamme pas chères, ça n'intéressera pas Apple.


--------------------

Go to the top of the page
 
+Quote Post
Youri777
posté 7 Jun 2014, 08:23
Message #102


Macbidouilleur d'argent !
***

Groupe : Membres
Messages : 637
Inscrit : 15 Jul 2007
Membre no 90 669



Citation (Lionel @ 24 May 2014, 07:49) *
Tout serait prêt ou presque pour au moins une annonce mais la société hésiterait encore à se lancer, ne sachant si ce serait une révolution ou un coup fatal pour sa gamme d'ordinateurs s'il est lancé trop tôt.

Difficile de donner un avis objectif sur cette rumeur que nous vous délivrons telle quelle. Nous ne craignons pas tant une nouvelle transition (il y aura certainement un Rosetta nouvelle formule), tant il y en a déjà eu, que de voir de nouveau le Mac marginalisé dans l'industrie informatique. En s'accrochant au wagon x86 Steve Jobs avait voulu s'assurer que le Mac survivrait à tous les affres de l'électronique ou presque. Là, on repartirait de nouveau vers des solutions propriétaires, certes prometteuses, mais aussi fermées qu'à l'époque du PowerPC.
Lien vers le billet original

Je pense qu'il y a de la place pour un autre OS chez Apple. iOs ne permettra jamais de faire fonctionner un ordinateur correctement et je doute qu'ils abandonne le x86, le graal attendu depuis tellement d'années, et qui selon moi a fait le succès de la gamme actuelle d'ordinateurs Apple.

En regardant autour, Google a fait ChromeOS. Je pencherais plutôt pour une gamme de machines de ce style, avec un nouvel OS light (pas forcément exclusivement basé sur le navigateur comme ChromeOs). Il y a de quoi innover et créer un nouveau marché tout en ne contrariant pas trop les gammes existanttes.
Go to the top of the page
 
+Quote Post
Ambroise
posté 7 Jun 2014, 13:37
Message #103


Macbidouilleur de bronze !
**

Groupe : Membres
Messages : 494
Inscrit : 18 Sep 2007
Membre no 95 094



Citation (Skwaloo @ 6 Jun 2014, 16:25) *
Le RiscPC était + rapide que les 486 de l'époque. Le problème n'a pas été la rapidité (d'ailleurs DEC à fait le StrongARM qui à été racheté par Intel, donc Intel à déjà vu la supériorité du ARM sur le x86) mais à l'époque une énorme majorité de gens réclamaient du Windoz, les non Wintel se vendaient très très mal (Apple à failli disparaître aussi).
Du coup les ARM ont développés leurs avantages sur d'autres marchés que la micro-informatique et sont restés dans des domaines où la rapidité n'est pas primordiale.


Moi aussi j'aimais les RiscPC mais ça n'est pas nécessaire de leur inventer une légende. Les premiers RiscPC avaient une puissance très limitée. Ils n'ont dépassé les 486 qu'avec l'arrivée des StrongARM à une époque où Intel avait depuis longtemps abandonné les 486 (remplacés par les Pentium et les Pentium Pro). Mais même là, l'intérêt des StrongARM résidait dans leur efficacité énergétique bluffante. Ils ne permettaient pas aux RiscPC de se mesurer à un Pentium d'entrée de gamme contemporain.


Et le manque de pérennité des RiscPC n'est pas lié qu'à l'hégémonie de Windows : les riscPC étaient des machines coûteuses par rapport aux PC asiatiques et ils utilisaient un système d'exploitation d'arrière garde tout comme Apple (pas de multithreading, un scheduling coopératif qui rendait le développement des applications modernes difficile, pas de protection mémoire, pas de mémoire virtuelle) . A la même époque les OS alternatifs comme OS/2, NextStep ou même Linux ne laissaient aucune utilité à RiscOS.
Go to the top of the page
 
+Quote Post
Skwaloo
posté 13 Jun 2014, 14:58
Message #104


Macbidouilleur de bronze !
**

Groupe : Membres
Messages : 497
Inscrit : 16 Oct 2005
Membre no 48 046



Citation (SartMatt @ 6 Jun 2014, 16:44) *
J'ai toujours dit que ce que je reproche à Geekbench, c'est la durée trop courte de ses tests, qui les rend peu fiable (comme je l'ai déjà dit, j'observe parfois des variations de plus de 20% entre deux runs successifs sur une même machine) et le fait que la base de résultats accepte sans broncher des trucs totalement aberrants (genre un HTC One qui atomiserait des Mac Pro en arrivant au niveau d'un serveur 32 cœurs, des Pentium III 64 bits), ce qui en dit long sur le sérieux du machin... Si encore c'était des scores qui passaient inaperçu dans les profondeurs du classement, ça passerait encore, mais on en trouve dès la première page du top, et ils y sont depuis des mois...

J'ai toujours dit que les résultats ne représentent qu'un ordre de grandeur à titre indicatif et qu'il est juste une question de bon sens que de ne considérer qu'un ensemble de résultats proches.



Citation (SartMatt @ 6 Jun 2014, 16:44) *
Avec BOINC au contraire, j'ai un test sur la durée (ma machine qui tourne le plus est à plus d'un 1 an de temps processeur cumulé, celle qui tourne le moins est à 72 jours), et je constate quand j'actualise mes stats que le nombre de points par heure de temps CPU est très stable, il varie tout au plus de 5%.

"Moy. Points par heure d'exécution" : c'est juste une moyenne, par principe c'est relativement stable.



Citation (SartMatt @ 6 Jun 2014, 16:44) *
Sauf que le temps mesuré par BOINC, ce n'est pas le temps réel, c'est le temps CPU. L'utilisation de la machin n'a donc pas d'impact : si en tournant en tâche de fond pendant 1h BOINC a la main sur un cœur du CPU pendant 2 minutes, il enregistrera 2 minutes de temps CPU, pas 1h. Ça élimine donc tout aléa lié à l'utilisation de la machine.

Pas vraiment non. Ton ARM est coincé dans une enveloppe thermique de très faible dissipation par rapport à ton i3, suivant les conditions il va y avoir une gestion de baisse de fréquence. Ce qui va diminuer ton nombre de points/heure.



Citation (SartMatt @ 6 Jun 2014, 16:44) *
Mais c'est marrant de voir comme tu met BOINC en avant quand ça t'arrange et le dénigre quand ça t'arrange pas : "World Community Grid sur Nexus10 (NativeBOINC), en 1 mois fait autant de points que 50% des contributeurs tout en consommant 40 fois moins que du gros ordi."

Je mets en avant qu'une tab en ARM n'est pas "limitée à des choses inutiles" comme certains en sont convaincus, et que sa contribution n'a rien de ridicule. C'est tout. Rien là-dedans qui puisse m'arranger ou ne pas m'arranger. T'as encore une de ces visions des choses...



Citation (SartMatt @ 6 Jun 2014, 16:44) *
Tiens, combien de temps pour arriver à tes 426 000 points du coup ? Mon i3 Haswell a fait 800 000 en un mois et demi...

J'ai aussi une tab en Cortex A7 à 1GHz qui rend mes stats très basses, mais elle contribue quand même, + un smartphone. Et je ne fais pas du calcul que pour WCG, il est en 4ème dans mes priorités.
De toutes façons je n'ai pas d'ARM fabriqué pour la même utilisation que ton i3. De +, vouloir se servir des perfs d'ARM dépassé (2 coeurs gravés en 34nm alors qu'il y a du 8 coeurs gravés en 28nm, et dans seulement quelques mois du gravés en 20nm) pour dénigrer tous les ARM montre une volonté d'intox toute Intelienne.
Si je faisais le même genre d'amalgame nauséabond que toi alors je ferais une comparaison de ton i3 Haswell ou pas Haswell avec le Cavium ThunderX: 2.5 GHz, 48 Core ARMv8. Ton i3 se prendrait une "belle rouste" et j'affirmerai que les x86 ne pourront jamais être des puces pour serveurs ! laugh.gif laugh.gif laugh.gif laugh.gif laugh.gif laugh.gif laugh.gif laugh.gif laugh.gif laugh.gif laugh.gif laugh.gif




Citation (SartMatt @ 6 Jun 2014, 16:44) *
Citation (Skwaloo @ 6 Jun 2014, 16:25) *
On ne sait même pas si tu as des réglages de limitations en fonction de la charge de la batterie, de la température ou s'il y a baisse de fréquence en veille.
Ça ne tourne que pendant que la batterie est en charge, et j'ai pas mis de limite sur la température.

Quand à la baisse de fréquence en veille, j'ai jamais entendu parler d'un tel mécanisme, qui aurait bien peu de sens... Adapter la fréquence du CPU en fonction de la charge, de la puissance de l'alimentation ou de la capacité restante de la batterie, ça peut avoir un sens. Par contre la lier à l'état allumé ou éteint de l'écran, quel intérêt ?


Après que tu es averti les ingénieurs d'AMD qu'avec de l'ARM ils ne feront jamais mieux qu'avec du x86 malgré qu'ils aient démontrer l'inverse, il faudra aller dire aux ingénieurs de Google qu'ils font des trucs qui n'ont pas de sens : sur ma Nexus 10, avec "l'expérience Google" je suis à 77% de temps d'utilisation en 800MHz parce que c'est sa fréquence en veille pourtant du BOINC tourne 100% du temps. 1,7GHz 2%, de 1,6 à 1,3GHz sont à 3%. Un comparatif sur de très longues heures face à un i3 bien ventilé ne rime à rien, tout comme l'espoir d'avoir tourjours exactement la même valeur d'un benchmark comme Geekbench.




Citation (SartMatt @ 6 Jun 2014, 16:44) *
Citation (Skwaloo @ 6 Jun 2014, 16:25) *
TON ARM est très loin du maximum possible et n'est même pas ce qui se fait de mieux actuellement . Celui d'Apple en simple coeur est 50% + rapide GLOBALEMENT
Et donc, comme mon ARM a 4 coeurs et l'A7 seulement deux, sur du multithreadé capable d'exploiter les quatre coeurs mon ARM reste 33% plus rapide... Ça tombe bien, BOINC utilise les 4 cœurs.

!!!!
T'en es à confondre fréquence et rapidité... navrant.

Ce message a été modifié par Skwaloo - 13 Jun 2014, 16:02.


--------------------
Go to the top of the page
 
+Quote Post
SartMatt
posté 13 Jun 2014, 15:17
Message #105


Macbidouilleur d'Or !
*****

Groupe : Rédacteurs
Messages : 32 187
Inscrit : 15 Nov 2005
Membre no 49 996



Citation (Skwaloo @ 13 Jun 2014, 15:58) *
J'ai toujours dit que les résultats ne représentent qu'un ordre de grandeur à titre indicatif et qu'il est juste une question de bon sens que de ne considérer qu'un ensemble de résultats proches.
Sauf qu'à partir du moment où un bench présente de telles aberrations dans les résultats, t'es obligé de te référer à un autre bench pour savoir quels résultats de Geekbench sont valables... Et du coup, le résultat Geekbench n'a plus aucun intérêt.

Citation (Skwaloo @ 13 Jun 2014, 15:58) *
Citation (SartMatt @ 6 Jun 2014, 16:44) *
Avec BOINC au contraire, j'ai un test sur la durée (ma machine qui tourne le plus est à plus d'un 1 an de temps processeur cumulé, celle qui tourne le moins est à 72 jours), et je constate quand j'actualise mes stats que le nombre de points par heure de temps CPU est très stable, il varie tout au plus de 5%.
"Moy. Points par heure d'exécution" : c'est juste une moyenne, par principe c'est relativement stable.
C'est justement là tout l'intérêt d'un test longue durée : dégager une moyenne relativement stable, et donc indépendante des variations ponctuelles... Alors qu'un test qui dure une demi-seconde, ça peut être extrêmement sensible à une perturbation ponctuelle, ce qui rend le résultat moins stable.

Citation (Skwaloo @ 13 Jun 2014, 15:58) *
Citation (SartMatt @ 6 Jun 2014, 16:44) *
Sauf que le temps mesuré par BOINC, ce n'est pas le temps réel, c'est le temps CPU. L'utilisation de la machin n'a donc pas d'impact : si en tournant en tâche de fond pendant 1h BOINC a la main sur un cœur du CPU pendant 2 minutes, il enregistrera 2 minutes de temps CPU, pas 1h. Ça élimine donc tout aléa lié à l'utilisation de la machine.
Pas vraiment non. Ton ARM est coincé dans une enveloppe thermique de très faible dissipation par rapport à ton i3, suivant les conditions il va y avoir une gestion de baisse de fréquence. Ce qui va diminuer ton nombre de points/heure.
Mouais... Je n'ai pas vu beaucoup de témoignages se plaignant de throttling en pleine charge sur la N7 ou la TF701...

De plus, vu que la partie 3D n'est pas utilisée, je suis sans doute en dessous de la capacité de dissipation de la tablette (qui doit aussi pouvoir dissiper avec le GPU actif...).

Et surtout, quand je viens de lancer BOINC et que la tablette est encore froide, la consommation est la même qu'après 1h ou 3 jours de pleine charge (la tablette est alors tout juste tiède) au 10ème de W près, ce qui montre qu'il n'y a pas de throttling (on ne fait pas du throttling pour gagner 0.1W).


Et de toute façon, encore une fois, vu que je compare les rapports performances/W en mesurant les performances et la consommation, la conclusion en arrive toujours au même point, throttling ou non : le rapport perfs/W est seulement de l'ordre de deux fois plus élevé que celui du Core i7... À la limite, c'est encore plus favorable au i7 s'il y a throttling sur la tablette : le rapport perfs/W est généralement meilleur en throttling qu'à pleine puissance (toujours pour la même raison : les performances sont à la grosse louche proportionnelles à la fréquence, la consommation est grosso modo proportionnelle à la fréquence ET au carré de la tension, et en throttling, on baisse toujours la tension en plus de baisser la fréquence, donc la consommation baisse plus que les performances...).


--------------------

Go to the top of the page
 
+Quote Post
Skwaloo
posté 13 Jun 2014, 15:52
Message #106


Macbidouilleur de bronze !
**

Groupe : Membres
Messages : 497
Inscrit : 16 Oct 2005
Membre no 48 046



Il se serait bien que tu ne fasses pas un amalgame (encore !) entre conso des SoC et conso de machines complète...dialogue de sourds.




Citation (SartMatt @ 6 Jun 2014, 16:44) *
Citation (Skwaloo @ 6 Jun 2014, 16:25) *
" Un composant ARM quadricœur se hausse ainsi au niveau de puces quadricœurs AMD, ou de composants Intel bicœurs threadés. Et nous parlons bien ici de Core i, les Intel Atom étant depuis longtemps dépassés." http://www.silicon.fr/apple-envisage-livre...bits-94667.html
Une phrase comme ça balancée sans préciser dans quel test de performances, ça ne vaut rien.


Tu devrais te rendre compte que ton comparo tab/i3 est bien pire. Là il n'y à pas de dénigrement puisqu'il s'agit d'un AMD face à AMD par AMD.



Citation (SartMatt @ 6 Jun 2014, 16:44) *
Citation (Skwaloo @ 6 Jun 2014, 16:25) *
Anandtech à expliquer pourquoi Apple à dit de son A7 qu'il est "desktop class", il a des similitudes avec avec du i7, il de bonnes chances pour que se soit pour faire autre chose que des tab et smartphones.
Des similitudes sur l'architecture, peut-être. Sur les performances, c'est loin derrière...


Blablabla sans savoir.



Citation (SartMatt @ 6 Jun 2014, 16:44) *
Citation (Skwaloo @ 6 Jun 2014, 16:25) *
Mais à conso très proche, le x86 est + rapide ? Non ! Il se fait torcher sévère :
" AMD surclasse, avec son son Opteron A1100 (en version octocoeur), l’Opteron X2150 (4 cœurs Jaguar x86) pour une consommation à peu près comparable (25W contre 22W). A fréquence d’horloge équivalente, Seattle proposerait des capacités de calcul environ 2,5 fois plus élevées que son équivalent sous environnement x86. Selon les mesures présentées par AMD."
Mais Jaguar est loin d'être le x86 le plus efficace hein...


Ah toi t'es jamais fatigué de trucs vaseux ! Là AMD utilise l'archi d'ARM, pour toi c'est la meilleur ?! Mais quelle théorie farfelue tu pourrais avoir pour justifier les Apple, Qualcomm, nVidia, Samsung, AMD qui font ou vont faire leur propre archi...



Citation (SartMatt @ 6 Jun 2014, 16:44) *
Regarde un peu ce qu'à donné RT côté Windows... Quand ça a été annoncé il y a quelques années, tu fanfaronnais en disant que ça allait bouffer le PC x86.


Dis-moi, c'est d'la bonne ? Ça se fume ou ça se boit ?
Je me délecte de ta démonstration fumeuse il y a plusieurs années affirmant que les ARM ne prendraient jamais d'ampleur parce que les ARM sans NEON ne pourraient pas décoder de futurs formats vidéo dont on ne connaissait encore rien, mais un petit Atom avec SSE du Dieu Intel pourrait mieux. On voit aujourd'hui toute la véracité de tes dires !!!

T'as beau te palucher autant que tu veux avec tes histoires de hautes performances, le gros du marché n'est plus là. Intel l'a compris bien avant toi et mise beaucoup dessus : certains parlent de ventes à perte sur les Atom, et pour sa prochaine génération c'est l'Atom qui sortira en premier.


Ce message a été modifié par Skwaloo - 13 Jun 2014, 15:59.


--------------------
Go to the top of the page
 
+Quote Post
SartMatt
posté 13 Jun 2014, 16:43
Message #107


Macbidouilleur d'Or !
*****

Groupe : Rédacteurs
Messages : 32 187
Inscrit : 15 Nov 2005
Membre no 49 996



Citation (Skwaloo @ 13 Jun 2014, 16:52) *
Il se serait bien que tu ne fasses pas un amalgame (encore !) entre conso des SoC et conso de machines complète...dialogue de sourds.
Je compare machine complète vs machine complète, c'est donc une comparaison parfaitement valable...
À la limite, ça avantage même les solutions ARM. Parce que dans la tablette écran éteint, en plus du processeur, il n'y a grosso modo que le GPU, 1 Go de RAM pas très rapide, la puce Wi-Fi (j'ai coupé le BT), et un peu de stockage de faible performances, tandis que dans le PC, j'ai deux cartes Ethernet actives, un contrôleur SATA, un contrôleur PCI-E, un SSD performant, 8 Go de RAM... Ce qui fait que la consommation en dehors du CPU est largement supérieure à celle que je pourrais observer sur la tablette...

Citation (Skwaloo @ 13 Jun 2014, 16:52) *
Citation (SartMatt @ 6 Jun 2014, 16:44) *
Citation (Skwaloo @ 6 Jun 2014, 16:25) *
" Un composant ARM quadricœur se hausse ainsi au niveau de puces quadricœurs AMD, ou de composants Intel bicœurs threadés. Et nous parlons bien ici de Core i, les Intel Atom étant depuis longtemps dépassés." http://www.silicon.fr/apple-envisage-livre...bits-94667.html
Une phrase comme ça balancée sans préciser dans quel test de performances, ça ne vaut rien.
Tu devrais te rendre compte que ton comparo tab/i3 est bien pire. Là il n'y à pas de dénigrement puisqu'il s'agit d'un AMD face à AMD par AMD.
Moi je cite précisément les conditions dans lesquelles j'ai fait mon comparatif, n'importe qui peut le reproduire chez lui... Eux ils disent que c'est au niveau des Core i et largement au dessus des Atom, sans la moindre précision sur les conditions dans lesquelles c'est mesuré... Et en quoi cette phrase parle d'AMD face à AMD ? Ils font une comparaison avec le Core i et l'Atom, c'est pas du AMD ça hein...

Citation (Skwaloo @ 13 Jun 2014, 16:52) *
Blablabla sans savoir.
Sans savoir ? Mais n'importe qui qui a utilisé un i7 et un A7 (et c'est mon cas) sait que les performances de l'A7 sont quand même largement en dessous de celles de l'i7...

Tiens, quelques tests fait par Anandtech : http://www.anandtech.com/show/7335/the-iphone-5s-review/5
4 tests, 2 où l'A7 est dépassé légèrement par Bay Trail, 2 où l'A7 dépasse légèrement Bay Trail (dont un où c'est clairement un manque d'optimisation logicielle, puisqu'une remarque indique qu'en changeant de browser le Bay Trail repasse devant).

Alors à moins de prétendre que Bay Trail est au niveau d'un i7, je vois mal comment on pourrait sérieusement prétendre que l'A7 est proche d'un i7 sur le plan des performances...

Citation (Skwaloo @ 13 Jun 2014, 16:52) *
Ah toi t'es jamais fatigué de trucs vaseux ! Là AMD utilise l'archi d'ARM, pour toi c'est la meilleur ?!
En quoi c'est farfelu ? Tu dis que le x86 n'est pas plus rapide à conso proche, et pour appuyer ça, tu fais une comparaison entre du ARM et du x86 AMD. Je te réponds simplement que les archis x86 d'AMD sont pas les plus efficaces de la famille x86, ce que tous les tests prouvent. Donc une comparaison ARM AMD vs x86 AMD ne permet en aucun cas de généraliser à ARM vs x86...

C'est comme si tu comparais une Clio 120ch et une Fiat Punto 77ch et que tu en concluais que les voitures françaises sont plus performantes que les voitures italiennes... Ce serait un raisonnement foireux, car généralisé à partir de deux cas particuliers...

Qu'AMD arrive à multiplier par 2 les performances par rapport à son propre x86, peut-être, mais ce n'est qu'un cas particulier, et ça n'efface pas l'autre cas particulier, que tous les tests de produits commerciaux confirment (alors que le SoC ARM d'AMD, y a personne qui l'a testé pour l'instant hein, c'est que de la promesse de marketeux) : le rapport perfs/W de Bay Trail est très proche de celui des solutions ARM d'aujourd'hui, parfois un peu meilleur, parfois un peu moins bon...

Citation (Skwaloo @ 13 Jun 2014, 16:52) *
Je me délecte de ta démonstration fumeuse il y a plusieurs années affirmant que les ARM ne prendraient jamais d'ampleur parce que les ARM sans NEON ne pourraient pas décoder de futurs formats vidéo dont on ne connaissait encore rien
Je n'ai jamais dit ça... J'ai dit que les puces qui dépendent de leur décodeur hardware pour lire de la vidéo deviennent obsolète plus vite que celles qui ont la puissance suffisante pour le faire en soft. Parce que ces dernières tolèreront bien plus facilement un changement de codec...

Et ma tablette TF101 (Tegra 2) est là pour en témoigner, elle est totalement incapable de lire une vidéo HD dès que le décodeur hard ne peut pas être utilisé (même certaines vidéos SD à haut bitrate lui posaient problème), alors que certaines de ces mêmes vidéos (toutes les SD et HD 720p, une partie des HD 1080p) passent en décodage soft sur un Atom D525 de la même époque.


--------------------

Go to the top of the page
 
+Quote Post
Skwaloo
posté 24 Jun 2014, 15:22
Message #108


Macbidouilleur de bronze !
**

Groupe : Membres
Messages : 497
Inscrit : 16 Oct 2005
Membre no 48 046



Citation (SartMatt @ 25 May 2014, 13:26) *
Citation (jibu @ 25 May 2014, 10:27) *
Si on regarde le macpro, ça rend l'archi arm faisable, des qu'il faut de la vitesse en 3D ou autre calculs parrallelisable, on envoi aux gpuS.
Plus les GPU sont puissants, plus il y a besoin de CPU puissants à côté pour "alimenter" les GPU.
Donc mettre des GPU monstrueux avec à côté un CPU qui suit pas, ça sert à rien, les GPU passeront leur temps à se tourner les pouces en attendant le CPU.
Sinon ça fait longtemps qu'nVidia proposerait des solutions complètes pour calculateur, avec un processeur Tegra et des cartes Tesla autour...

http://www.silicon.fr/nvidia-couple-gpu-pu...-hpc-95196.html
Voilà qui montre encore que tes certitudes ne sont pas fondés quand il s'agit d'ARM.

Du ARM pour des ordi, crédible pour de + en + de monde : http://www.tomshardware.fr/articles/russie...tml#xtor=RSS-11


--------------------
Go to the top of the page
 
+Quote Post
Skwaloo
posté 16 Jul 2014, 22:39
Message #109


Macbidouilleur de bronze !
**

Groupe : Membres
Messages : 497
Inscrit : 16 Oct 2005
Membre no 48 046



Citation (Ambroise @ 26 May 2014, 09:52) *
Citation (JoKerforever @ 24 May 2014, 11:01) *
Pourquoi les processeurs ARM qui pourraient être intégré aux Mac ne seraient pas de vraies processeurs puissants ?
Beaucoup de progrès on été réalisé dans le domaine.


Si on regarde l'histoire des ARM face aux x86 alors on peut avoir quelques doutes sur les progrès d'ARM. Je me souviens quand Acorn avait sorti sa bombe : l'Archimedes avec son ARM2 à 8Mhz qui a l'époque battait à plates coutures le 386 à 16Mhz alors que le processeur ARM coûtait 5 fois moins cher.
Mais le 486 est sorti et a fait oublier les bonnes performances d'ARM.
Et depuis l'écart s'est largement creusé : en 25 ans nous sommes passés d'un ARM2 1,2x plus rapide que le contemporain 80386, à un ARM Cortex-A57 octo-coeurs 25 fois moins rapide qu'un actuel Xeon E5.

Les ARM de l'époque avait un surtout un gros retard sur le calcul en virgule flottante, ce n'est plus le cas à catégorie équivalente.

Des ARM en catégorie serveur : "Sur son site dédié aux serveurs haute-densité Moonshot, HP explique que ces machines [ARM] consomment 89 % moins d’énergie, occupent 80 % moins de place, coûtent 77 % moins cher et se veulent 97 % moins complexes à mettre en œuvre que des serveurs classiques. « Un nouveau style d’IT » clame la firme."
En consommant aussi peu il y a encore de la marge pour monter en puissance.

Ce message a été modifié par Skwaloo - 16 Jul 2014, 23:21.


--------------------
Go to the top of the page
 
+Quote Post

4 Pages V  « < 2 3 4
Reply to this topicStart new topic
1 utilisateur(s) sur ce sujet (1 invité(s) et 0 utilisateur(s) anonyme(s))
0 membre(s) :

 



Nous sommes le : 26th April 2024 - 16:34