Intel annonce que ses SoC X86 sont plus efficaces que le Tegra 3, Réactions à la publication du 24/12/2012 |
Bienvenue invité ( Connexion | Inscription )
Intel annonce que ses SoC X86 sont plus efficaces que le Tegra 3, Réactions à la publication du 24/12/2012 |
24 Dec 2012, 00:00
Message
#1
|
|
BIDOUILLE Guru Groupe : Admin Messages : 55 345 Inscrit : 14 Jan 2001 Lieu : Paris Membre no 3 |
On se souvient qu'à la sortie de l'iPad 3 (on l'appellera comme ça dorénavant), Apple avait annoncé que sa puce était plus rapide que le Tegra 3, qui fait figure de référence. C'est au tour d'Intel de lui faire un sort et d'annoncer que sa dernière puce X86 Clover Trail destinée aux tablettes et téléphones mobiles est aussi non seulement plus véloce mais aussi plus économe en énergie que le Tegra 3.
Bien entendu ce comportement (comme la comparaison d'Apple) l'ont été sur certaines fonctions, mais il faut avouer qu'Intel a fait un colossal travail en moins de 3 ans pour optimiser la puissance de ses puces et leur consommation. On est certes pas encore arrivé à une réelle parité entre X86 et ARM, mais peu de personnes auraient pu prédire qu'Intel progresserait aussi vite dans ce domaine. Il reste seulement à savoir si la société arrivera à se faire une place sur ce marché où ARM a donné un goût de liberté aux fabricants qui personnalisent de plus en plus leurs puces à l'image d'Apple. Par Lionel -------------------- C'est parce que la vitesse de la lumière est plus grande que celle du son que tant de gens paraissent brillants avant d'avoir l'air con
|
|
|
24 Dec 2012, 00:30
Message
#2
|
|
Macbidouilleur de bronze ! Groupe : Membres Messages : 270 Inscrit : 13 Oct 2008 Membre no 123 503 |
intel a un avantage enorme. leur puces, et donc aussi la partie reseau et graphique, sont bien supportées en open source.
les drivers des puces arm sont degueulasses, et la plupart des fonctions (gpu, etc) sont proprio ET mal foutus. je travaille pour une grosse boite sur un OS mobile est c'est un des gros problème; toujours entrain d'attendre que l'OEM X ou Z corrige les bugs de leur chipsets, et toujours entrain de jongler autour du code proprio pour integrer. Chez intel, que dale, ca marche, et c'est tout. Non seulement ca, mais sur les chips intel, tout ce qui n'est pas graphique, par ex les perfs du navigateur sont excellentes. Pour ce qui est du reste, la plupart des libs étant optimizées x86 et pas toujours ARM, NEON, etc. (même si ca commence a venir) ca aide aussi. Bref, intel a un bon jeu et une bonne chance, s'ils continuent de bosser dur. |
|
|
24 Dec 2012, 08:59
Message
#3
|
|
Macbidouilleur d'Or ! Groupe : Membres Messages : 2 986 Inscrit : 11 Jul 2005 Lieu : dans rire Membre no 42 212 |
Le problème d'Intel, c'est qu'ils ont encore quelques générations de retard. On sait depuis près d'une semaine que le futur Tegra 4 serait six fois plus puissant que le Tegra 3. La fuite vient de Chiphell, à l'origine, mais tout le monde ne parle pas chinois et la nouvelle a fait le tour de la Toile depuis:
http://www.generation-nt.com/nvidia-tegra-...te-1672002.html |
|
|
24 Dec 2012, 09:36
Message
#4
|
|
Macbidouilleur de vermeil ! Groupe : Membres Messages : 1 305 Inscrit : 22 Aug 2001 Lieu : Paris Membre no 668 |
x86, Surface pro...
L'empire Wintel contre-attaque enfin avec des armes affutées. Je ne suis pas plus fan que ca, mais si MS et Intel ont une carte à jouer, c'est celle de la continuité. Intéressant à suivre tout ça. -------------------- MBP13 Early 2015 - Core i7.
|
|
|
24 Dec 2012, 10:26
Message
#5
|
|
Macbidouilleur d'Or ! Groupe : Membres Messages : 2 898 Inscrit : 12 Sep 2002 Lieu : Nice (06000) Membre no 3 470 |
Le problème d'Intel, c'est qu'ils ont encore quelques générations de retard. On sait depuis près d'une semaine que le futur Tegra 4 serait six fois plus puissant que le Tegra 3. La fuite vient de Chiphell, à l'origine, mais tout le monde ne parle pas chinois et la nouvelle a fait le tour de la Toile depuis: http://www.generation-nt.com/nvidia-tegra-...te-1672002.html Exactement, le Tegra 4 sort en début d'année prochaine et sera bien plus rapide que le Tegra 3 qui fera office de milieu de gamme. |
|
|
24 Dec 2012, 11:29
Message
#6
|
|
Macbidouilleur d'Or ! Groupe : Membres Messages : 1 625 Inscrit : 21 May 2002 Membre no 2 515 |
6 fois le tegra 3... bien hâte de voir sachant que le nouveau cortex a15 de samsung ne fait pas ça....
-------------------- Steve Job: Les bons artistes copient, les grands artistes volent, nous avons toujours été sans scrupule lorsqu'il s'agit de voler de grandes idées.
|
|
|
24 Dec 2012, 12:02
Message
#7
|
|
Macbidouilleur d'Or ! Groupe : Membres Messages : 5 851 Inscrit : 8 Dec 2004 Lieu : Dans un coin perdu du 41 Membre no 28 453 |
En même temps, il s'agit sûrement de la puissance graphique, pas de la puissance de calcul du CPU...
-------------------- Macbook 2006 C2D 2 GHz, 3 Go, Snow Leopard
Macbook Pro 15" 2010 i5 2,4 GHz, 4 Go, Mavericks (pour ma chérie) Nexus 4 sous Lollipop Samsung Galaxy S2 sous Gingerbread (pour ma chérie) Deux chats Le blog de ma chérie |
|
|
24 Dec 2012, 12:22
Message
#8
|
|
Macbidouilleur d'Or ! Groupe : Membres Messages : 5 725 Inscrit : 5 Oct 2005 Membre no 47 298 |
Le Soc, c'est pas sur quoi on pose un microprocesseur et qui permet d'en changer. Le culot du machin amovible, quoi.
Bon, après ça, Intel n'a pas encore passé l'ARM à gauche ! Ce message a été modifié par DefKing - 24 Dec 2012, 12:22. -------------------- Performa 6400, G4 AGP, iMac G5 20", iMac 21,5 core i3 et iBook G4 14".
|
|
|
24 Dec 2012, 13:43
Message
#9
|
|
Macbidouilleur d'Or ! Groupe : Rédacteurs Messages : 32 187 Inscrit : 15 Nov 2005 Membre no 49 996 |
En même temps, il s'agit sûrement de la puissance graphique, pas de la puissance de calcul du CPU... Yep. C'est le nombre d'unités graphiques qui a été multiplié par six, ce qui ne dit pas que les performances GPU seront multipliées par six, et encore moins que les performances CPU le seront... Sur la partie CPU un facteur de l'ordre de deux dans les cas favorables me parait bien plus réaliste.Le Soc, c'est pas sur quoi on pose un microprocesseur et qui permet d'en changer. Le culot du machin amovible, quoi. Non, ça c'est un socket.Un SoC (Système on a Chip) c'est une puce contenant tous les élément essentiels pour faire fonctionner un appareil : CPU, GPU, contrôleurs divers (RAM, stockage, I/O...). -------------------- |
|
|
24 Dec 2012, 14:48
Message
#10
|
|
Macbidouilleur de bronze ! Groupe : Membres Messages : 497 Inscrit : 16 Oct 2005 Membre no 48 046 |
6 fois le tegra 3... bien hâte de voir sachant que le nouveau cortex a15 de samsung ne fait pas ça.... Le Samsung actuel c'est 2 coeurs gravés en 32nm. Le Tegra4 est annoncé 4 coeurs (+1) graver en 28nm. Donc, bien mieux que le tout 1er Cortex-A15 de Samsung (qui lui aussi à prévu du 4 coeurs). -------------------- |
|
|
24 Dec 2012, 15:08
Message
#11
|
|
Macbidouilleur d'Or ! Groupe : Membres Messages : 5 851 Inscrit : 8 Dec 2004 Lieu : Dans un coin perdu du 41 Membre no 28 453 |
Si tu veux aller dans ce sens, c'est oublier que les Tegra n'ont jamais été réputés pour leur partie CPU : un S4 double cœur le bat assez largement (à fréquence égale)... Alors le fait d'être basé sur du A15 va forcément leur faire faire un bond, en avant, mais avec un tel facteur, j'ai comme un sérieux doute, là.
Je maintiens mon avis : la multiplication par 6 va se limiter au GPU. -------------------- Macbook 2006 C2D 2 GHz, 3 Go, Snow Leopard
Macbook Pro 15" 2010 i5 2,4 GHz, 4 Go, Mavericks (pour ma chérie) Nexus 4 sous Lollipop Samsung Galaxy S2 sous Gingerbread (pour ma chérie) Deux chats Le blog de ma chérie |
|
|
24 Dec 2012, 15:11
Message
#12
|
|
Macbidouilleur d'argent ! Groupe : Membres Messages : 646 Inscrit : 20 Oct 2005 Lieu : Rennes Membre no 48 292 |
En même temps, il s'agit sûrement de la puissance graphique, pas de la puissance de calcul du CPU... Yep. C'est le nombre d'unités graphiques qui a été multiplié par six, ce qui ne dit pas que les performances GPU seront multipliées par six, et encore moins que les performances CPU le seront... Sur la partie CPU un facteur de l'ordre de deux dans les cas favorables me parait bien plus réaliste.Le Soc, c'est pas sur quoi on pose un microprocesseur et qui permet d'en changer. Le culot du machin amovible, quoi. Non, ça c'est un socket.Un SoC (Système on a Chip) c'est une puce contenant tous les élément essentiels pour faire fonctionner un appareil : CPU, GPU, contrôleurs divers (RAM, stockage, I/O...). donc un Apple A6 révisé dans les nouveaux iPad du printemps pour etre compétitif sur le papier ? et dans un bref terme à quoi va servir ce surcroit de puissance ? l'iPad mini reste en A5 et mis à part les geekbench et autres tests théoriques, dans les actions du quotidien ça reste équivalent; je me demande ce qui pourra vraiment progresser sur une tablette si ce n'est de mouvoir un OS plus lourd et augmenter les détails dans les jeux...autrement quelles perspectives d'évolution ? -------------------- MBP 13,3"
iPod Nano Silver G4 DA ressuscité @ 2Ghz (G4 7448) iPod 2G 10Go iMac G3 Ruby 450Mhz PowerMac 8600 333Mhz |
|
|
24 Dec 2012, 17:05
Message
#13
|
|
Macbidouilleur d'Or ! Groupe : Membres Messages : 1 755 Inscrit : 13 Nov 2002 Lieu : Près de Liège (Be) Membre no 4 663 |
Si tu veux aller dans ce sens, c'est oublier que les Tegra n'ont jamais été réputés pour leur partie CPU : un S4 double cœur le bat assez largement (à fréquence égale)... Alors le fait d'être basé sur du A15 va forcément leur faire faire un bond, en avant, mais avec un tel facteur, j'ai comme un sérieux doute, là. Je maintiens mon avis : la multiplication par 6 va se limiter au GPU. Pour le GPU, c'est un peu plus compliqué que ça, en fait. Actuellement, tegra 3 c'est le même GPU que Tegra 2 en amélioré, un truc assez proche des GeForce 6 et pas unifié. On a 4 unités de pixels et 4 de vertex dans tegra 2, 8 de pixels et 4 de vertex dans Tegra 3. Parler de 12 unités, c'est déjà un sale abus de langage de la part de NVIDIA. Dans Tegra 4, de ce qu'on sait, ce sera 72 unités, mais a priori des unités unifiées, type CUDA. On s'approche plus des GeForce 8 (et de ce qui existe actuellement). Mais faut pas suivre le marketing : les unités sont a priori pas comparables, et multiplier les unités par 6 multiplie pas la puissance par 6. Pour comprendre : une GeForce 6 plus gros modèle, c'était « 24 unités », soit 16 pixels et 6 shaders (un peu plus que Tegra 3, donc). Une grosse GeForce 8, c'était 128 unités, et on n'a pas multiplié les perfs par 5 entre temps. Si NVIDIA fait bien son boulot, on devrait être au niveau d'un A6X, peut-être un peu plus rapide. |
|
|
24 Dec 2012, 17:45
Message
#14
|
|
Macbidouilleur d'Or ! Groupe : Membres Messages : 2 411 Inscrit : 15 Jul 2009 Membre no 139 172 |
intel a un avantage enorme. leur puces, et donc aussi la partie reseau et graphique, sont bien supportées en open source. les drivers des puces arm sont degueulasses, et la plupart des fonctions (gpu, etc) sont proprio ET mal foutus. je travaille pour une grosse boite sur un OS mobile est c'est un des gros problème; toujours entrain d'attendre que l'OEM X ou Z corrige les bugs de leur chipsets, et toujours entrain de jongler autour du code proprio pour integrer. Chez intel, que dale, ca marche, et c'est tout. Non seulement ca, mais sur les chips intel, tout ce qui n'est pas graphique, par ex les perfs du navigateur sont excellentes. Pour ce qui est du reste, la plupart des libs étant optimizées x86 et pas toujours ARM, NEON, etc. (même si ca commence a venir) ca aide aussi. Bref, intel a un bon jeu et une bonne chance, s'ils continuent de bosser dur. Ça c'est intéressant, on entends finalement assez peu parler de cet aspect des proco ARM, l'actu évoquant surtout leur faible consommation et leur spécialisation, contre la polyvalence (et la lourdeur) des X86. -------------------- Mac mini Unibody Intel Core i7 2,7 Ghz Mid 2011
AMD Radeon HD 6330M 256 MB 8 Go de Ram Crucial DDR3 1333 Mhz SSD Crucial M4 128 Go iPhone 6S Silver 64 Go |
|
|
24 Dec 2012, 18:18
Message
#15
|
|
Adepte de Macbidouille Groupe : Membres Messages : 203 Inscrit : 27 Mar 2008 Membre no 111 071 |
intel a un avantage enorme. leur puces, et donc aussi la partie reseau et graphique, sont bien supportées en open source. les drivers des puces arm sont degueulasses, et la plupart des fonctions (gpu, etc) sont proprio ET mal foutus. je travaille pour une grosse boite sur un OS mobile est c'est un des gros problème; toujours entrain d'attendre que l'OEM X ou Z corrige les bugs de leur chipsets, et toujours entrain de jongler autour du code proprio pour integrer. Chez intel, que dale, ca marche, et c'est tout. Non seulement ca, mais sur les chips intel, tout ce qui n'est pas graphique, par ex les perfs du navigateur sont excellentes. Pour ce qui est du reste, la plupart des libs étant optimizées x86 et pas toujours ARM, NEON, etc. (même si ca commence a venir) ca aide aussi. Bref, intel a un bon jeu et une bonne chance, s'ils continuent de bosser dur. Ce qui est sur c'est que si un constructeur sort une tablette INTEL compatible windows 100% au même prix que les tablettes android mais peut être un peu moins puissante, je n’hésiterais pas une minute. |
|
|
24 Dec 2012, 18:23
Message
#16
|
|
Macbidouilleur de bronze ! Groupe : Membres Messages : 497 Inscrit : 16 Oct 2005 Membre no 48 046 |
Faut pas s'emballer sur le x6 sur le GPU, quand il sera là faudra voir si les transferts lui permet tant de rapidité.
Ça serait bien qu'il est aussi CUDA, ou au moins OpenCL et RenderScript pour mieux utiliser le GPU. Je n'en reviens toujours pas qu'Intel attende que le Tegra3 soit quasiment en fin de vie pour se comparer à lui... ça en dit long comme il est à la peine ! -------------------- |
|
|
24 Dec 2012, 18:32
Message
#17
|
|
Macbidouilleur d'Or ! Groupe : Membres Messages : 5 851 Inscrit : 8 Dec 2004 Lieu : Dans un coin perdu du 41 Membre no 28 453 |
Pour le GPU, c'est un peu plus compliqué que ça, en fait. Actuellement, tegra 3 c'est le même GPU que Tegra 2 en amélioré, un truc assez proche des GeForce 6 et pas unifié. On a 4 unités de pixels et 4 de vertex dans tegra 2, 8 de pixels et 4 de vertex dans Tegra 3. Parler de 12 unités, c'est déjà un sale abus de langage de la part de NVIDIA. Dans Tegra 4, de ce qu'on sait, ce sera 72 unités, mais a priori des unités unifiées, type CUDA. On s'approche plus des GeForce 8 (et de ce qui existe actuellement). Mais faut pas suivre le marketing : les unités sont a priori pas comparables, et multiplier les unités par 6 multiplie pas la puissance par 6. Pour comprendre : une GeForce 6 plus gros modèle, c'était « 24 unités », soit 16 pixels et 6 shaders (un peu plus que Tegra 3, donc). Une grosse GeForce 8, c'était 128 unités, et on n'a pas multiplié les perfs par 5 entre temps. Si NVIDIA fait bien son boulot, on devrait être au niveau d'un A6X, peut-être un peu plus rapide. Je savais que c'était marketing, sans être capable de rentrer dans les détails. Donc : merci. Faut pas s'emballer sur le x6 sur le GPU, quand il sera là faudra voir si les transferts lui permet tant de rapidité. Ça serait bien qu'il est aussi CUDA, ou au moins OpenCL et RenderScript pour mieux utiliser le GPU. Je n'en reviens toujours pas qu'Intel attende que le Tegra3 soit quasiment en fin de vie pour se comparer à lui... ça en dit long comme il est à la peine ! -------------------- Macbook 2006 C2D 2 GHz, 3 Go, Snow Leopard
Macbook Pro 15" 2010 i5 2,4 GHz, 4 Go, Mavericks (pour ma chérie) Nexus 4 sous Lollipop Samsung Galaxy S2 sous Gingerbread (pour ma chérie) Deux chats Le blog de ma chérie |
|
|
24 Dec 2012, 19:13
Message
#18
|
|
Macbidouilleur de bronze ! Groupe : Membres Messages : 497 Inscrit : 16 Oct 2005 Membre no 48 046 |
Et la concurrence ne chaume pas :
http://www.pcworld.fr/processeur/actualite...tm_campaign=rss -------------------- |
|
|
Nous sommes le : 25th April 2024 - 12:03 |