IPB

Bienvenue invité ( Connexion | Inscription )

 
Reply to this topicStart new topic
> Intel annonce que ses SoC X86 sont plus efficaces que le Tegra 3, Réactions à la publication du 24/12/2012
Options
Lionel
posté 24 Dec 2012, 00:00
Message #1


BIDOUILLE Guru
*****

Groupe : Admin
Messages : 55 345
Inscrit : 14 Jan 2001
Lieu : Paris
Membre no 3



On se souvient qu'à la sortie de l'iPad 3 (on l'appellera comme ça dorénavant), Apple avait annoncé que sa puce était plus rapide que le Tegra 3, qui fait figure de référence. C'est au tour d'Intel de lui faire un sort et d'annoncer que sa dernière puce X86 Clover Trail destinée aux tablettes et téléphones mobiles est aussi non seulement plus véloce mais aussi plus économe en énergie que le Tegra 3.
Bien entendu ce comportement (comme la comparaison d'Apple) l'ont été sur certaines fonctions, mais il faut avouer qu'Intel a fait un colossal travail en moins de 3 ans pour optimiser la puissance de ses puces et leur consommation. On est certes pas encore arrivé à une réelle parité entre X86 et ARM, mais peu de personnes auraient pu prédire qu'Intel progresserait aussi vite dans ce domaine.


Il reste seulement à savoir si la société arrivera à se faire une place sur ce marché où ARM a donné un goût de liberté aux fabricants qui personnalisent de plus en plus leurs puces à l'image d'Apple.
Par Lionel


--------------------
C'est parce que la vitesse de la lumière est plus grande que celle du son que tant de gens paraissent brillants avant d'avoir l'air con
Go to the top of the page
 
+Quote Post
bilboa
posté 24 Dec 2012, 00:30
Message #2


Macbidouilleur de bronze !
**

Groupe : Membres
Messages : 270
Inscrit : 13 Oct 2008
Membre no 123 503



intel a un avantage enorme. leur puces, et donc aussi la partie reseau et graphique, sont bien supportées en open source.
les drivers des puces arm sont degueulasses, et la plupart des fonctions (gpu, etc) sont proprio ET mal foutus.

je travaille pour une grosse boite sur un OS mobile est c'est un des gros problème; toujours entrain d'attendre que l'OEM X ou Z corrige les bugs de leur chipsets, et toujours entrain de jongler autour du code proprio pour integrer. Chez intel, que dale, ca marche, et c'est tout.

Non seulement ca, mais sur les chips intel, tout ce qui n'est pas graphique, par ex les perfs du navigateur sont excellentes. Pour ce qui est du reste, la plupart des libs étant optimizées x86 et pas toujours ARM, NEON, etc. (même si ca commence a venir) ca aide aussi.

Bref, intel a un bon jeu et une bonne chance, s'ils continuent de bosser dur.
Go to the top of the page
 
+Quote Post
TomCom
posté 24 Dec 2012, 08:59
Message #3


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 2 986
Inscrit : 11 Jul 2005
Lieu : dans rire
Membre no 42 212



Le problème d'Intel, c'est qu'ils ont encore quelques générations de retard. On sait depuis près d'une semaine que le futur Tegra 4 serait six fois plus puissant que le Tegra 3. La fuite vient de Chiphell, à l'origine, mais tout le monde ne parle pas chinois et la nouvelle a fait le tour de la Toile depuis:
http://www.generation-nt.com/nvidia-tegra-...te-1672002.html
Go to the top of the page
 
+Quote Post
GregWar
posté 24 Dec 2012, 09:36
Message #4


Macbidouilleur de vermeil !
****

Groupe : Membres
Messages : 1 305
Inscrit : 22 Aug 2001
Lieu : Paris
Membre no 668



x86, Surface pro...

L'empire Wintel contre-attaque enfin avec des armes affutées.
Je ne suis pas plus fan que ca, mais si MS et Intel ont une carte à jouer, c'est celle de la continuité.

Intéressant à suivre tout ça.


--------------------
MBP13 Early 2015 - Core i7.
Go to the top of the page
 
+Quote Post
siméon
posté 24 Dec 2012, 10:26
Message #5


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 2 898
Inscrit : 12 Sep 2002
Lieu : Nice (06000)
Membre no 3 470



Citation (TomCom @ 24 Dec 2012, 08:59) *
Le problème d'Intel, c'est qu'ils ont encore quelques générations de retard. On sait depuis près d'une semaine que le futur Tegra 4 serait six fois plus puissant que le Tegra 3. La fuite vient de Chiphell, à l'origine, mais tout le monde ne parle pas chinois et la nouvelle a fait le tour de la Toile depuis:
http://www.generation-nt.com/nvidia-tegra-...te-1672002.html


Exactement, le Tegra 4 sort en début d'année prochaine et sera bien plus rapide que le Tegra 3 qui fera office de milieu de gamme.
Go to the top of the page
 
+Quote Post
os2
posté 24 Dec 2012, 11:29
Message #6


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 1 625
Inscrit : 21 May 2002
Membre no 2 515



6 fois le tegra 3... bien hâte de voir sachant que le nouveau cortex a15 de samsung ne fait pas ça....


--------------------
Steve Job: Les bons artistes copient, les grands artistes volent, nous avons toujours été sans scrupule lorsqu'il s'agit de voler de grandes idées.
Go to the top of the page
 
+Quote Post
Dreaming
posté 24 Dec 2012, 12:02
Message #7


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 5 851
Inscrit : 8 Dec 2004
Lieu : Dans un coin perdu du 41
Membre no 28 453



En même temps, il s'agit sûrement de la puissance graphique, pas de la puissance de calcul du CPU...


--------------------
Macbook 2006 C2D 2 GHz, 3 Go, Snow Leopard
Macbook Pro 15" 2010 i5 2,4 GHz, 4 Go, Mavericks (pour ma chérie)
Nexus 4 sous Lollipop
Samsung Galaxy S2 sous Gingerbread (pour ma chérie)
Deux chats

Le blog de ma chérie
Go to the top of the page
 
+Quote Post
DefKing
posté 24 Dec 2012, 12:22
Message #8


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 5 725
Inscrit : 5 Oct 2005
Membre no 47 298



Le Soc, c'est pas sur quoi on pose un microprocesseur et qui permet d'en changer. Le culot du machin amovible, quoi.

Bon, après ça, Intel n'a pas encore passé l'ARM à gauche !

Ce message a été modifié par DefKing - 24 Dec 2012, 12:22.


--------------------
Performa 6400, G4 AGP, iMac G5 20", iMac 21,5 core i3 et iBook G4 14".
Go to the top of the page
 
+Quote Post
SartMatt
posté 24 Dec 2012, 13:43
Message #9


Macbidouilleur d'Or !
*****

Groupe : Rédacteurs
Messages : 32 187
Inscrit : 15 Nov 2005
Membre no 49 996



Citation (Dreaming @ 24 Dec 2012, 12:02) *
En même temps, il s'agit sûrement de la puissance graphique, pas de la puissance de calcul du CPU...
Yep. C'est le nombre d'unités graphiques qui a été multiplié par six, ce qui ne dit pas que les performances GPU seront multipliées par six, et encore moins que les performances CPU le seront... Sur la partie CPU un facteur de l'ordre de deux dans les cas favorables me parait bien plus réaliste.

Citation (DefKing @ 24 Dec 2012, 12:22) *
Le Soc, c'est pas sur quoi on pose un microprocesseur et qui permet d'en changer. Le culot du machin amovible, quoi.
Non, ça c'est un socket.

Un SoC (Système on a Chip) c'est une puce contenant tous les élément essentiels pour faire fonctionner un appareil : CPU, GPU, contrôleurs divers (RAM, stockage, I/O...).


--------------------

Go to the top of the page
 
+Quote Post
Skwaloo
posté 24 Dec 2012, 14:48
Message #10


Macbidouilleur de bronze !
**

Groupe : Membres
Messages : 497
Inscrit : 16 Oct 2005
Membre no 48 046



Citation (os2 @ 24 Dec 2012, 11:29) *
6 fois le tegra 3... bien hâte de voir sachant que le nouveau cortex a15 de samsung ne fait pas ça....

Le Samsung actuel c'est 2 coeurs gravés en 32nm.
Le Tegra4 est annoncé 4 coeurs (+1) graver en 28nm. Donc, bien mieux que le tout 1er Cortex-A15 de Samsung (qui lui aussi à prévu du 4 coeurs).


--------------------
Go to the top of the page
 
+Quote Post
Dreaming
posté 24 Dec 2012, 15:08
Message #11


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 5 851
Inscrit : 8 Dec 2004
Lieu : Dans un coin perdu du 41
Membre no 28 453



Si tu veux aller dans ce sens, c'est oublier que les Tegra n'ont jamais été réputés pour leur partie CPU : un S4 double cœur le bat assez largement (à fréquence égale)... Alors le fait d'être basé sur du A15 va forcément leur faire faire un bond, en avant, mais avec un tel facteur, j'ai comme un sérieux doute, là. confused5.gif

Je maintiens mon avis : la multiplication par 6 va se limiter au GPU.


--------------------
Macbook 2006 C2D 2 GHz, 3 Go, Snow Leopard
Macbook Pro 15" 2010 i5 2,4 GHz, 4 Go, Mavericks (pour ma chérie)
Nexus 4 sous Lollipop
Samsung Galaxy S2 sous Gingerbread (pour ma chérie)
Deux chats

Le blog de ma chérie
Go to the top of the page
 
+Quote Post
cyrille32
posté 24 Dec 2012, 15:11
Message #12


Macbidouilleur d'argent !
***

Groupe : Membres
Messages : 646
Inscrit : 20 Oct 2005
Lieu : Rennes
Membre no 48 292



Citation (SartMatt @ 24 Dec 2012, 14:43) *
Citation (Dreaming @ 24 Dec 2012, 12:02) *
En même temps, il s'agit sûrement de la puissance graphique, pas de la puissance de calcul du CPU...
Yep. C'est le nombre d'unités graphiques qui a été multiplié par six, ce qui ne dit pas que les performances GPU seront multipliées par six, et encore moins que les performances CPU le seront... Sur la partie CPU un facteur de l'ordre de deux dans les cas favorables me parait bien plus réaliste.

Citation (DefKing @ 24 Dec 2012, 12:22) *
Le Soc, c'est pas sur quoi on pose un microprocesseur et qui permet d'en changer. Le culot du machin amovible, quoi.
Non, ça c'est un socket.

Un SoC (Système on a Chip) c'est une puce contenant tous les élément essentiels pour faire fonctionner un appareil : CPU, GPU, contrôleurs divers (RAM, stockage, I/O...).



donc un Apple A6 révisé dans les nouveaux iPad du printemps pour etre compétitif sur le papier ? et dans un bref terme à quoi va servir ce surcroit de puissance ?
l'iPad mini reste en A5 et mis à part les geekbench et autres tests théoriques, dans les actions du quotidien ça reste équivalent; je me demande ce qui pourra vraiment progresser sur une tablette si ce n'est de mouvoir un OS plus lourd et augmenter les détails dans les jeux...autrement quelles perspectives d'évolution ?


--------------------
MBP 13,3"
iPod Nano Silver
G4 DA ressuscité @ 2Ghz (G4 7448)
iPod 2G 10Go
iMac G3 Ruby 450Mhz
PowerMac 8600 333Mhz
Go to the top of the page
 
+Quote Post
dandu
posté 24 Dec 2012, 17:05
Message #13


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 1 755
Inscrit : 13 Nov 2002
Lieu : Près de Liège (Be)
Membre no 4 663



Citation (Dreaming @ 24 Dec 2012, 17:08) *
Si tu veux aller dans ce sens, c'est oublier que les Tegra n'ont jamais été réputés pour leur partie CPU : un S4 double cœur le bat assez largement (à fréquence égale)... Alors le fait d'être basé sur du A15 va forcément leur faire faire un bond, en avant, mais avec un tel facteur, j'ai comme un sérieux doute, là. confused5.gif

Je maintiens mon avis : la multiplication par 6 va se limiter au GPU.


Pour le GPU, c'est un peu plus compliqué que ça, en fait.

Actuellement, tegra 3 c'est le même GPU que Tegra 2 en amélioré, un truc assez proche des GeForce 6 et pas unifié.

On a 4 unités de pixels et 4 de vertex dans tegra 2, 8 de pixels et 4 de vertex dans Tegra 3. Parler de 12 unités, c'est déjà un sale abus de langage de la part de NVIDIA.

Dans Tegra 4, de ce qu'on sait, ce sera 72 unités, mais a priori des unités unifiées, type CUDA. On s'approche plus des GeForce 8 (et de ce qui existe actuellement).
Mais faut pas suivre le marketing : les unités sont a priori pas comparables, et multiplier les unités par 6 multiplie pas la puissance par 6.

Pour comprendre : une GeForce 6 plus gros modèle, c'était « 24 unités », soit 16 pixels et 6 shaders (un peu plus que Tegra 3, donc). Une grosse GeForce 8, c'était 128 unités, et on n'a pas multiplié les perfs par 5 entre temps.

Si NVIDIA fait bien son boulot, on devrait être au niveau d'un A6X, peut-être un peu plus rapide.
Go to the top of the page
 
+Quote Post
Arsenal Gear
posté 24 Dec 2012, 17:45
Message #14


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 2 411
Inscrit : 15 Jul 2009
Membre no 139 172



Citation (bilboa @ 24 Dec 2012, 00:30) *
intel a un avantage enorme. leur puces, et donc aussi la partie reseau et graphique, sont bien supportées en open source.
les drivers des puces arm sont degueulasses, et la plupart des fonctions (gpu, etc) sont proprio ET mal foutus.

je travaille pour une grosse boite sur un OS mobile est c'est un des gros problème; toujours entrain d'attendre que l'OEM X ou Z corrige les bugs de leur chipsets, et toujours entrain de jongler autour du code proprio pour integrer. Chez intel, que dale, ca marche, et c'est tout.

Non seulement ca, mais sur les chips intel, tout ce qui n'est pas graphique, par ex les perfs du navigateur sont excellentes. Pour ce qui est du reste, la plupart des libs étant optimizées x86 et pas toujours ARM, NEON, etc. (même si ca commence a venir) ca aide aussi.

Bref, intel a un bon jeu et une bonne chance, s'ils continuent de bosser dur.


Ça c'est intéressant, on entends finalement assez peu parler de cet aspect des proco ARM, l'actu évoquant surtout leur faible consommation et leur spécialisation, contre la polyvalence (et la lourdeur) des X86.


--------------------
Mac mini Unibody Intel Core i7 2,7 Ghz Mid 2011
AMD Radeon HD 6330M 256 MB
8 Go de Ram Crucial DDR3 1333 Mhz
SSD Crucial M4 128 Go


iPhone 4 16 Go
iPhone 6S Silver 64 Go
Go to the top of the page
 
+Quote Post
jadawin_2
posté 24 Dec 2012, 18:18
Message #15


Adepte de Macbidouille
*

Groupe : Membres
Messages : 203
Inscrit : 27 Mar 2008
Membre no 111 071



Citation (bilboa @ 23 Dec 2012, 18:30) *
intel a un avantage enorme. leur puces, et donc aussi la partie reseau et graphique, sont bien supportées en open source.
les drivers des puces arm sont degueulasses, et la plupart des fonctions (gpu, etc) sont proprio ET mal foutus.

je travaille pour une grosse boite sur un OS mobile est c'est un des gros problème; toujours entrain d'attendre que l'OEM X ou Z corrige les bugs de leur chipsets, et toujours entrain de jongler autour du code proprio pour integrer. Chez intel, que dale, ca marche, et c'est tout.

Non seulement ca, mais sur les chips intel, tout ce qui n'est pas graphique, par ex les perfs du navigateur sont excellentes. Pour ce qui est du reste, la plupart des libs étant optimizées x86 et pas toujours ARM, NEON, etc. (même si ca commence a venir) ca aide aussi.

Bref, intel a un bon jeu et une bonne chance, s'ils continuent de bosser dur.


Ce qui est sur c'est que si un constructeur sort une tablette INTEL compatible windows 100% au même prix que les tablettes android mais peut être un peu moins puissante, je n’hésiterais pas une minute.
Go to the top of the page
 
+Quote Post
Skwaloo
posté 24 Dec 2012, 18:23
Message #16


Macbidouilleur de bronze !
**

Groupe : Membres
Messages : 497
Inscrit : 16 Oct 2005
Membre no 48 046



Faut pas s'emballer sur le x6 sur le GPU, quand il sera là faudra voir si les transferts lui permet tant de rapidité.

Ça serait bien qu'il est aussi CUDA, ou au moins OpenCL et RenderScript pour mieux utiliser le GPU.

Je n'en reviens toujours pas qu'Intel attende que le Tegra3 soit quasiment en fin de vie pour se comparer à lui... ça en dit long comme il est à la peine !


--------------------
Go to the top of the page
 
+Quote Post
Dreaming
posté 24 Dec 2012, 18:32
Message #17


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 5 851
Inscrit : 8 Dec 2004
Lieu : Dans un coin perdu du 41
Membre no 28 453



Citation (dandu @ 24 Dec 2012, 17:05) *
Pour le GPU, c'est un peu plus compliqué que ça, en fait.

Actuellement, tegra 3 c'est le même GPU que Tegra 2 en amélioré, un truc assez proche des GeForce 6 et pas unifié.

On a 4 unités de pixels et 4 de vertex dans tegra 2, 8 de pixels et 4 de vertex dans Tegra 3. Parler de 12 unités, c'est déjà un sale abus de langage de la part de NVIDIA.

Dans Tegra 4, de ce qu'on sait, ce sera 72 unités, mais a priori des unités unifiées, type CUDA. On s'approche plus des GeForce 8 (et de ce qui existe actuellement).
Mais faut pas suivre le marketing : les unités sont a priori pas comparables, et multiplier les unités par 6 multiplie pas la puissance par 6.

Pour comprendre : une GeForce 6 plus gros modèle, c'était « 24 unités », soit 16 pixels et 6 shaders (un peu plus que Tegra 3, donc). Une grosse GeForce 8, c'était 128 unités, et on n'a pas multiplié les perfs par 5 entre temps.

Si NVIDIA fait bien son boulot, on devrait être au niveau d'un A6X, peut-être un peu plus rapide.

Je savais que c'était marketing, sans être capable de rentrer dans les détails. Donc : merci. smile.gif

Citation (Skwaloo @ 24 Dec 2012, 18:23) *
Faut pas s'emballer sur le x6 sur le GPU, quand il sera là faudra voir si les transferts lui permet tant de rapidité.

Ça serait bien qu'il est aussi CUDA, ou au moins OpenCL et RenderScript pour mieux utiliser le GPU.

Je n'en reviens toujours pas qu'Intel attende que le Tegra3 soit quasiment en fin de vie pour se comparer à lui... ça en dit long comme il est à la peine !

rolleyes.gif


--------------------
Macbook 2006 C2D 2 GHz, 3 Go, Snow Leopard
Macbook Pro 15" 2010 i5 2,4 GHz, 4 Go, Mavericks (pour ma chérie)
Nexus 4 sous Lollipop
Samsung Galaxy S2 sous Gingerbread (pour ma chérie)
Deux chats

Le blog de ma chérie
Go to the top of the page
 
+Quote Post
Skwaloo
posté 24 Dec 2012, 19:13
Message #18


Macbidouilleur de bronze !
**

Groupe : Membres
Messages : 497
Inscrit : 16 Oct 2005
Membre no 48 046



Et la concurrence ne chaume pas :
http://www.pcworld.fr/processeur/actualite...tm_campaign=rss


--------------------
Go to the top of the page
 
+Quote Post

Reply to this topicStart new topic
1 utilisateur(s) sur ce sujet (1 invité(s) et 0 utilisateur(s) anonyme(s))
0 membre(s) :

 



Nous sommes le : 25th April 2024 - 12:03