IPB

Bienvenue invité ( Connexion | Inscription )

 
Reply to this topicStart new topic
> Nvidia: Le Tegra 4 plus véloce que l'A6X, Réactions à la publication du 16/01/2013
Options
Lionel
posté 16 Jan 2013, 00:04
Message #1


BIDOUILLE Guru
*****

Groupe : Admin
Messages : 55 345
Inscrit : 14 Jan 2001
Lieu : Paris
Membre no 3



A une époque, Apple avait vanté sa puce A6 en indiquant qu'elle était plus rapide que le Tegra 3 de Nvidia, ce qui était vrai dans certains tests 3D.
Il n'est donc pas surprenant que Nvidia ait décidé de jouer aux comparaisons inversées en annonçant que son Tegra 4 était plus rapide en fonctions 3D que l'A6X d'Apple, qui fait référence dans ce domaine.
Ces performances supérieures entre la solution graphique de Nvidia et le PowerVR dont est doté l'A6X ne seraient toutefois pas aussi grandes que Nvidia veut le laisser entendre. Elles seraient en fait surtout liées à une cadence supérieure des cœurs graphiques, ce qui est moins impressionnant que si cela avait été le fait d'une architecture réellement supérieure.


En fait, d'un point de vue technique, le Tegra 4 est une évolution du Tegra 3 sans réelles innovations profondes. Cette puce ne devrait donc pas faire beaucoup d'ombre à celles d'Apple, qui a encore énormément de potentiel d'optimisation grâce à ses développements maison, qui ont beaucoup impressionné déjà avec l'A6X.
Par Lionel


--------------------
C'est parce que la vitesse de la lumière est plus grande que celle du son que tant de gens paraissent brillants avant d'avoir l'air con
Go to the top of the page
 
+Quote Post
almux
posté 16 Jan 2013, 08:53
Message #2


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 7 690
Inscrit : 26 Oct 2002
Lieu : Suisse
Membre no 4 348



Ce Tegra 4 a-t-il une consommation équivalente ou moindre que l'A6X?


--------------------
Être déçu ne vient pas d'un objet ou d'une tierce personne. La déception naît de nos trop grandes attentes! Chacun est responsable de ses frustrations.

On n'est riche que si l'on est heureux de ce que l'on est ;o)

Dicton de ma Chère Grand-Mère: "N'achète jamais ce dont tu as besoin, mais seulement ce dont tu ne peux te passer".
Go to the top of the page
 
+Quote Post
jokoe
posté 16 Jan 2013, 09:34
Message #3


Adepte de Macbidouille
*

Groupe : Membres
Messages : 179
Inscrit : 2 Jul 2007
Membre no 89 786



Curieux, un autre site titre le contraire... Comme quoi, la comparaison de plateformes n'est pas forcément évidente.
Benchmarks : le Tegra 4 derrière l'Apple A6X sur GLBenchmark ?

Ce message a été modifié par jokoe - 16 Jan 2013, 09:48.


--------------------
MBP 15" late 2007 (3,1) C2D 2,2 GHz / 2x2Go Kingston HyperX / SSD Crucial M4 256 Go + HDD 160 Go (SuperDrive HS) / Nvidia 8600m / OS X 10.8.4 RIP le 15 décembre 2013 Ressuscité le 18, après avoir redémarré sur le DVD de OS X Snow Leopard...
Go to the top of the page
 
+Quote Post
Pyvesd
posté 16 Jan 2013, 10:03
Message #4


Adepte de Macbidouille
*

Groupe : Membres
Messages : 65
Inscrit : 9 Aug 2006
Lieu : Bordeaux, little earth, système solaire
Membre no 65 615



Citation (Lionel @ 16 Jan 2013, 00:04) *
En fait, d'un point de vue technique, le Tegra 4 est une évolution du Tegra 3 sans réelles innovations profondes.

oui, enfin ils ont quand même doublé le nombre de pixel chader et *6 les vertex! Ce n'est pas négligeable.

@Almux, le tegra 3 est gravé en 40nm et le tegra 4 en 28, mais d'après une déclaration de Nvidia lue ailleurs, la conso devrait être très légèrement supérieure (au tegra3) à cause de l'augmentation du nombre d'unité et de fréquence... Par contre je ne connais pas le différentiel entre le tegra3 et l'A6x, mais je pense qu'il est déjà à l'avantage du SoC Apple.

Ce message a été modifié par Pyvesd - 16 Jan 2013, 10:05.


--------------------
MBp 13" ivy SSD240 A VENDRE vu les MBP 2016, je le garde!; MBu 2,26 w C300 :D; iBookG4 12" 1,33; AliceBox; iph5 Redmi 4x +4 jours d'autonomie! :); chauffe-eau solaire et poêle à bois :) coloc au gaz :(
Membre du club des AIPBP (Anciens Inscrits Pas Beaucoup de Posts) Voir la règle d'éligibilité
Go to the top of the page
 
+Quote Post
Dreaming
posté 16 Jan 2013, 10:37
Message #5


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 5 851
Inscrit : 8 Dec 2004
Lieu : Dans un coin perdu du 41
Membre no 28 453



Oui, le Tegra 3 n'a jamais été réputé frugal. confused5.gif


--------------------
Macbook 2006 C2D 2 GHz, 3 Go, Snow Leopard
Macbook Pro 15" 2010 i5 2,4 GHz, 4 Go, Mavericks (pour ma chérie)
Nexus 4 sous Lollipop
Samsung Galaxy S2 sous Gingerbread (pour ma chérie)
Deux chats

Le blog de ma chérie
Go to the top of the page
 
+Quote Post
SartMatt
posté 16 Jan 2013, 11:57
Message #6


Macbidouilleur d'Or !
*****

Groupe : Rédacteurs
Messages : 32 187
Inscrit : 15 Nov 2005
Membre no 49 996



Citation (Pyvesd @ 16 Jan 2013, 10:03) *
Citation (Lionel @ 16 Jan 2013, 00:04) *
En fait, d'un point de vue technique, le Tegra 4 est une évolution du Tegra 3 sans réelles innovations profondes.

oui, enfin ils ont quand même doublé le nombre de pixel chader et *6 les vertex! Ce n'est pas négligeable.
Ce n'est pas négligeable, mais je suis d'accord avec Lionel : ça reste une simple évolution, sans innovation. Doubler le nombre d'unités, ce n'est qu'une évolution. Passer par exemple à des shaders unifiés, comme c'est le cas sur les GPU pour ordinateur, ça aurait été une innovation.

Citation (Dreaming @ 16 Jan 2013, 10:37) *
Oui, le Tegra 3 n'a jamais été réputé frugal. confused5.gif
En effet. Intel a fait une démo au CES avec mesure de la consommation de diverses tablettes x86 et ARM dans diverses tâches.

Pour une lecture vidéo sur YouTube, la tablette Tegra 3 était, et de loin, la pire.


--------------------

Go to the top of the page
 
+Quote Post
Macseed
posté 16 Jan 2013, 13:05
Message #7


Macbidouilleur de bronze !
**

Groupe : Membres
Messages : 546
Inscrit : 1 Mar 2005
Membre no 34 189



C'est bien joli cette course à la puissance, mais j'ai peur que le Tegra 4 ne siphonne nos batteries plus vite qu'il ne faut pour l'écrire !
Les smartphones modernes sont vraiment limite en autonomie...


--------------------
MacBook Pro 13" Juin 2012 8Go + SSD 1To Samsung 850
Iphone 6s, SE, 5s
Ipad Air 2
Apple Tv 3
Go to the top of the page
 
+Quote Post
Dreaming
posté 16 Jan 2013, 14:51
Message #8


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 5 851
Inscrit : 8 Dec 2004
Lieu : Dans un coin perdu du 41
Membre no 28 453



Oui, d'ailleurs, sauf erreur de ma part, le Tegra 4 a surtout été annoncé dans des tablettes.


--------------------
Macbook 2006 C2D 2 GHz, 3 Go, Snow Leopard
Macbook Pro 15" 2010 i5 2,4 GHz, 4 Go, Mavericks (pour ma chérie)
Nexus 4 sous Lollipop
Samsung Galaxy S2 sous Gingerbread (pour ma chérie)
Deux chats

Le blog de ma chérie
Go to the top of the page
 
+Quote Post
dandu
posté 16 Jan 2013, 15:02
Message #9


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 1 755
Inscrit : 13 Nov 2002
Lieu : Près de Liège (Be)
Membre no 4 663



Citation (SartMatt @ 16 Jan 2013, 13:57) *
Citation (Pyvesd @ 16 Jan 2013, 10:03) *
Citation (Lionel @ 16 Jan 2013, 00:04) *
En fait, d'un point de vue technique, le Tegra 4 est une évolution du Tegra 3 sans réelles innovations profondes.

oui, enfin ils ont quand même doublé le nombre de pixel chader et *6 les vertex! Ce n'est pas négligeable.
Ce n'est pas négligeable, mais je suis d'accord avec Lionel : ça reste une simple évolution, sans innovation. Doubler le nombre d'unités, ce n'est qu'une évolution. Passer par exemple à des shaders unifiés, comme c'est le cas sur les GPU pour ordinateur, ça aurait été une innovation.

Citation (Dreaming @ 16 Jan 2013, 10:37) *
Oui, le Tegra 3 n'a jamais été réputé frugal. confused5.gif
En effet. Intel a fait une démo au CES avec mesure de la consommation de diverses tablettes x86 et ARM dans diverses tâches.

Pour une lecture vidéo sur YouTube, la tablette Tegra 3 était, et de loin, la pire.


La démo d'Intel, elle est un peu cheatée, quand même : ils testent sous Windows RT qui prend pas en compte le 5e core de NVIDIA. Ca marche déjà nettement mieux sous Android, même si la solution a ses limites.
Go to the top of the page
 
+Quote Post
SartMatt
posté 16 Jan 2013, 15:49
Message #10


Macbidouilleur d'Or !
*****

Groupe : Rédacteurs
Messages : 32 187
Inscrit : 15 Nov 2005
Membre no 49 996



Citation (dandu @ 16 Jan 2013, 15:02) *
La démo d'Intel, elle est un peu cheatée, quand même : ils testent sous Windows RT qui prend pas en compte le 5e core de NVIDIA. Ca marche déjà nettement mieux sous Android, même si la solution a ses limites.
Ah, je me doutais bien qu'Intel avait choisi les scénarios les plus favorables, mais j'étais pas au courant pour le coup du 5ème cœur non utilisé sous Windows.
Effectivement, dans le cas d'une lecture vidéo, ça doit pas mal changer, vu que le 5ème cœur serait suffisant, le codec vidéo câblé se tapant le gros du travail.


--------------------

Go to the top of the page
 
+Quote Post
Dreaming
posté 16 Jan 2013, 15:54
Message #11


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 5 851
Inscrit : 8 Dec 2004
Lieu : Dans un coin perdu du 41
Membre no 28 453



Il n'en demeure pas moins que les HTC One X, même après les mises à jour sensées résoudre ce problème, n'ont jamais été très brillants à ce jeu là. Sense doit bouffer un peu, mais quand même. Même le LG Optimus 4X HD, pourtant avec une surcouche bien plus légère et une plus grosse batterie n'a jamais fait partie des références.


--------------------
Macbook 2006 C2D 2 GHz, 3 Go, Snow Leopard
Macbook Pro 15" 2010 i5 2,4 GHz, 4 Go, Mavericks (pour ma chérie)
Nexus 4 sous Lollipop
Samsung Galaxy S2 sous Gingerbread (pour ma chérie)
Deux chats

Le blog de ma chérie
Go to the top of the page
 
+Quote Post
almux
posté 16 Jan 2013, 21:11
Message #12


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 7 690
Inscrit : 26 Oct 2002
Lieu : Suisse
Membre no 4 348



En résumé: Tegra 4 n'a pas l'air d'être la panacé...


--------------------
Être déçu ne vient pas d'un objet ou d'une tierce personne. La déception naît de nos trop grandes attentes! Chacun est responsable de ses frustrations.

On n'est riche que si l'on est heureux de ce que l'on est ;o)

Dicton de ma Chère Grand-Mère: "N'achète jamais ce dont tu as besoin, mais seulement ce dont tu ne peux te passer".
Go to the top of the page
 
+Quote Post
Skwaloo
posté 17 Jan 2013, 10:00
Message #13


Macbidouilleur de bronze !
**

Groupe : Membres
Messages : 497
Inscrit : 16 Oct 2005
Membre no 48 046



Ça a l'air beaucoup mieux, mais il n'est pas compatible OpenCL (ni même CUDA) comme le sont les Mali T6xx. (il se mumure qu'Apple utilise une implémentation d'OpenCL en interne...). Les GLBenchmark ne font pas apparaître ça mais ça peut une faire une grosse différence dans certains cas de la vraie vie tout en baissant la conso.

http://www.engadget.com/2013/01/04/opencl-...e-hd/#continued

Dans le Tegra3 il y a NEON, j'espère que ce sera aussi le cas dans le 4 pour profiter de RenderScript (NativeBOINC va l'utiliser). Parce que bien programmé, on peut avoir des gains impressionnant.

Dans l'exemple suivant c'est jusqu'à 27 fois + rapide !!!
http://www.accelereyes.com/products/mobile


Sources http://twitter.com/OpenCLonARM


Il faudrait aussi des comparaisons avec les 8 coeurs des Exynos Octa et Huawai.
http://www.silicon.fr/huawei-disposera-dun...-a15-82633.html
http://armdevices.net/2013/01/11/ces-2013-...exible-display/


Une techno très intéressante : http://www.silicon.fr/st-ericsson-affiche-...ideo-82690.html

Ce message a été modifié par Skwaloo - 17 Jan 2013, 11:03.


--------------------
Go to the top of the page
 
+Quote Post
dandu
posté 17 Jan 2013, 11:50
Message #14


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 1 755
Inscrit : 13 Nov 2002
Lieu : Près de Liège (Be)
Membre no 4 663



OpenCL et OpenGL ES 3.0 marchent en partie sur les puces utilisées par Apple (en tout cas sur les SGX54x), même si le support est pas dispo.

Pour NEON, je crois que c'est obligatoire avec l'A15 (comme avec l'A8...) mais pas avec l'A9, d'où son absence dans Tegra 2. Mais les gaisn, ça reste très théorique, quand même, même si c'est utile en décodage vidéo.

Et pour les octocores en big.LITTLE, faut pas espérer voir 8 cores : dans la majorité des cas, on aura que 4 cores visibles et un switch pour limiter la consommation, même si techniquement c'est possible de gérer ça comme 8 cores (mais sans intérêt)
Go to the top of the page
 
+Quote Post

Reply to this topicStart new topic
1 utilisateur(s) sur ce sujet (1 invité(s) et 0 utilisateur(s) anonyme(s))
0 membre(s) :

 



Nous sommes le : 25th April 2024 - 17:00