Version imprimable du sujet

Cliquez ici pour voir ce sujet dans son format original

Forums MacBidouille _ Macbidouille Articles & News : Vos Réactions _ Nvidia: Le Tegra 4 plus véloce que l'A6X

Écrit par : Lionel 16 Jan 2013, 00:04

A une époque, Apple avait vanté sa puce A6 en indiquant qu'elle était plus rapide que le Tegra 3 de Nvidia, ce qui était vrai dans certains tests 3D.
Il n'est donc pas surprenant que Nvidia ait décidé de jouer aux comparaisons inversées en annonçant que son Tegra 4 était plus rapide en fonctions 3D que l'A6X d'Apple, qui fait référence dans ce domaine.
Ces performances supérieures entre la solution graphique de Nvidia et le PowerVR dont est doté l'A6X ne seraient toutefois pas aussi grandes que Nvidia veut le laisser entendre. Elles seraient en fait surtout liées à une cadence supérieure des cœurs graphiques, ce qui est moins impressionnant que si cela avait été le fait d'une architecture réellement supérieure.


En fait, d'un point de vue technique, le Tegra 4 est une évolution du Tegra 3 sans réelles innovations profondes. Cette puce ne devrait donc pas faire beaucoup d'ombre à celles d'Apple, qui a encore énormément de potentiel d'optimisation grâce à ses développements maison, qui ont beaucoup impressionné déjà avec l'A6X.
Par Lionel

Écrit par : almux 16 Jan 2013, 08:53

Ce Tegra 4 a-t-il une consommation équivalente ou moindre que l'A6X?

Écrit par : jokoe 16 Jan 2013, 09:34

Curieux, un autre site titre le contraire... Comme quoi, la comparaison de plateformes n'est pas forcément évidente.
http://www.generation-nt.com/nivdia-tegra-4-apple-a6x-processeur-glbenchmark-actualite-1681402.html

Écrit par : Pyvesd 16 Jan 2013, 10:03

Citation (Lionel @ 16 Jan 2013, 00:04) *
En fait, d'un point de vue technique, le Tegra 4 est une évolution du Tegra 3 sans réelles innovations profondes.

oui, enfin ils ont quand même doublé le nombre de pixel chader et *6 les vertex! Ce n'est pas négligeable.

@Almux, le tegra 3 est gravé en 40nm et le tegra 4 en 28, mais d'après une déclaration de Nvidia lue ailleurs, la conso devrait être très légèrement supérieure (au tegra3) à cause de l'augmentation du nombre d'unité et de fréquence... Par contre je ne connais pas le différentiel entre le tegra3 et l'A6x, mais je pense qu'il est déjà à l'avantage du SoC Apple.

Écrit par : Dreaming 16 Jan 2013, 10:37

Oui, le Tegra 3 n'a jamais été réputé frugal. confused5.gif

Écrit par : SartMatt 16 Jan 2013, 11:57

Citation (Pyvesd @ 16 Jan 2013, 10:03) *
Citation (Lionel @ 16 Jan 2013, 00:04) *
En fait, d'un point de vue technique, le Tegra 4 est une évolution du Tegra 3 sans réelles innovations profondes.

oui, enfin ils ont quand même doublé le nombre de pixel chader et *6 les vertex! Ce n'est pas négligeable.
Ce n'est pas négligeable, mais je suis d'accord avec Lionel : ça reste une simple évolution, sans innovation. Doubler le nombre d'unités, ce n'est qu'une évolution. Passer par exemple à des shaders unifiés, comme c'est le cas sur les GPU pour ordinateur, ça aurait été une innovation.

Citation (Dreaming @ 16 Jan 2013, 10:37) *
Oui, le Tegra 3 n'a jamais été réputé frugal. confused5.gif
En effet. Intel a fait une démo au CES avec mesure de la consommation de diverses tablettes x86 et ARM dans diverses tâches.

Pour une lecture vidéo sur YouTube, la tablette Tegra 3 était, et de loin, la pire.

Écrit par : Macseed 16 Jan 2013, 13:05

C'est bien joli cette course à la puissance, mais j'ai peur que le Tegra 4 ne siphonne nos batteries plus vite qu'il ne faut pour l'écrire !
Les smartphones modernes sont vraiment limite en autonomie...

Écrit par : Dreaming 16 Jan 2013, 14:51

Oui, d'ailleurs, sauf erreur de ma part, le Tegra 4 a surtout été annoncé dans des tablettes.

Écrit par : dandu 16 Jan 2013, 15:02

Citation (SartMatt @ 16 Jan 2013, 13:57) *
Citation (Pyvesd @ 16 Jan 2013, 10:03) *
Citation (Lionel @ 16 Jan 2013, 00:04) *
En fait, d'un point de vue technique, le Tegra 4 est une évolution du Tegra 3 sans réelles innovations profondes.

oui, enfin ils ont quand même doublé le nombre de pixel chader et *6 les vertex! Ce n'est pas négligeable.
Ce n'est pas négligeable, mais je suis d'accord avec Lionel : ça reste une simple évolution, sans innovation. Doubler le nombre d'unités, ce n'est qu'une évolution. Passer par exemple à des shaders unifiés, comme c'est le cas sur les GPU pour ordinateur, ça aurait été une innovation.

Citation (Dreaming @ 16 Jan 2013, 10:37) *
Oui, le Tegra 3 n'a jamais été réputé frugal. confused5.gif
En effet. Intel a fait une démo au CES avec mesure de la consommation de diverses tablettes x86 et ARM dans diverses tâches.

Pour une lecture vidéo sur YouTube, la tablette Tegra 3 était, et de loin, la pire.


La démo d'Intel, elle est un peu cheatée, quand même : ils testent sous Windows RT qui prend pas en compte le 5e core de NVIDIA. Ca marche déjà nettement mieux sous Android, même si la solution a ses limites.

Écrit par : SartMatt 16 Jan 2013, 15:49

Citation (dandu @ 16 Jan 2013, 15:02) *
La démo d'Intel, elle est un peu cheatée, quand même : ils testent sous Windows RT qui prend pas en compte le 5e core de NVIDIA. Ca marche déjà nettement mieux sous Android, même si la solution a ses limites.
Ah, je me doutais bien qu'Intel avait choisi les scénarios les plus favorables, mais j'étais pas au courant pour le coup du 5ème cœur non utilisé sous Windows.
Effectivement, dans le cas d'une lecture vidéo, ça doit pas mal changer, vu que le 5ème cœur serait suffisant, le codec vidéo câblé se tapant le gros du travail.

Écrit par : Dreaming 16 Jan 2013, 15:54

Il n'en demeure pas moins que les HTC One X, même après les mises à jour sensées résoudre ce problème, n'ont jamais été très brillants à ce jeu là. Sense doit bouffer un peu, mais quand même. Même le LG Optimus 4X HD, pourtant avec une surcouche bien plus légère et une plus grosse batterie n'a jamais fait partie des références.

Écrit par : almux 16 Jan 2013, 21:11

En résumé: Tegra 4 n'a pas l'air d'être la panacé...

Écrit par : Skwaloo 17 Jan 2013, 10:00

Ça a l'air beaucoup mieux, mais il n'est pas compatible OpenCL (ni même CUDA) comme le sont les Mali T6xx. (il se mumure qu'Apple utilise une implémentation d'OpenCL en interne...). Les GLBenchmark ne font pas apparaître ça mais ça peut une faire une grosse différence dans certains cas de la vraie vie tout en baissant la conso.

http://www.engadget.com/2013/01/04/opencl-mod-for-the-kindle-fire-hd/#continued

Dans le Tegra3 il y a NEON, j'espère que ce sera aussi le cas dans le 4 pour profiter de RenderScript (NativeBOINC va l'utiliser). Parce que bien programmé, on peut avoir des gains impressionnant.

Dans l'exemple suivant c'est jusqu'à 27 fois + rapide !!!
http://www.accelereyes.com/products/mobile


Sources http://twitter.com/OpenCLonARM


Il faudrait aussi des comparaisons avec les 8 coeurs des Exynos Octa et Huawai.
http://www.silicon.fr/huawei-disposera-dun-processeur-arm-8-coeurs-cortex-a15-82633.html
http://armdevices.net/2013/01/11/ces-2013-keynote-samsung-exynos-5-octa-flexible-display/


Une techno très intéressante : http://www.silicon.fr/st-ericsson-affiche-la-superiorite-de-sa-derniere-offre-arm-en-video-82690.html

Écrit par : dandu 17 Jan 2013, 11:50

OpenCL et OpenGL ES 3.0 marchent en partie sur les puces utilisées par Apple (en tout cas sur les SGX54x), même si le support est pas dispo.

Pour NEON, je crois que c'est obligatoire avec l'A15 (comme avec l'A8...) mais pas avec l'A9, d'où son absence dans Tegra 2. Mais les gaisn, ça reste très théorique, quand même, même si c'est utile en décodage vidéo.

Et pour les octocores en big.LITTLE, faut pas espérer voir 8 cores : dans la majorité des cas, on aura que 4 cores visibles et un switch pour limiter la consommation, même si techniquement c'est possible de gérer ça comme 8 cores (mais sans intérêt)

Propulsé par Invision Power Board (http://www.invisionboard.com)
© Invision Power Services (http://www.invisionpower.com)