IPB

Bienvenue invité ( Connexion | Inscription )

> Nvidia: Le Tegra 4 plus véloce que l'A6X, Réactions à la publication du 16/01/2013
Options
Lionel
posté 16 Jan 2013, 00:04
Message #1


BIDOUILLE Guru
*****

Groupe : Admin
Messages : 55 336
Inscrit : 14 Jan 2001
Lieu : Paris
Membre no 3



A une époque, Apple avait vanté sa puce A6 en indiquant qu'elle était plus rapide que le Tegra 3 de Nvidia, ce qui était vrai dans certains tests 3D.
Il n'est donc pas surprenant que Nvidia ait décidé de jouer aux comparaisons inversées en annonçant que son Tegra 4 était plus rapide en fonctions 3D que l'A6X d'Apple, qui fait référence dans ce domaine.
Ces performances supérieures entre la solution graphique de Nvidia et le PowerVR dont est doté l'A6X ne seraient toutefois pas aussi grandes que Nvidia veut le laisser entendre. Elles seraient en fait surtout liées à une cadence supérieure des cœurs graphiques, ce qui est moins impressionnant que si cela avait été le fait d'une architecture réellement supérieure.


En fait, d'un point de vue technique, le Tegra 4 est une évolution du Tegra 3 sans réelles innovations profondes. Cette puce ne devrait donc pas faire beaucoup d'ombre à celles d'Apple, qui a encore énormément de potentiel d'optimisation grâce à ses développements maison, qui ont beaucoup impressionné déjà avec l'A6X.
Par Lionel


--------------------
C'est parce que la vitesse de la lumière est plus grande que celle du son que tant de gens paraissent brillants avant d'avoir l'air con
Go to the top of the page
 
+Quote Post
 
Start new topic
Réponse(s)
dandu
posté 17 Jan 2013, 11:50
Message #2


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 1 755
Inscrit : 13 Nov 2002
Lieu : Près de Liège (Be)
Membre no 4 663



OpenCL et OpenGL ES 3.0 marchent en partie sur les puces utilisées par Apple (en tout cas sur les SGX54x), même si le support est pas dispo.

Pour NEON, je crois que c'est obligatoire avec l'A15 (comme avec l'A8...) mais pas avec l'A9, d'où son absence dans Tegra 2. Mais les gaisn, ça reste très théorique, quand même, même si c'est utile en décodage vidéo.

Et pour les octocores en big.LITTLE, faut pas espérer voir 8 cores : dans la majorité des cas, on aura que 4 cores visibles et un switch pour limiter la consommation, même si techniquement c'est possible de gérer ça comme 8 cores (mais sans intérêt)
Go to the top of the page
 
+Quote Post

Les messages de ce sujet


Reply to this topicStart new topic
1 utilisateur(s) sur ce sujet (1 invité(s) et 0 utilisateur(s) anonyme(s))
0 membre(s) :

 



Nous sommes le : 20th April 2024 - 04:08