A une époque, Apple avait vanté sa puce A6 en indiquant qu'elle était plus rapide que le Tegra 3 de Nvidia, ce qui était vrai dans certains tests 3D.
Il n'est donc pas surprenant que Nvidia ait décidé de jouer aux comparaisons inversées en annonçant que son Tegra 4 était plus rapide en fonctions 3D que l'A6X d'Apple, qui fait référence dans ce domaine.
Ces performances supérieures entre la solution graphique de Nvidia et le PowerVR dont est doté l'A6X ne seraient toutefois pas aussi grandes que Nvidia veut le laisser entendre. Elles seraient en fait surtout liées à une cadence supérieure des cœurs graphiques, ce qui est moins impressionnant que si cela avait été le fait d'une architecture réellement supérieure.
En fait, d'un point de vue technique, le Tegra 4 est une évolution du Tegra 3 sans réelles innovations profondes. Cette puce ne devrait donc pas faire beaucoup d'ombre à celles d'Apple, qui a encore énormément de potentiel d'optimisation grâce à ses développements maison, qui ont beaucoup impressionné déjà avec l'A6X.
Par Lionel
Ce Tegra 4 a-t-il une consommation équivalente ou moindre que l'A6X?
Curieux, un autre site titre le contraire... Comme quoi, la comparaison de plateformes n'est pas forcément évidente.
http://www.generation-nt.com/nivdia-tegra-4-apple-a6x-processeur-glbenchmark-actualite-1681402.html
Oui, le Tegra 3 n'a jamais été réputé frugal.
C'est bien joli cette course à la puissance, mais j'ai peur que le Tegra 4 ne siphonne nos batteries plus vite qu'il ne faut pour l'écrire !
Les smartphones modernes sont vraiment limite en autonomie...
Oui, d'ailleurs, sauf erreur de ma part, le Tegra 4 a surtout été annoncé dans des tablettes.
Il n'en demeure pas moins que les HTC One X, même après les mises à jour sensées résoudre ce problème, n'ont jamais été très brillants à ce jeu là. Sense doit bouffer un peu, mais quand même. Même le LG Optimus 4X HD, pourtant avec une surcouche bien plus légère et une plus grosse batterie n'a jamais fait partie des références.
En résumé: Tegra 4 n'a pas l'air d'être la panacé...
Ça a l'air beaucoup mieux, mais il n'est pas compatible OpenCL (ni même CUDA) comme le sont les Mali T6xx. (il se mumure qu'Apple utilise une implémentation d'OpenCL en interne...). Les GLBenchmark ne font pas apparaître ça mais ça peut une faire une grosse différence dans certains cas de la vraie vie tout en baissant la conso.
http://www.engadget.com/2013/01/04/opencl-mod-for-the-kindle-fire-hd/#continued
Dans le Tegra3 il y a NEON, j'espère que ce sera aussi le cas dans le 4 pour profiter de RenderScript (NativeBOINC va l'utiliser). Parce que bien programmé, on peut avoir des gains impressionnant.
Dans l'exemple suivant c'est jusqu'à 27 fois + rapide !!!
http://www.accelereyes.com/products/mobile
Sources http://twitter.com/OpenCLonARM
Il faudrait aussi des comparaisons avec les 8 coeurs des Exynos Octa et Huawai.
http://www.silicon.fr/huawei-disposera-dun-processeur-arm-8-coeurs-cortex-a15-82633.html
http://armdevices.net/2013/01/11/ces-2013-keynote-samsung-exynos-5-octa-flexible-display/
Une techno très intéressante : http://www.silicon.fr/st-ericsson-affiche-la-superiorite-de-sa-derniere-offre-arm-en-video-82690.html
OpenCL et OpenGL ES 3.0 marchent en partie sur les puces utilisées par Apple (en tout cas sur les SGX54x), même si le support est pas dispo.
Pour NEON, je crois que c'est obligatoire avec l'A15 (comme avec l'A8...) mais pas avec l'A9, d'où son absence dans Tegra 2. Mais les gaisn, ça reste très théorique, quand même, même si c'est utile en décodage vidéo.
Et pour les octocores en big.LITTLE, faut pas espérer voir 8 cores : dans la majorité des cas, on aura que 4 cores visibles et un switch pour limiter la consommation, même si techniquement c'est possible de gérer ça comme 8 cores (mais sans intérêt)
Propulsé par Invision Power Board (http://www.invisionboard.com)
© Invision Power Services (http://www.invisionpower.com)