IPB

Bienvenue invité ( Connexion | Inscription )

 
Reply to this topicStart new topic
> Cartes graphiques: un point sur la future gravure en 20nm, Réactions à la publication du 23/04/2014
Options
Lionel
posté 22 Apr 2014, 22:59
Message #1


BIDOUILLE Guru
*****

Groupe : Admin
Messages : 55 346
Inscrit : 14 Jan 2001
Lieu : Paris
Membre no 3



Les premières cartes graphiques gravées en 28nm sont arrivées à la fin 2011. Depuis, si les procédés de fabrication se sont améliorés et cette finesse de gravure généralisée, les fabricants n'ont pas réussi avec leurs fondeurs à descendre plus bas.
Il est vrai que les efforts à réaliser pour gagner des nanomètres sont maintenant colossaux, mais Intel a prouvé que l'on pouvait graver en masse en 22nm et que l'on passera en 14nm dans un avenir pas trop lointain.

Aux dernières nouvelles NVidia mettrait les bouchées doubles pour proposer d'ici la fin 2014 ses premières puces graphiques gravées en 20nm. Pour AMD les choses sont claires et officielles, il faudra attendre le courant 2015 pour que cette finesse de gravure soit utilisée.
Pourtant, AMD et Nvidia ont réellement besoin de graver des cartes graphiques plus finement. Pour s'en convaincre il suffit de voir la consommation des derniers monstres des deux sociétés. Elle bat de nouveaux records dans ce domaine et il est urgent pour eux de pouvoir mettre plus de transistors dans des puces qui consommeront moins d'énergie.

La faute en incomberait essentiellement à TSMC, qui aurait des problèmes à finaliser sa gravure en 20nm. La société aurait pris du retard, assez pour contrarier les projets de ses partenaires. On peut d'ailleurs se demander si cela aura aussi un impact pour Apple, qui devait faire graver une partie de ses futures puces par cette société.
Accessoirement, ce retard pourrait faire la joie d'Intel, qui songe de plus en plus sérieusement à fabriquer n'importe quelles puces à la demande. Récupérer Nvidia, AMD (plus délicat) ou Apple serait pour le fondeur une immense victoire même si elle aura nécessité une profonde remise en question.
Lien vers le billet original


--------------------
C'est parce que la vitesse de la lumière est plus grande que celle du son que tant de gens paraissent brillants avant d'avoir l'air con
Go to the top of the page
 
+Quote Post
iAPX
posté 22 Apr 2014, 23:22
Message #2


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 15 384
Inscrit : 4 Jan 2006
Lieu : dtq
Membre no 52 877



nVidia a beaucoup moins besoin de passer au 20nm maintenant que la nouvelle génération Maxwell est arrivée, celle-ci offrant un ratio performance/watt amélioré de près de 50%, pour cela que les premières GPU sont arrivé pour les ordinateurs portables, et quelques unes pour le desktop (accompagné de Kepler et même de Fermi renommées avec largesse! lol!).

La GeForce GTX Titan et les multiples déclinaisons du GK110 ne sont pas représentatifs de ce qu'offre de mieux nVidia en terme de performance/watt, et il est probable que les K6000 ne soient pas encore upgradées en attente d'une puce Maxwell haut-de-gamme bien plus rapide dans le même TDP.

AMD en revanche, pour ses GPU comme pour ses APU (et rares CPU), a totalement besoin de 20nm. Déja largué en conception pour ses CPU, qui ne peuvent aujourd'hui se comparer aux CPU Intel qui furent gravées avec la même finesse, même de loin, la génération Maxwell de nVidia est en train de donner un coup de vieux à la gamme GPU d'AMD, avec l'arrivée de Maxwell à prévoir tout au long de 2014 et début 2015, alors qu'AMD n'a rien de comparable a proposer en terme de performance/watt, stratégique pour tout ce qui est mobile, mais aussi pour les cartes de haute performance (qui font peu de ventes mais beaucoup d'image!).

Je ne suis même pas sur que passer au 20nm, avec GCN 1.1 pour AMD, suffirait à combler le déficit qui existe face à Maxwell. Je pense qu'AMD est très mal avec ses GPU!


--------------------
Utilisateur de Mac depuis 1985 et possesseur de Mac depuis 2005. Utilisateur d'un PC Lenovo au travail, sous Windows, qui renforce ma passion pour les Mac!
Go to the top of the page
 
+Quote Post
r@net54
posté 23 Apr 2014, 02:59
Message #3


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 3 458
Inscrit : 23 Mar 2004
Lieu : Paris / Vancouver
Membre no 16 640



Citation (iAPX @ 22 Apr 2014, 23:22) *
nVidia a beaucoup moins besoin de passer au 20nm maintenant que la nouvelle génération Maxwell est arrivée, celle-ci offrant un ratio performance/watt amélioré de près de 50%, pour cela que les premières GPU sont arrivé pour les ordinateurs portables, et quelques unes pour le desktop (accompagné de Kepler et même de Fermi renommées avec largesse! lol!).

La GeForce GTX Titan et les multiples déclinaisons du GK110 ne sont pas représentatifs de ce qu'offre de mieux nVidia en terme de performance/watt, et il est probable que les K6000 ne soient pas encore upgradées en attente d'une puce Maxwell haut-de-gamme bien plus rapide dans le même TDP.

AMD en revanche, pour ses GPU comme pour ses APU (et rares CPU), a totalement besoin de 20nm. Déja largué en conception pour ses CPU, qui ne peuvent aujourd'hui se comparer aux CPU Intel qui furent gravées avec la même finesse, même de loin, la génération Maxwell de nVidia est en train de donner un coup de vieux à la gamme GPU d'AMD, avec l'arrivée de Maxwell à prévoir tout au long de 2014 et début 2015, alors qu'AMD n'a rien de comparable a proposer en terme de performance/watt, stratégique pour tout ce qui est mobile, mais aussi pour les cartes de haute performance (qui font peu de ventes mais beaucoup d'image!).

Je ne suis même pas sur que passer au 20nm, avec GCN 1.1 pour AMD, suffirait à combler le déficit qui existe face à Maxwell. Je pense qu'AMD est très mal avec ses GPU!


Je rejoins ce que tu exposes et j'irai un peu plus loin dans la synthèse. Il ressort deux choses actuellement:
1) la performance, a fortiori par watt, est liée beaucoup plus a l'architecture qu'a la finesse de gravure
2) AMD est en très mauvaise posture.

en 3 je dirai aussi que l'on arrive, sur silicium, a la limite des possibilités de la finesse de gravure. Intel a beau clamer par monts et par vaux qu'il passe au 14nm, jusqu'ici ce que l'on voit c'est que les difficultés liees a des gravures complexes en-dessous de 18nm repousse la phase industrielle toujours plus tard...

Nvidia comme Intel démontrent qu'en faisant bien son travail d'ingénierie, il est possible d'abaisser la consommation de manière significative tout en restant au meme niveau de finesse de gravure. ARM est le champion évidement dans ce domaine, mais comme c'est son axe principal depuis longtemps sa marge de progression est moins évidente en apparence.

Il faut se rappeler que si AMD a fait l'erreur de se positionner comme concurrent d'Intel a l'époque ou Intel et Microsoft constituait un monopole absolu, et que si AMD a sortie des solutions miracles pour sauver l'antique architecture x86 (notamment en la boostant avec un coeur RISC, paradoxalement), eh bien AMD n'a jamais réussi a inquiéter réellement Intel et n'a jamais réussi pendant bien longtemps a prendre la tete du marche.

Pire, l'activite qui sauve(ait) AMD de la faillite ce sont les GPU, activité qu'AMD a du racheter en 2006 en faisant l'acquisition du célèbre constructeur ATI…

Aujourd'hui AMD, malgré quelques réussites (APU équipant les consoles, GPU bien places en GPGPU, server…) est clairement loin de Nvidia, totalement largue par Intel et incapable (comme Intel) d'exister sur le marche mobile…
Si Intel est fortement menace par sa politique du tout x86 alors que cette architecture est a bout de souffle et ne subsiste que grâce aux restes de son monopole en train de se dissoudre, pour AMD c'est catastrophique: aucune branche ou se raccrocher. Seule sursaut récemment, AMD se (re)lance dans l'ARM a destination des server low-cost.

Bref malgré les copetences des ingénieurs d'AMD, que ce soit ceux qui bossent sur le CPU ou ceux qui bossent sur l'héritage d'ATI, la constations est la: AMD a fait de mauvais choix a un moment crucial et aujourd'hui ses seuls espoirs sont de faire croire que le salut viendra de la finesse de gravure, ce qui ne convainc évidement meme plus les actionnaires…

Il est evident de que la gravure a 20nm,18nm ou 15nm va réduire la consommation tout en permettant une legere progression des performances, mais si ce mécanisme fonctionne pour Intel ou AMD le résultat sera encore plus efficace pour Nvidia et ARM… bref on revient au début, la finesse est une amélioration mais qui est loin de l'efficacité du travail sur l'architecture.

Ce message a été modifié par r@net54 - 23 Apr 2014, 03:04.


--------------------
Agnostique multipratiquant: Unixs, Linux, Mac OS X, iOS et un peu de Windows. Des Macs, des iDevices, des PC et des "ordinosaures"…
Citation
« Celui qui t’entretient des défauts d’autrui entretient les autres des tiens. »,
« Quand on suit une mauvaise route, plus on marche vite, plus on s'égare. »
Diderot
Go to the top of the page
 
+Quote Post
Licorne31
posté 23 Apr 2014, 08:29
Message #4


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 2 594
Inscrit : 28 Mar 2008
Membre no 111 113



Citation (r@net54 @ 23 Apr 2014, 03:59) *
Si Intel est fortement menace par sa politique du tout x86 alors que cette architecture est a bout de souffle et ne subsiste que grâce aux restes de son monopole en train de se dissoudre, pour AMD c'est catastrophique: aucune branche ou se raccrocher. Seule sursaut récemment, AMD se (re)lance dans l'ARM a destination des server low-cost.


Question stupide, mais qu'est-ce qui peut remplacer le x86 dans des machines de la catégorie du MacPro, dans, disons, les 5 ans à venir?
Parce qu'un retour au Power8 ou à un de ses successeurs me semble douteux (quoique le retour du PowerMac, ça aurait de la gueule!), et j'ai du mal à envisager du ARM dans des "camions" (bien que dans des portables...).


--------------------
"Heartbreaker" G3 B&W 300 overclock 400 MHz, PowerBook G4 "Alu" 15" 1.25 GHz (avec SSD mSATA), G4 AGP 400 MHz, MDD bipro 867 MHz, MDD mono 1.25 GHz (deuxième alim. en panne), Quicksilver 800 MHz (avec alim. ATX), tous sous Tiger. iPod Touch "Original" 32 Go sous iOS 3.1.3.
Et un MHack : CM MSI 7046 Rev. 1, Intel P4 (32 bits, monocoeur, HT, SSE3, 3.4 GHz), CG GeForce 9500GS. Avec Chameleon et Snow Leopard. A part la veille et le haut-parleur interne, tout marche.
Go to the top of the page
 
+Quote Post
Bunios
posté 23 Apr 2014, 08:39
Message #5


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 5 789
Inscrit : 7 Apr 2003
Lieu : 01 AIN
Membre no 7 028



Comme Licorne31, je serais curieux de savoir ce qu'il y a après. Car effectivement Broadwell sortira sans nulle doute à la fin de l'année ou début 2015. Mais le prochain Skylake va "accoucher" dans la douleur à priori…..au vu des péripéties de la gravure. Alors après, c'est le trou noire ? sad.gif unsure.gif ph34r.gif

A+

Laurent


--------------------
(Jeudi 18 Avril 2013) Réception d'un Apple MacBook Pro 15" Core i7 Quad Core 2.6 Ghz Nvidia GT 650M 1024 Mo 8 Go SoDimm DDR3 PC 12800-1600 Mhz SSD Crucial M500 de 480 Go à la place du disque dur interne Hitachi 750 Go à 5400 tr/mn Superdrive à écran Brillant LED standart NEUF - 17,92 % Fnac. MERCI La FNAC. Très performant et Magnifique...Disque dur externe Lacie Rugged ThunderBolt USB 3 (ne fonctionne pas en USB 3 !!!).
Go to the top of the page
 
+Quote Post
Alcaponeee
posté 23 Apr 2014, 08:55
Message #6


Adepte de Macbidouille
*

Groupe : Membres
Messages : 126
Inscrit : 26 May 2003
Membre no 7 776



Je trouve assez "drôle" les laïus sur AMD va mourir, etc.

On ne compte plus le nombre de fois ou AMD avait été prodigué comme perdant et ils sont encore là.

Il faudra toujours un concurrent à Nvidia et AMD s'est faire des choses très bien (XGP, Eyefinity, Mantle).

Maintenant, très clairement, entre les CPU qui ne valent rien en perf. et les GPU qui chauffent à donf...

Laissons les choses se faire avant de crier à la perte d'AMD.
Go to the top of the page
 
+Quote Post
iAPX
posté 23 Apr 2014, 13:23
Message #7


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 15 384
Inscrit : 4 Jan 2006
Lieu : dtq
Membre no 52 877



Ben non AMD va tres bien, ses APU se vendent comme des petits pains, ses GPU marquent des points et prennent des parts de marche a nVidia, sur les serveurs ils sont de plus en plus presents, IBM serait meme tente d'abandonner sa gamme Power au benefice des CPU AMD x86, sur les laptop de milieu et de haut-de-gamme on ne voit plus qu'AMD, fini Intel, ils ont reussi le passage a la mobilite avec moults smartphone et tablettes propulsees par des puces AMD, en fait des qu'on pense CPU ou GPU, du smartphone au gros serveur, le premier nom qui vient a l'oreille c'est evidemment AMD. A part sur les consoles bien sur wink.gif

*** Mode sarcastique ***


--------------------
Utilisateur de Mac depuis 1985 et possesseur de Mac depuis 2005. Utilisateur d'un PC Lenovo au travail, sous Windows, qui renforce ma passion pour les Mac!
Go to the top of the page
 
+Quote Post
r@net54
posté 23 Apr 2014, 16:57
Message #8


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 3 458
Inscrit : 23 Mar 2004
Lieu : Paris / Vancouver
Membre no 16 640



Citation (Licorne31 @ 23 Apr 2014, 08:29) *
Citation (r@net54 @ 23 Apr 2014, 03:59) *
Si Intel est fortement menace par sa politique du tout x86 alors que cette architecture est a bout de souffle et ne subsiste que grâce aux restes de son monopole en train de se dissoudre, pour AMD c'est catastrophique: aucune branche ou se raccrocher. Seule sursaut récemment, AMD se (re)lance dans l'ARM a destination des server low-cost.


Question stupide, mais qu'est-ce qui peut remplacer le x86 dans des machines de la catégorie du MacPro, dans, disons, les 5 ans à venir?
Parce qu'un retour au Power8 ou à un de ses successeurs me semble douteux (quoique le retour du PowerMac, ça aurait de la gueule!), et j'ai du mal à envisager du ARM dans des "camions" (bien que dans des portables...).


Ce qui peut remplacer le x86 dans des machines de la catégorie du MacPro, dans, disons, les 5 ans à venir?

Premiere réponse: avec la stagnation (voire la régression...) des x86 qui empire a chaque nouvelle mise a jour, les difficultés de plus en plus insurmontables que rencontre le plus important fondeur de la planète, le fait que ce même fondeur voit ses pertes s'engager sur une voie durable et que ce même fondeur n'arrive (malgré des efforts titanesques) toujours pas depuis 8 ans a revenir sur le seul marche qui est encore un peu (pour combien de temps) en croissance,… Penses tu que le x86 ait encore sa place dans un MacPro dans 5 ans?

Penses-tu que les machines de la catégorie des stations de travail, donc qui ont besoin de toujours plus de puissance, vont se satisfaire d'un processeur qui stagne toujours plus?

Penses tu que les stations de travail vont accepter de tourner avec des processeurs qui sont moins puissants que ceux d'une tablette?

Aujourd'hui ont parle d'ARM dans les petits serveurs, gros marche d'Intel et d'AMD, plusieurs entreprises ont démontre que le high computing sur des ARM est une réalité, la puissance des tablettes ARM rattrape la puissance des processeurs de desktop toujours plus vite, ….

Donc avoir de l'ARM dans des "camions" légers c'est deja une réalité. Pour le lourd ça le sera d'ici 2 ans au plus tard.
De l'autre cote il y a effectivement IBM et Nvidia qui non seulement sont en plein développement sur les gros serveur mais aussi sur le high computing. Et qui préparent également l'arrives sur des machines plus légères.

Et puis il ne faut pas oublier qu'il y a d'autres acteurs (américains mais aussi européens et asiatiques), qui peuvent aujourd'hui exister grâce a la faillite du monopole Wintel.

Et surtout il y a un acteur majeur que l'on oubli assez souvent qui est capable de balayer très vite le x86: Intel.
Ce n'est pas parce que la société a axe tout son développement des 20 dernières années sur le maintien,artificiel , d'une architecture archaïque pour maintenir un monopole financier, que la société est incompétente pour développer autre chose!
Lorsque l'on constate les prouesses que doivent réaliser les ingénieurs d'Intel pour maintenir ce mort-vivant de x86, cela en dit long sur leurs capacités a faire émerger de nouvelles architectures qui ont un potentiel d'évolution considérable.

Lorsque l'on evoque déjà la production de processeurs ARM par Intel, tous les acteurs ARM sont inquiets: l'efficacité de l'architecture ARM optimisee par les ingénieurs d'Intel éliminerait nombre de constructeurs…
Et puis Intel a des techno sous la main qui étaient gardées a "la cave" afin de ne pas déstabiliser le monopole Wintel. Mais si on reconnait l'efficacité du RISC, il faut se souvenir que le successeur du RISC c'est Intel qui le détient.
Et puis Intel a surtout un potentiel de développement et une belle avance sur l'optoélectronique: le thunderbolt c'est Intel!

Bref dans les 5 prochaines années que trouvera-t-on dans un MacPro (s'il existe toujours?): probablement du GPU Nvidia et des processeurs RISC. Maintenant qui sera le fabricant de ces processeurs? IBM, Apple, Samsung, Intel?
Au-dela, probablement du processeur optique.

Mais il faut aussi prendre en considération que l'informatique mobile aura aussi largement dépassee depuis un moment la puissance des camions d'aujourd'hui...


--------------------
Agnostique multipratiquant: Unixs, Linux, Mac OS X, iOS et un peu de Windows. Des Macs, des iDevices, des PC et des "ordinosaures"…
Citation
« Celui qui t’entretient des défauts d’autrui entretient les autres des tiens. »,
« Quand on suit une mauvaise route, plus on marche vite, plus on s'égare. »
Diderot
Go to the top of the page
 
+Quote Post
pcetmac
posté 23 Apr 2014, 18:32
Message #9


Macbidouilleur d'argent !
***

Groupe : Membres
Messages : 789
Inscrit : 11 Jun 2009
Membre no 137 464



Moi, l'unique question que je me pose, ce n'est pas de savoir si AMD est une menace pour Nvidia, mais plutôt si Nvidia ne va pas avoir un problème bientôt face à Intel qui à fait de gros progrès très rapidement.

NVidia n'a rien à attendre des ibidule d'Apple.

Intel sort des CPU qui sont maintenant suffisamment puissant pour le plus grand nombre de personne sur leur ordi (sauf les "véritables" joueurs, mais ils ne représentent rien en volumes)

Qualcomm va devenir même s'il sont moins bon, avec le temps un problème pour Nvidia car risquant d'être présent dans de nombreux appareil sous Android.




Go to the top of the page
 
+Quote Post
dandu
posté 23 Apr 2014, 19:22
Message #10


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 1 755
Inscrit : 13 Nov 2002
Lieu : Près de Liège (Be)
Membre no 4 663



Citation (pcetmac @ 23 Apr 2014, 19:32) *
Qualcomm va devenir même s'il sont moins bon, avec le temps un problème pour Nvidia car risquant d'être présent dans de nombreux appareil sous Android.


Genre.

Qualcomm est pas vraiment un problème pour NVIDIA dans les mobiles, vu que NVIDIA vend rien ou presque.

Qualcomm a une énorme part de marché, merci la 4G, NVIDIA vend moins que pas mal de chinois. Tegra 4 est un sale échec, vu que y a pratiquement rien de dispo en dehors des tablettes faites par NVIDIA et vendues par des constructeurs de cartes graphiques (donc on sent bien le deal « faites des Tegra Note pour vendre des GeForce ») et Tegra 4i, annoncé en février 2013, y a juste un pauvre téléphone Wiko qui est pas encore dispo, et uniquement parce que Wiko veut de la 4G *et* pas du Qualcomm.

Et Tegra K1, c'est bien parti pour le même flop avec la version 32 bits.
Go to the top of the page
 
+Quote Post
iAPX
posté 23 Apr 2014, 20:45
Message #11


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 15 384
Inscrit : 4 Jan 2006
Lieu : dtq
Membre no 52 877



Citation (pcetmac @ 23 Apr 2014, 13:32) *
Moi, l'unique question que je me pose, ce n'est pas de savoir si AMD est une menace pour Nvidia, mais plutôt si Nvidia ne va pas avoir un problème bientôt face à Intel qui à fait de gros progrès très rapidement.

NVidia n'a rien à attendre des ibidule d'Apple.

Intel sort des CPU qui sont maintenant suffisamment puissant pour le plus grand nombre de personne sur leur ordi (sauf les "véritables" joueurs, mais ils ne représentent rien en volumes)

Qualcomm va devenir même s'il sont moins bon, avec le temps un problème pour Nvidia car risquant d'être présent dans de nombreux appareil sous Android.

Tu as tout a fait raison, le marche principal en GPU ce sont les GPU integrees sur le die de la CPU (il y a eu differentes facvon de les integrer sur le die, ou le support au cours du temps, maintenant c'est totalement integre dans le die). Intel est le plus gros vendeur de iGPU (i pour Integrated pas pour iApple wink.gif ).

Et pour donner une image, j'ai un MacBook Pro a revendre, un 17pouces Quad-Core avec sa belle GPU discrete AMD Radeon HD 6770M et 1GB de GDDR5. Cette GPU de 2ans et demi est equivalente a l'Iris equipant maintenant le MBPr 13" Haswell, et larguee par l'Iris Pro des MBPr 15" Haswell!
En deux ans et demi, Intel propose integre dans ses CPU des GPU plus performantes que les meilleures GPU mobiles d'il y a 2 ou 3ans chez Apple!

Le probleme a ce point n'est pas d'avoir la GPU la plus puissante, mais de proposer un produit qui va satisfaire 90% des utilisateurs (en oubliant les hardcore gamers mais incluant le casual gaming). Et maintenant Intel y est a l'Iris et l'Iris Pro. Avec Broadwell qui va diminuer la consommation et permettre d'augmenter la frequence de ces iGPU, et probablement plus de modeles de CPU avec Iris, nVidia et AMD ont bien moins d'opportunite de vendre des GPU discretes.


--------------------
Utilisateur de Mac depuis 1985 et possesseur de Mac depuis 2005. Utilisateur d'un PC Lenovo au travail, sous Windows, qui renforce ma passion pour les Mac!
Go to the top of the page
 
+Quote Post
Princo22
posté 23 Apr 2014, 21:23
Message #12


Macbidouilleur d'argent !
***

Groupe : Membres
Messages : 692
Inscrit : 13 Jul 2011
Membre no 168 785



Citation (Bunios @ 23 Apr 2014, 17:39) *
Comme Licorne31, je serais curieux de savoir ce qu'il y a après. Car effectivement Broadwell sortira sans nulle doute à la fin de l'année ou début 2015. Mais le prochain Skylake va "accoucher" dans la douleur à priori…..au vu des péripéties de la gravure. Alors après, c'est le trou noire ? sad.gif unsure.gif ph34r.gif

A+

Laurent

Tout le monde se pose un peu la question de ce qui arrivera "après" biggrin.gif
Intel n'a jamais communiqué à long terme autrement que par de vagues tendance, ils n'y a aucune raison de changer aujourd'hui. Il est assez évident qu'ils ont quelques (gros?) soucis pour tenir leur Tic/Toc habituel, c'était déjà sensible à l'arrivée d'IB et du 22nm. Il faut reconnaitre que le planning de sortie à deux ans est assez flou, ce qui est assez rare chez Intel. On sait qu'ils ont pas mal de choses sur les rails d'ici fin 2015, entre Haswell-E, Broadwell-K, Broadwell et Skylake, ce dernier étant toujours prévu pour 2015, même si on peut sérieusement en douter.
Tout laisse à penser qu'ils veulent réinvestir le desktop haut de gamme, clairement délaissé depuis quelques temps.

Après, c'est le flou total. Coté technique, on sait depuis des années que le 10nm va poser problème pour tout le monde, la faute au techniques de gravure. L'EUV devrait permettre de descendre dans la douleur à 10nm, Intel parle même de 7, mais timidement. On s'approche de plus en plus d'un mur qu'on voit depuis plusieurs années sans que personne ne trouve de solution convenable pour le franchir.

Coté archi, c'est pas mieux. On sait que quelques trucs vont arriver (DDR4, PCI-E 4.0, mémoire unifiée...). Coté archi CPU, à part de nouvelles extensions, on a pas grand chose à se mettre sous la dent.

Mais il faut quand même se demander s'ils ont besoin de communiquer ce genre de détails. La concurrence n'a jamais été aussi faible, les ventes ne se portent finalement pas trop mal, et leur banquier a le sourire. Autant SB que IB ou Haswell ont amenés quelques surprises dont personne n'avaient entendu parler. La culture du secret made in Apple fait peut-être des émules, c'est plus simple que d'essayer d'expliquer que le 14nm n'apporte que peu de gain face au 22 et que sans de bon yields, ils n'est pas intéressant.
Go to the top of the page
 
+Quote Post
r@net54
posté 24 Apr 2014, 00:48
Message #13


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 3 458
Inscrit : 23 Mar 2004
Lieu : Paris / Vancouver
Membre no 16 640



Citation (iAPX @ 23 Apr 2014, 20:45) *
...Le probleme a ce point n'est pas d'avoir la GPU la plus puissante, mais de proposer un produit qui va satisfaire 90% des utilisateurs (en oubliant les hardcore gamers mais incluant le casual gaming). Et maintenant Intel y est a l'Iris et l'Iris Pro. Avec Broadwell qui va diminuer la consommation et permettre d'augmenter la frequence de ces iGPU, et probablement plus de modeles de CPU avec Iris, nVidia et AMD ont bien moins d'opportunite de vendre des GPU discretes.


C'est l'illustration que fait l'informatique mobile. Le CPU ARM n'est pas encore tout a fait au niveau du CPU Intel mais pour autant on a une meilleure fluidité et réactivité sur un iPad que sur un ordinateur, a moins que celui-ci soit une bête de course avec une Titan.

Les SoC disposent maintenant de parties graphiques qui sont comparables a celles des consoles de jeu et qui vont les dépasser dans la prochaine génération.

Intel integre un coprocesseur graphique sur ses die, et a fait des progrès monstrueux en 5 ans -vu d'ou il partaient c'était pas trop difficile - mais cela pour autant ne remplace pas un vrai GPU et a fortiori dans des besoins du type GPGPU (le grand problème et ennemi d'Intel).
Si ce type de processeur tout en un arrive a satisfaire les besoins moyens, ce n'est que moyennement. Evidement pour consulter le WEB ou faire de la bureautique c'est amplement suffisant, pour faire du traitement d'image c'est misérable. Exemple magistral les Mac Mini ou les iMac: mieux vaut une machine d'ancienne génération a vrai GPU qu'une nouvelle génération boitant sur son iGPU misérable.

On va surtout dans une tendance qui est de l'acceptation de la stagnation de la puissance CPU pour se focaliser sur le GPU/ le SSD / la définition d'écran ou de la camera. Ca marche pour 80% de l'informatique de grande consommation, c'est une évidence. L'utilisateur embobiné par le marketing va se dire: whaouuu, j'ai 16 mp sur ma camera, sans se rendre compte que son processeur a presque la meme puissance que lorsqu'il avait 800 000 pixel… Ou alors s'extasier devant la rapidité de son SSD de 256go qui lui a coute 200$ alors que pour 100$ il a un 2 To, mais qu'importe le SSD accelere, ou donne l'impression de vitesse sur des machines dont les processeurs font du surplace, machines dont les constructeurs limitent bien évidement la mémoire histoire de vendre des machines SSD a prix eleves…


Le plus lamentable dans cette histoire, c'est que l'on en est a vendre des GPU pour faire du GPGPU, a cause de la stagnation du CPU, alors que le GPGPU par définition ne fonctionne que sur des classes de traitements spécifiques (calcul vectoriel) et que la majorité des besoins en informatique généraliste requièrent de la puissance CPU...

Ce message a été modifié par r@net54 - 24 Apr 2014, 00:52.


--------------------
Agnostique multipratiquant: Unixs, Linux, Mac OS X, iOS et un peu de Windows. Des Macs, des iDevices, des PC et des "ordinosaures"…
Citation
« Celui qui t’entretient des défauts d’autrui entretient les autres des tiens. »,
« Quand on suit une mauvaise route, plus on marche vite, plus on s'égare. »
Diderot
Go to the top of the page
 
+Quote Post
iAPX
posté 24 Apr 2014, 13:45
Message #14


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 15 384
Inscrit : 4 Jan 2006
Lieu : dtq
Membre no 52 877



Citation (r@net54 @ 23 Apr 2014, 19:48) *
...
Le plus lamentable dans cette histoire, c'est que l'on en est a vendre des GPU pour faire du GPGPU, a cause de la stagnation du CPU, alors que le GPGPU par définition ne fonctionne que sur des classes de traitements spécifiques (calcul vectoriel) et que la majorité des besoins en informatique généraliste requièrent de la puissance CPU...

C'est aussi toute l'histoire du MMX, SSE, AVX/AVX2, AVX-512 (bientot renomme en AVX3.1?!?) : du vectoriel dans la CPU pour certaines classes de traitement.

Et effectivement nos CPU font du surplace, en programmation objet classique, malgres le gain d'IPC theorique, et les performances AVX2 incroyables d'Haswell par rapport a Core2 en SSE, les plateformes ne sont pas si eloignees, entre autre a cause de l'imprevisibilite des branchements en programmation objet (on appelle des methodes d'objets, mais des qu'on a un bon nombre de classes, le meme appel executant un code different sur chaque classe, il n'y a aucune facon de prevoir a l'avance ou meme de s'appuyer sur les appels precedents!).

Pour tout dire au point ou on en est, la plupart pourraient se satisfaire d'un ARM 64bits 2-coeurs, y compris moi quand je fais du developpement web simple, mais les pros utilisant des logiciels avec des parties vectorisables seraient mieux que leurs logiciels utilisent OpenCL et s'appuyer sur des GPU. L'Heterogenous Computing est a nos portes, et la voie choisie par Intel, en poussant l'architecture x86 au bout, et en ajoutant du vectoriel a repetition ne tient pas (bientot AVX3.1 en 512bits!).


--------------------
Utilisateur de Mac depuis 1985 et possesseur de Mac depuis 2005. Utilisateur d'un PC Lenovo au travail, sous Windows, qui renforce ma passion pour les Mac!
Go to the top of the page
 
+Quote Post

Reply to this topicStart new topic
1 utilisateur(s) sur ce sujet (1 invité(s) et 0 utilisateur(s) anonyme(s))
0 membre(s) :

 



Nous sommes le : 28th April 2024 - 18:41