![]() |
Bienvenue invité ( Connexion | Inscription )
![]() ![]() |
![]() |
![]()
Message
#1
|
|
![]() BIDOUILLE Guru ![]() ![]() ![]() ![]() ![]() Groupe : Admin Messages : 55 524 Inscrit : 14 Jan 2001 Lieu : Paris Membre no 3 ![]() |
Par la voix de son CTO Justin Rattner, Intel a fait le point sur sa transition vers la gravure en 14nm. Tout semble se dérouler selon le calendrier prévu et Intel prévoit de démarrer la production de masse à cette finesse de gravure d'ici 2 ans. A la fin 2013, certaines chaînes de production seront construites ou modifiées pour graver des processeurs en 14 nm.
Le fondeur est donc dans les temps malgré la conjoncture difficile, qui l'a obligé à faire des économies. Pour rappel, la prochaine génération de puces au nom de Haswell et programmée pour 2013 sera encore gravée en 22nm. C'est Broadwell, la suivante prévue pour 2014, qui inaugurera la gravure en 14 nm et devrait permettre encore de grosses économies d'énergie à puissance constante. Intel est aussi très optimiste pour les générations suivantes de gravure, 10nm, 7nm et 5nm, qui lui permettront de suivre encore la loi de Moore pendant 10 ans. Après, c'est l'inconnue mais ces 10 ans permettront de trouver le moyen de changer radicalement les procédés de fabrication de processeurs. Par Lionel -------------------- C'est parce que la vitesse de la lumière est plus grande que celle du son que tant de gens paraissent brillants avant d'avoir l'air con
|
|
|
![]()
Message
#2
|
|
![]() Macbidouilleur d'Or ! ![]() ![]() ![]() ![]() ![]() Groupe : Membres Messages : 3 458 Inscrit : 23 Mar 2004 Lieu : Paris / Vancouver Membre no 16 640 ![]() |
Par la voix de son CTO Justin Rattner, Intel a fait le point sur sa transition vers la gravure en 14nm. Tout semble se dérouler selon le calendrier prévu et Intel prévoit de démarrer la production de masse à cette finesse de gravure d'ici 2 ans. A la fin 2013, certaines chaînes de production seront construites ou modifiées pour graver des processeurs en 14 nm. Le fondeur est donc dans les temps malgré la conjoncture difficile, qui l'a obligé à faire des économies. Pour rappel, la prochaine génération de puces au nom de Haswell et programmée pour 2013 sera encore gravée en 22nm. C'est Broadwell, la suivante prévue pour 2014, qui inaugurera la gravure en 14 nm et devrait permettre encore de grosses économies d'énergie à puissance constante. Intel est aussi très optimiste pour les générations suivantes de gravure, 10nm, 7nm et 5nm, qui lui permettront de suivre encore la loi de Moore pendant 10 ans. Après, c'est l'inconnue mais ces 10 ans permettront de trouver le moyen de changer radicalement les procédés de fabrication de processeurs. Par Lionel Hum, et les pentiums a 100Ghz, annoncés en 2002 par Intel ils vont arriver en même temps? La pression de TSMC et GF qui arrivent aux 20 nm en production de masse cette année et 16/14nm en 2015 ça va motiver Intel il semble. Mais est ce qu'Intel peut rester sur du silicium pour annoncer de telles finesses (10 ou 7 nm?) parce que mine de rien la va falloir s'amuser a empiler atome sur atome. 1 nm c'est quasi 5 atomes de silicium. Déjà aux 22nm actuels ca devient un casse-tete de gerer tous les effets indésirables, alors a 10, est ce meme possible. Et quid de la gestion des effets quantiques et principalement des courants de fuites? Parce qu'augmenter la finesse de gravure comme moyen de réduire la consommation c'est une étape, mais ce bénéfice s'inverse avec les courants de fuite qui obligent alors a augmenter le courant pour compenser les pertes, donc augmenter la dissipation thermique, et pertes de courant se retrouvent la ou il ne devrait justement pas y avoir de courant (ca ressemble au problème du tuyau d'arrosage percé qui implique d'augmenter le débit d'eau au robinet pour arroser les salades, mais qui entre temps arrose sur toute la longueur...). Vient ensuite le probleme de gravure. Jusqu'à présent on arrive encore sa avoir des résines photosensibles suffisamment pures mais chaque nm gagné demande une resine toujours plus pure. Et il y a aussi le problème de la pureté chromatique et de la longueur d'onde de la source lumineuse: plus la longueur d'onde est faible, plus la résolution est élevée... L'autre problème c'est celui des seuils de tension, plus on miniaturise plus ces seuils se rapprochent jusqu'à rendre difficilement distinguable l'état éteint de l'état allumé, ce qui est justement le principe au coeur du transistor... Reste en plus, des questions de fiabilité et de production a large échelle, le gros problème du cout. Le cout d'une "chaine de production" doublerait tous les 4 ans, et a l'approche de ces finesses, avec toutes les difficultés posées, on peut estimer que cette valeur va être largement dépassées. En 2004 le cout estimé d'une d'une seule unite de production était 3 milliards de dollars et en 2013 le prix d'une seule unité devrait dépasser allègrement les 15 milliards $ (l'unité fab 14/phase 7 de TSMC qui sera construite en début d'année coutera 17 milliards $ soit plus d'1/4 du CA d'Intel)... Quid de la rentabilité? Alors est ce une vraie information ou est ce de l'intox faite par Intel comme aux débuts des années 2000 et sa courses aux Ghz? En tout cas Intel a interet a faire des annonces comme ça, vu le rachat récent de ses actions... Ce message a été modifié par r@net54 - 10 Dec 2012, 02:12. -------------------- Agnostique multipratiquant: Unixs, Linux, Mac OS X, iOS et un peu de Windows. Des Macs, des iDevices, des PC et des "ordinosaures"…
Citation « Celui qui t’entretient des défauts d’autrui entretient les autres des tiens. », Diderot« Quand on suit une mauvaise route, plus on marche vite, plus on s'égare. » |
|
|
![]()
Message
#3
|
|
Macbidouilleur de bronze ! ![]() ![]() Groupe : Membres Messages : 399 Inscrit : 9 Feb 2005 Membre no 32 741 ![]() |
L'autre problème c'est celui des seuils de tension, plus on miniaturise plus ces seuils se rapprochent jusqu'à rendre difficilement distinguable l'état éteint de l'état allumé, ce qui est justement le principe au coeur du transistor... ... qui s'appelle la tension de la jonction PN, qui est fonction du substrat (silicium, germanium, ...), qui n'est en aucun cas fonction de la miniaturisation. Voir à http://fr.wikipedia.org/wiki/Jonction_P-N, http://fr.wikipedia.org/wiki/Diode, et en particulier là : http://fr.wikipedia.org/wiki/Diode#Princip..._fonctionnement -------------------- je suis écouté, tu es écouté, elle est écoutée, nous sommes tous écoutés
|
|
|
![]()
Message
#4
|
|
![]() Macbidouilleur de vermeil ! ![]() ![]() ![]() ![]() Groupe : Membres Messages : 995 Inscrit : 6 Apr 2007 Lieu : Un peu plus à droite... Membre no 84 228 ![]() |
« Les lois de Moore », me semble-t-il, pas « la loi de Moore »
|
|
|
![]()
Message
#5
|
|
![]() Macbidouilleur de vermeil ! ![]() ![]() ![]() ![]() Groupe : Membres Messages : 896 Inscrit : 8 Mar 2004 Membre no 15 938 ![]() |
@ r@net54
hehe en tout cas depuis que je te lis , tu as des avis plus judicieux que la plupart sur ce forum lorsqu'il s'agit de parler microprocesseur .... après tous les problèmes dont tu parles ce n'est pas nouveau , à chaque étape de miniaturisation il s'agit de maitriser les fuites éléctriques etc ... ![]() cela dit on peut poser le problème de l'augmentation des coûts un peu différemment , en effet déjà ce n'est pas nouveau que les chaînes de production sont de plus en plus chères en revanche même si le coût de la chaine était supérieure à chaque nouvelle étape , la nouvelle taille de gravure permettait de produire des puces x fois plus performantes , lorsque ce x est suffisemment important l'évolution est rentable. si on considère la capacité de production des usines de microprocesseurs non en nombre de puces mais en GFLOPS produit c'est à dire rapporté à la puissance de calcul produite dans ces usines , la productivité augmente à chaque nouvelle taille de gravure malgrès un coût de la chaine supérieure , le problème aujourd h'ui n'est pas tant à mon avis l'augmentation du coût de la chaine de production que le manque d'augmentation de puissance des puces ces dernières années malgrès des tailles de gravure inférieures ... et ça ne fait que s'aggraver , dès lors le nombre de GFLOPS produit est inférieur à ce qu'il devrait pour que l'évolution soit rentable, bref passer à une taille de gravure inférieure n'est plus rentable aujourdh'ui à mon sens , exemple mon G5 1,8 Ghz est trois fois moins puissant que le dernier proc que j'ai acheté un intel bicore 1,7Ghz , l'un est en 130 nm , l'autre en 32 nm il y a 4 tailles de gravure de différence pour un gain en GFLOPS de trois fois .... bref la fabrication en 130 nm était finalement plus productive dans un certain sens. par comparaison si on remonte 4 tailles de gravure au dessus du 130 nm on abouti au 600 nm époque d'un pentium 120mhgz bien plus que trois fois moins puissant que le G5 1,8Ghz ![]() le vrai saut sera fait par les supraconducteurs , la production de puces de la sorte a bien progresser et finira par arriver, il y a aussi les puces en 3D (la vraie 3D pas le finfet) Ce message a été modifié par CRISTOBOOL2 - 10 Dec 2012, 13:25. -------------------- Powermac G5 mono 1,8ghz Rev A-MacOS X 10.5.8 sur HD160GO-Léopard 10.5.1 sur HD320GO-X800XT MAC édition+Zalman VF1000-1,5Go TFT19"SAMSUNG-imprimante EPSON stylus SX125.
Mediacenter HI-FI fanless windows 7 (celeron G530@1,7Ghz ,4Go DDR3,HDD 2TO*2,ASUS XONAR essence STX,alim SEASONIC 400 fanless,graveur bleuray) |
|
|
![]()
Message
#6
|
|
![]() Macbidouilleur d'Or ! ![]() ![]() ![]() ![]() ![]() Groupe : Membres Messages : 3 458 Inscrit : 23 Mar 2004 Lieu : Paris / Vancouver Membre no 16 640 ![]() |
@ r@net54 hehe en tout cas depuis que je te lis , tu as des avis plus judicieux que la plupart sur ce forum lorsqu'il s'agit de parler microprocesseur .... après tous les problèmes dont tu parles ce n'est pas nouveau , à chaque étape de miniaturisation il s'agit de maitriser les fuites éléctriques etc ... ![]() cela dit on peut poser le problème de l'augmentation des coûts un peu différemment , en effet déjà ce n'est pas nouveau que les chaînes de production sont de plus en plus chères en revanche même si le coût de la chaine était supérieure à chaque nouvelle étape , la nouvelle taille de gravure permettait de produire des puces x fois plus performantes , lorsque ce x est suffisemment important l'évolution est rentable. si on considère la capacité de production des usines de microprocesseurs non en nombre de puces mais en GFLOPS produit c'est à dire rapporté à la puissance de calcul produite dans ces usines , la productivité augmente à chaque nouvelle taille de gravure malgrès un coût de la chaine supérieure , le problème aujourd h'ui n'est pas tant à mon avis l'augmentation du coût de la chaine de production que le manque d'augmentation de puissance des puces ces dernières années malgrès des tailles de gravure inférieures ... et ça ne fait que s'aggraver , dès lors le nombre de GFLOPS produit est inférieur à ce qu'il devrait pour que l'évolution soit rentable, bref passer à une taille de gravure inférieure n'est plus rentable aujourdh'ui à mon sens , exemple mon G5 1,8 Ghz est trois fois moins puissant que le dernier proc que j'ai acheté un intel bicore 1,7Ghz , l'un est en 130 nm , l'autre en 32 nm il y a 4 tailles de gravure de différence pour un gain en GFLOPS de trois fois .... bref la fabrication en 130 nm était finalement plus productive dans un certain sens. par comparaison si on remonte 4 tailles de gravure au dessus du 130 nm on abouti au 600 nm époque d'un pentium 120mhgz bien plus que trois fois moins puissant que le G5 1,8Ghz ![]() le vrai saut sera fait par les supraconducteurs , la production de puces de la sorte a bien progresser et finira par arriver, il y a aussi les puces en 3D (la vraie 3D pas le finfet) Tu as tout a fait raison et tu a mieux formulé les choses que ce que j'ai écrit. Néanmoins, en terme de cout d'investissement on arrive a un mur, surtout dans la conjoncture actuelle de récession globale. La nouvelle unite de production de TSMC construite en debut d'année va couter plus du quart du CA annuel d'Intel. Le cout pour Intel de ses unités de production en 14nm sera tres supérieur, on peu meme envisager qu'il soit plus du double, donc au mieux représentant plus de 50% de son CA . Et cela pour une seule unité. Sachant que le CA d'Intel sera en baisse cette annee par rapport a 2011, et qu'il devrait en etre de meme en 2013. De plus Intel va devoir baisser ses tarifs (donc sa rentabilité) pour 2013 et 2014 face a TSMC et GF qui vont produire elles de l'ARM (en croissance) a 20nm contre les x86 a 22nm d'Intel dont le marche stagne voir sera en récession... Bref l'équation économique de la course en tête qui a fait la fortune d'Intel est bien grippée, en plus de la déchéance consommée des pratiques monopolistiques en collaboration avec Microsoft. Comme tu le souligne, un des effets non mis en relief dans l'histoire c'est que si la conjecture de Moore (ce n'est pas une loi!) a toujours lieu, le doublement de transistors n'apporte plus la multiplication de la puissance que l'on a connu jusqu'a la gravure 130nm. Une fois que l'industrie c'est pris le mur des 4ghz en production commerciale, elle a essayé de compenser la stagnation de la fréquence par la multiplication de core. C'est pas bete car ca permet de tirer parti de la miniaturisation, mais ca pose d'autres problèmes. Et justement aujourd'hui on parle de processeurs a plus de 40 core, ce qui devient réaliste avec la finesse de gravure, mais on voit qu'au-delà de 12 core les problèmes de programmation parallèle entrainent une inexploitation massive du processeur. Les grosses avancées d'Intel ces dernières années sont focalisées sur la capacité d'un microprocesseur a pouvoir "éteindre" des core pour en overclocker un pendant un court laps de temps afin de fournir une vitesse de traitement ponctuellement supérieure. Mais ce n'est qu'un artifice qui ne fait que masquer le problème de la stagnation de la puissance brute. De plus l'architecture x86 impose un ensemble de mecanismes tres complexes pour compenser ses défauts, ce qui entraine aussi une sur-consommation et du déperdition devenant de plus en plus problématique et surtout péjorant les bénéfices de la finesse de gravure... Bref on aura beaucoup de core qui ne font rien mais consomment quand même alors que le besoin de puissance par core lui stagne. Maintenant que la course au Ghz est dans le mur, que la multiplication des cores est dans le mur, le discours se porte sur la puissance par Watt... La aussi la miniaturisation atteint ses limites car si passer de 130 nm a 90nm permettait une grosse économie, passer de 22 a 14 nm risque au mieux de stagner voir de demander plus d'énergie pour compenser les fuites... Je suis d'accord avec toi, on est a la fin de la technologie des microprocesseur a base de silicium, c'est ce que Moore prédisait d'ailleurs. Apres il y a plusieurs voies possibles, mais a ma connaissance aucune n'est en phase commercialisable dans les 5 ans. Donc, a moins de nous sortir une technologie révolutionnaire d'un coup, je pense qu'Intel va perdre sa compétitivité assez brutalement et que la puissance des systèmes va stagner pendant plusieurs années, au bénéfice des architectures ARM qui permettront des consommations bien plus faible pour une puissance d'exploitation suffisante... Et ce qui va etre un gros atout d'ARM, en plus de sa faible consommation c'est sa plasticité et sa capacité a exploiter efficacement des coprocesseurs spécialisés... @ Heret Sur le principe oui c'est lie au matériau, mais justement le silicium soit etre dopé et en plus la miniaturisation limite la taille de l'isolant impliquant des lors l'effet tunnel, ou l'électron traverse quand meme et se retrouve la ou il ne devrait pas. Donc si on passe a un autre matériau plus fin ca résoudra en partie le probleme, mais celui ci est bien lie a la miniaturisation meme si ce n'est pas directement... Un autre probleme est lie a "l'évaporation" du conducteur. Si celle-ci est négligeable grace a sa dimension, lorsqu'on arrive a quelques atomes d'épaisseur ça réduit vite la durée de vie du composant... -------------------- Agnostique multipratiquant: Unixs, Linux, Mac OS X, iOS et un peu de Windows. Des Macs, des iDevices, des PC et des "ordinosaures"…
Citation « Celui qui t’entretient des défauts d’autrui entretient les autres des tiens. », Diderot« Quand on suit une mauvaise route, plus on marche vite, plus on s'égare. » |
|
|
![]()
Message
#7
|
|
![]() Macbidouilleur de vermeil ! ![]() ![]() ![]() ![]() Groupe : Membres Messages : 896 Inscrit : 8 Mar 2004 Membre no 15 938 ![]() |
Le coût direct des nouvelles installations est effectivement important mais à la limite cela ne remet pas en cause de faire ces investissements simplement cela ralentit le passage à une taille de gravure inférieure car il faut plus de temps pour rembourser l'investissement et contracter de nouveaux empreints pour la taille de gruvure suivante.
en revanche pour ce qui est des problèmes liés au x86 et les avantages supposés d'une architecture ARM je ne suis pas d'accord , nous ne sommes plus au temps des puces CISC contre RISC, les x86 actuels fonctionnent bien plus comme des RISC il y a simplement une petite part des transistors alloués à la conversion des instructions , au fil des années intel et AMD ont appris à parfaitement maîtriser ce processus et c'est quasi insensible sur le résultat final, même si au début les x86 avaient pris un train de retard sur les architectures RISC mais là on parle de 1994 . aujourdh'ui les puces complexes et puissantes (les ARM actuels n'en sont pas encore mais vont le devenir) ont toutes les mêmes principes de fonctionnement , et d'ailleurs ne sont plus des pures RISC. en fait aujourd'hui l'ISA n'a que peu d'importance pour le résultat final , le fait que la puce soit ARM ne lui confére pas d'avantage en soit par contre c'est le modèle ouvert de ARM qui lui confère un avantage.... Dès le début il était évident pour les gens qui connaissent que le multicore ne serait pas la solution à terme le premier bi core grand public date de 7-8 ans et aujourd'hui intel vends des quadri core essentiellement , AMD a un octocore incomplet , les programmes ont du mal à tirer partie de plus de 4 cores et certains calculs ne seront jamais multithreadables, bon à l'époque beaucoup pensaient que le nombre de cores allait grimper en flèche pour atteindre plus de 100 aujourd'hui et on riait de ceux qui comme moi disait l'inverse. le nombre de transistors augmentent mais on ne sait pas quoi en faire finalement ces dernières années , il y a eu deux freins à l'augmentation de performance des processeurs , en premier lieu la fréquence d'horloge même si aujourdh'ui IBM sait dépasser les 5 Ghz sur une puce complexe octocore elle n'a que très peu progresser la barre des 3 Ghz ayant étée franchie il y a environ 10 ans maintenant !! le second point c'est que dans l'agencement out of order d'un processeur il y a une limitation à la complexité du processeur , une limitation au nombre d'unités d'éxécution présentes et donc une limitation du nombre d'instructions par cycle , cela car il faut dispatcher et réordonnancer les instructions au sein d'unités dont la complexité évolue plus vite que le nombre d'unités exécutantes il en résulte un besoin en nombre de transistors trop important pour ces unités de dispatch et de réordonnancement (tout comme celle de prédiction de branchement) les fabricants se sont donc à un moment donné de nouveau tourner vers le in of order ou ces difficultés disparaissent (comme le POWER6 ou l'itanium par exemple) malheureusement l'éxécution in of order n'est pas adaptée aux programmes d'aujourdh'ui à nos languages de programmation et nos capacités en compilation, cette voie a donc étée abandonnée pour revenir au bon vieux OOO avec le POWER7 , l'abandon de l'itanium chez intel, les fabricants en sont aujourd'hui réduits à n'augmenter que la capaciter des traitements SIMD car ce sont les seules unités dont on peut encore vraiment augmenter la complexité (c'est pareil avec les GPGPU ) et à jouer sur les caches. Pour finir sur les processeurs ARM , ils ne seront ni meilleurs ni pires que les autres lorsqu'ils auront rattrapper leurs retard ce sera à peu près la même performance et la même consommation. -------------------- Powermac G5 mono 1,8ghz Rev A-MacOS X 10.5.8 sur HD160GO-Léopard 10.5.1 sur HD320GO-X800XT MAC édition+Zalman VF1000-1,5Go TFT19"SAMSUNG-imprimante EPSON stylus SX125.
Mediacenter HI-FI fanless windows 7 (celeron G530@1,7Ghz ,4Go DDR3,HDD 2TO*2,ASUS XONAR essence STX,alim SEASONIC 400 fanless,graveur bleuray) |
|
|
![]() ![]() |
Nous sommes le : 17th July 2025 - 05:05 |