![]() |
Bienvenue invité ( Connexion | Inscription )
![]() |
![]()
Message
#1
|
|
![]() BIDOUILLE Guru ![]() ![]() ![]() ![]() ![]() Groupe : Admin Messages : 55 525 Inscrit : 14 Jan 2001 Lieu : Paris Membre no 3 ![]() |
Par la voix de son CTO Justin Rattner, Intel a fait le point sur sa transition vers la gravure en 14nm. Tout semble se dérouler selon le calendrier prévu et Intel prévoit de démarrer la production de masse à cette finesse de gravure d'ici 2 ans. A la fin 2013, certaines chaînes de production seront construites ou modifiées pour graver des processeurs en 14 nm.
Le fondeur est donc dans les temps malgré la conjoncture difficile, qui l'a obligé à faire des économies. Pour rappel, la prochaine génération de puces au nom de Haswell et programmée pour 2013 sera encore gravée en 22nm. C'est Broadwell, la suivante prévue pour 2014, qui inaugurera la gravure en 14 nm et devrait permettre encore de grosses économies d'énergie à puissance constante. Intel est aussi très optimiste pour les générations suivantes de gravure, 10nm, 7nm et 5nm, qui lui permettront de suivre encore la loi de Moore pendant 10 ans. Après, c'est l'inconnue mais ces 10 ans permettront de trouver le moyen de changer radicalement les procédés de fabrication de processeurs. Par Lionel -------------------- C'est parce que la vitesse de la lumière est plus grande que celle du son que tant de gens paraissent brillants avant d'avoir l'air con
|
|
|
![]() |
![]()
Message
#2
|
|
![]() Macbidouilleur de vermeil ! ![]() ![]() ![]() ![]() Groupe : Membres Messages : 896 Inscrit : 8 Mar 2004 Membre no 15 938 ![]() |
@ r@net54
hehe en tout cas depuis que je te lis , tu as des avis plus judicieux que la plupart sur ce forum lorsqu'il s'agit de parler microprocesseur .... après tous les problèmes dont tu parles ce n'est pas nouveau , à chaque étape de miniaturisation il s'agit de maitriser les fuites éléctriques etc ... ![]() cela dit on peut poser le problème de l'augmentation des coûts un peu différemment , en effet déjà ce n'est pas nouveau que les chaînes de production sont de plus en plus chères en revanche même si le coût de la chaine était supérieure à chaque nouvelle étape , la nouvelle taille de gravure permettait de produire des puces x fois plus performantes , lorsque ce x est suffisemment important l'évolution est rentable. si on considère la capacité de production des usines de microprocesseurs non en nombre de puces mais en GFLOPS produit c'est à dire rapporté à la puissance de calcul produite dans ces usines , la productivité augmente à chaque nouvelle taille de gravure malgrès un coût de la chaine supérieure , le problème aujourd h'ui n'est pas tant à mon avis l'augmentation du coût de la chaine de production que le manque d'augmentation de puissance des puces ces dernières années malgrès des tailles de gravure inférieures ... et ça ne fait que s'aggraver , dès lors le nombre de GFLOPS produit est inférieur à ce qu'il devrait pour que l'évolution soit rentable, bref passer à une taille de gravure inférieure n'est plus rentable aujourdh'ui à mon sens , exemple mon G5 1,8 Ghz est trois fois moins puissant que le dernier proc que j'ai acheté un intel bicore 1,7Ghz , l'un est en 130 nm , l'autre en 32 nm il y a 4 tailles de gravure de différence pour un gain en GFLOPS de trois fois .... bref la fabrication en 130 nm était finalement plus productive dans un certain sens. par comparaison si on remonte 4 tailles de gravure au dessus du 130 nm on abouti au 600 nm époque d'un pentium 120mhgz bien plus que trois fois moins puissant que le G5 1,8Ghz ![]() le vrai saut sera fait par les supraconducteurs , la production de puces de la sorte a bien progresser et finira par arriver, il y a aussi les puces en 3D (la vraie 3D pas le finfet) Ce message a été modifié par CRISTOBOOL2 - 10 Dec 2012, 13:25. -------------------- Powermac G5 mono 1,8ghz Rev A-MacOS X 10.5.8 sur HD160GO-Léopard 10.5.1 sur HD320GO-X800XT MAC édition+Zalman VF1000-1,5Go TFT19"SAMSUNG-imprimante EPSON stylus SX125.
Mediacenter HI-FI fanless windows 7 (celeron G530@1,7Ghz ,4Go DDR3,HDD 2TO*2,ASUS XONAR essence STX,alim SEASONIC 400 fanless,graveur bleuray) |
|
|
![]()
Message
#3
|
|
![]() Macbidouilleur d'Or ! ![]() ![]() ![]() ![]() ![]() Groupe : Membres Messages : 3 458 Inscrit : 23 Mar 2004 Lieu : Paris / Vancouver Membre no 16 640 ![]() |
@ r@net54 hehe en tout cas depuis que je te lis , tu as des avis plus judicieux que la plupart sur ce forum lorsqu'il s'agit de parler microprocesseur .... après tous les problèmes dont tu parles ce n'est pas nouveau , à chaque étape de miniaturisation il s'agit de maitriser les fuites éléctriques etc ... ![]() cela dit on peut poser le problème de l'augmentation des coûts un peu différemment , en effet déjà ce n'est pas nouveau que les chaînes de production sont de plus en plus chères en revanche même si le coût de la chaine était supérieure à chaque nouvelle étape , la nouvelle taille de gravure permettait de produire des puces x fois plus performantes , lorsque ce x est suffisemment important l'évolution est rentable. si on considère la capacité de production des usines de microprocesseurs non en nombre de puces mais en GFLOPS produit c'est à dire rapporté à la puissance de calcul produite dans ces usines , la productivité augmente à chaque nouvelle taille de gravure malgrès un coût de la chaine supérieure , le problème aujourd h'ui n'est pas tant à mon avis l'augmentation du coût de la chaine de production que le manque d'augmentation de puissance des puces ces dernières années malgrès des tailles de gravure inférieures ... et ça ne fait que s'aggraver , dès lors le nombre de GFLOPS produit est inférieur à ce qu'il devrait pour que l'évolution soit rentable, bref passer à une taille de gravure inférieure n'est plus rentable aujourdh'ui à mon sens , exemple mon G5 1,8 Ghz est trois fois moins puissant que le dernier proc que j'ai acheté un intel bicore 1,7Ghz , l'un est en 130 nm , l'autre en 32 nm il y a 4 tailles de gravure de différence pour un gain en GFLOPS de trois fois .... bref la fabrication en 130 nm était finalement plus productive dans un certain sens. par comparaison si on remonte 4 tailles de gravure au dessus du 130 nm on abouti au 600 nm époque d'un pentium 120mhgz bien plus que trois fois moins puissant que le G5 1,8Ghz ![]() le vrai saut sera fait par les supraconducteurs , la production de puces de la sorte a bien progresser et finira par arriver, il y a aussi les puces en 3D (la vraie 3D pas le finfet) Tu as tout a fait raison et tu a mieux formulé les choses que ce que j'ai écrit. Néanmoins, en terme de cout d'investissement on arrive a un mur, surtout dans la conjoncture actuelle de récession globale. La nouvelle unite de production de TSMC construite en debut d'année va couter plus du quart du CA annuel d'Intel. Le cout pour Intel de ses unités de production en 14nm sera tres supérieur, on peu meme envisager qu'il soit plus du double, donc au mieux représentant plus de 50% de son CA . Et cela pour une seule unité. Sachant que le CA d'Intel sera en baisse cette annee par rapport a 2011, et qu'il devrait en etre de meme en 2013. De plus Intel va devoir baisser ses tarifs (donc sa rentabilité) pour 2013 et 2014 face a TSMC et GF qui vont produire elles de l'ARM (en croissance) a 20nm contre les x86 a 22nm d'Intel dont le marche stagne voir sera en récession... Bref l'équation économique de la course en tête qui a fait la fortune d'Intel est bien grippée, en plus de la déchéance consommée des pratiques monopolistiques en collaboration avec Microsoft. Comme tu le souligne, un des effets non mis en relief dans l'histoire c'est que si la conjecture de Moore (ce n'est pas une loi!) a toujours lieu, le doublement de transistors n'apporte plus la multiplication de la puissance que l'on a connu jusqu'a la gravure 130nm. Une fois que l'industrie c'est pris le mur des 4ghz en production commerciale, elle a essayé de compenser la stagnation de la fréquence par la multiplication de core. C'est pas bete car ca permet de tirer parti de la miniaturisation, mais ca pose d'autres problèmes. Et justement aujourd'hui on parle de processeurs a plus de 40 core, ce qui devient réaliste avec la finesse de gravure, mais on voit qu'au-delà de 12 core les problèmes de programmation parallèle entrainent une inexploitation massive du processeur. Les grosses avancées d'Intel ces dernières années sont focalisées sur la capacité d'un microprocesseur a pouvoir "éteindre" des core pour en overclocker un pendant un court laps de temps afin de fournir une vitesse de traitement ponctuellement supérieure. Mais ce n'est qu'un artifice qui ne fait que masquer le problème de la stagnation de la puissance brute. De plus l'architecture x86 impose un ensemble de mecanismes tres complexes pour compenser ses défauts, ce qui entraine aussi une sur-consommation et du déperdition devenant de plus en plus problématique et surtout péjorant les bénéfices de la finesse de gravure... Bref on aura beaucoup de core qui ne font rien mais consomment quand même alors que le besoin de puissance par core lui stagne. Maintenant que la course au Ghz est dans le mur, que la multiplication des cores est dans le mur, le discours se porte sur la puissance par Watt... La aussi la miniaturisation atteint ses limites car si passer de 130 nm a 90nm permettait une grosse économie, passer de 22 a 14 nm risque au mieux de stagner voir de demander plus d'énergie pour compenser les fuites... Je suis d'accord avec toi, on est a la fin de la technologie des microprocesseur a base de silicium, c'est ce que Moore prédisait d'ailleurs. Apres il y a plusieurs voies possibles, mais a ma connaissance aucune n'est en phase commercialisable dans les 5 ans. Donc, a moins de nous sortir une technologie révolutionnaire d'un coup, je pense qu'Intel va perdre sa compétitivité assez brutalement et que la puissance des systèmes va stagner pendant plusieurs années, au bénéfice des architectures ARM qui permettront des consommations bien plus faible pour une puissance d'exploitation suffisante... Et ce qui va etre un gros atout d'ARM, en plus de sa faible consommation c'est sa plasticité et sa capacité a exploiter efficacement des coprocesseurs spécialisés... @ Heret Sur le principe oui c'est lie au matériau, mais justement le silicium soit etre dopé et en plus la miniaturisation limite la taille de l'isolant impliquant des lors l'effet tunnel, ou l'électron traverse quand meme et se retrouve la ou il ne devrait pas. Donc si on passe a un autre matériau plus fin ca résoudra en partie le probleme, mais celui ci est bien lie a la miniaturisation meme si ce n'est pas directement... Un autre probleme est lie a "l'évaporation" du conducteur. Si celle-ci est négligeable grace a sa dimension, lorsqu'on arrive a quelques atomes d'épaisseur ça réduit vite la durée de vie du composant... -------------------- Agnostique multipratiquant: Unixs, Linux, Mac OS X, iOS et un peu de Windows. Des Macs, des iDevices, des PC et des "ordinosaures"…
Citation « Celui qui t’entretient des défauts d’autrui entretient les autres des tiens. », Diderot« Quand on suit une mauvaise route, plus on marche vite, plus on s'égare. » |
|
|
![]() ![]() |
Nous sommes le : 18th July 2025 - 03:28 |