![]() |
Bienvenue invité ( Connexion | Inscription )
![]() |
![]()
Message
#1
|
|
![]() BIDOUILLE Guru ![]() ![]() ![]() ![]() ![]() Groupe : Admin Messages : 55 526 Inscrit : 14 Jan 2001 Lieu : Paris Membre no 3 ![]() |
Par la voix de son CTO Justin Rattner, Intel a fait le point sur sa transition vers la gravure en 14nm. Tout semble se dérouler selon le calendrier prévu et Intel prévoit de démarrer la production de masse à cette finesse de gravure d'ici 2 ans. A la fin 2013, certaines chaînes de production seront construites ou modifiées pour graver des processeurs en 14 nm.
Le fondeur est donc dans les temps malgré la conjoncture difficile, qui l'a obligé à faire des économies. Pour rappel, la prochaine génération de puces au nom de Haswell et programmée pour 2013 sera encore gravée en 22nm. C'est Broadwell, la suivante prévue pour 2014, qui inaugurera la gravure en 14 nm et devrait permettre encore de grosses économies d'énergie à puissance constante. Intel est aussi très optimiste pour les générations suivantes de gravure, 10nm, 7nm et 5nm, qui lui permettront de suivre encore la loi de Moore pendant 10 ans. Après, c'est l'inconnue mais ces 10 ans permettront de trouver le moyen de changer radicalement les procédés de fabrication de processeurs. Par Lionel -------------------- C'est parce que la vitesse de la lumière est plus grande que celle du son que tant de gens paraissent brillants avant d'avoir l'air con
|
|
|
![]() |
![]()
Message
#2
|
|
![]() Macbidouilleur de vermeil ! ![]() ![]() ![]() ![]() Groupe : Membres Messages : 896 Inscrit : 8 Mar 2004 Membre no 15 938 ![]() |
Le coût direct des nouvelles installations est effectivement important mais à la limite cela ne remet pas en cause de faire ces investissements simplement cela ralentit le passage à une taille de gravure inférieure car il faut plus de temps pour rembourser l'investissement et contracter de nouveaux empreints pour la taille de gruvure suivante.
en revanche pour ce qui est des problèmes liés au x86 et les avantages supposés d'une architecture ARM je ne suis pas d'accord , nous ne sommes plus au temps des puces CISC contre RISC, les x86 actuels fonctionnent bien plus comme des RISC il y a simplement une petite part des transistors alloués à la conversion des instructions , au fil des années intel et AMD ont appris à parfaitement maîtriser ce processus et c'est quasi insensible sur le résultat final, même si au début les x86 avaient pris un train de retard sur les architectures RISC mais là on parle de 1994 . aujourdh'ui les puces complexes et puissantes (les ARM actuels n'en sont pas encore mais vont le devenir) ont toutes les mêmes principes de fonctionnement , et d'ailleurs ne sont plus des pures RISC. en fait aujourd'hui l'ISA n'a que peu d'importance pour le résultat final , le fait que la puce soit ARM ne lui confére pas d'avantage en soit par contre c'est le modèle ouvert de ARM qui lui confère un avantage.... Dès le début il était évident pour les gens qui connaissent que le multicore ne serait pas la solution à terme le premier bi core grand public date de 7-8 ans et aujourd'hui intel vends des quadri core essentiellement , AMD a un octocore incomplet , les programmes ont du mal à tirer partie de plus de 4 cores et certains calculs ne seront jamais multithreadables, bon à l'époque beaucoup pensaient que le nombre de cores allait grimper en flèche pour atteindre plus de 100 aujourd'hui et on riait de ceux qui comme moi disait l'inverse. le nombre de transistors augmentent mais on ne sait pas quoi en faire finalement ces dernières années , il y a eu deux freins à l'augmentation de performance des processeurs , en premier lieu la fréquence d'horloge même si aujourdh'ui IBM sait dépasser les 5 Ghz sur une puce complexe octocore elle n'a que très peu progresser la barre des 3 Ghz ayant étée franchie il y a environ 10 ans maintenant !! le second point c'est que dans l'agencement out of order d'un processeur il y a une limitation à la complexité du processeur , une limitation au nombre d'unités d'éxécution présentes et donc une limitation du nombre d'instructions par cycle , cela car il faut dispatcher et réordonnancer les instructions au sein d'unités dont la complexité évolue plus vite que le nombre d'unités exécutantes il en résulte un besoin en nombre de transistors trop important pour ces unités de dispatch et de réordonnancement (tout comme celle de prédiction de branchement) les fabricants se sont donc à un moment donné de nouveau tourner vers le in of order ou ces difficultés disparaissent (comme le POWER6 ou l'itanium par exemple) malheureusement l'éxécution in of order n'est pas adaptée aux programmes d'aujourdh'ui à nos languages de programmation et nos capacités en compilation, cette voie a donc étée abandonnée pour revenir au bon vieux OOO avec le POWER7 , l'abandon de l'itanium chez intel, les fabricants en sont aujourd'hui réduits à n'augmenter que la capaciter des traitements SIMD car ce sont les seules unités dont on peut encore vraiment augmenter la complexité (c'est pareil avec les GPGPU ) et à jouer sur les caches. Pour finir sur les processeurs ARM , ils ne seront ni meilleurs ni pires que les autres lorsqu'ils auront rattrapper leurs retard ce sera à peu près la même performance et la même consommation. -------------------- Powermac G5 mono 1,8ghz Rev A-MacOS X 10.5.8 sur HD160GO-Léopard 10.5.1 sur HD320GO-X800XT MAC édition+Zalman VF1000-1,5Go TFT19"SAMSUNG-imprimante EPSON stylus SX125.
Mediacenter HI-FI fanless windows 7 (celeron G530@1,7Ghz ,4Go DDR3,HDD 2TO*2,ASUS XONAR essence STX,alim SEASONIC 400 fanless,graveur bleuray) |
|
|
![]() ![]() |
Nous sommes le : 19th July 2025 - 03:57 |