IPB

Bienvenue invité ( Connexion | Inscription )

 
Reply to this topicStart new topic
> Intel va proposer son premier processeur à 4 GHz bientôt, Réactions à la publication du 19/05/2014
Options
Lionel
posté 18 May 2014, 22:58
Message #1


BIDOUILLE Guru
*****

Groupe : Admin
Messages : 55 342
Inscrit : 14 Jan 2001
Lieu : Paris
Membre no 3



Il n'y a pas si longtemps, 10 ans, jusqu'à l'époque des Pentium 4, Intel a été un temps persuadé qu'il serait possible d'augmenter la fréquence des processeurs presque indéfiniment. La société en est rapidement revenu une fois qu'elle s'est aperçu que les problèmes liés à cette augmentation de fréquence devenaient pratiquement insolubles. Il fallait augmenter considérablement la tension des transistors ce qui provoquait des courants de fuite inacceptables et augmenter énormément la longueur des pipelines (les queues d'instructions avant les unités de traitement) ce qui nuisait fortement aux performances.
Devant ce mur infranchissable la société a fait un total revirement de ses plans à long terme et sont ainsi nés les processeurs "Core" et la multiplication des coeurs pour faire encore perdurer la loi de Moore.
Depuis, la fréquence est devenue presque secondaire devant le nombre de coeurs et l'amélioration de leur architecture.
Le processeur ayant la fréquence de base la plus élevée fut un Pentium 4 à 3,8 GHz. Depuis, en dehors d'un éphémère mode Turbo aucune puce n'a franchi ce cap. Ce sera bientôt le cas avec un futur Core i7-4790K. Ce processeur à 4 coeurs aura une fréquence de base à 4 GHz et un mode Turbo à 4,4 GHz.
Il est bien entendu peu probable qu'Intel se relance à une course à la fréquence mais la socété semble prête à lâcher un peu de lest à ce niveau. Ce n'est pas plus mal car c'est non seulement le moyen le plus simple (sur le papier) de réaliser un bond de performances sur un processeur, mais aussi le moyen le plus efficace. En effet, multiplier le nombre de coeurs est certes efficace mais cela ne fonctionne que si tout l'environnement est capable d'utiliser ces coeurs disponibles alors qu'une fréquence plus élevée est accessible à toute la machine sans complications.
Lien vers le billet original


--------------------
C'est parce que la vitesse de la lumière est plus grande que celle du son que tant de gens paraissent brillants avant d'avoir l'air con
Go to the top of the page
 
+Quote Post
lewis82
posté 19 May 2014, 01:25
Message #2


Macbidouilleur de bronze !
**

Groupe : Membres
Messages : 307
Inscrit : 4 Sep 2006
Lieu : Québec
Membre no 67 295



Juste une petite correction: le concept de pipeline, dans l'architecture des microprocesseurs, signifie que l'exécution des instructions est séparée en sous-étapes (lecture de l'instruction dans la mémoire, décodage de l'instruction, lecture des registres (le cas échéant), exécution de l'instruction, sauvegarde de l'instruction dans les registres, écriture du résultat dans la mémoire (le cas échéant). Dans le cas d'un processeur Intel moderne, on peut s'attendre à un pipeline de 16 étages. Dans un ARM, 5 étages. Mais dans le cas des Pentium 4, c'était 30 étages.

En tant que tel, ça ne cause pas problème d'avoir un pipeline profond: on peut effectivement augmenter la vitesse parce que les opérations à effectuer sont toutes plus courtes. En revanche, lorsqu'on couple les pipeline avec de la prédiction de branchements, chaque mauvaise prédiction nécessite de vider le pipeline et de recommencer l'exécution à partir de zéro de 30 instructions. (Cela dit, ceci serait le cas à chaque instruction conditionelle dans le code, même sans prédiction) Il y a donc intérêt à avoir le pipeline le plus court possible pour minimiser l'impact des instructions conditionelles et des prédictions.


--------------------
MBP 13" C2D 2.53GHz, 8GB DDR3 1066MHz, Geforce 9400M 256 MB VRAM, Samsung 840 EVO 250 GB
Go to the top of the page
 
+Quote Post
Vincefromsin
posté 19 May 2014, 01:49
Message #3


Nouveau Membre


Groupe : Membres
Messages : 30
Inscrit : 17 Dec 2012
Membre no 181 271



lewis82 > +1


--------------------
Total assault on culture by any means necessary. Including rock'n'roll, dope and fucking in the streets.
Go to the top of the page
 
+Quote Post
 Joe
posté 19 May 2014, 04:34
Message #4


Macbidouilleur d'Or !
*****

Groupe : Modérateurs
Messages : 2 947
Inscrit : 5 Oct 2001
Lieu : Nantes, 44
Membre no 951



En passant le TDP était de 115W pour le fameux P4 et ce core i7 88W, une nette amélioration de ce côté là également.


--------------------
MacBook Pro 15" TB
Go to the top of the page
 
+Quote Post
zoso2k1
posté 19 May 2014, 06:01
Message #5


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 2 252
Inscrit : 2 Jul 2001
Membre no 449



sachant que la plupart des i5 et i7 des séries K s'overclockent au delà de 4,4 GHz sans grande difficultés, il y a longtemps qu'Intel est capable de sortir un processeur non pas à 4 GHz mais à 5 GHz.


--------------------
9600@G4/1000, ATI 7000 Panther et 9.1, 896 Mo, 500 Go IDE, DVD-RW, M-Audio IMac G4/1,25 20" Leopard, 2 Go, 320 Go + 320 Go FW.
i7 3770K@4,5 GHz Mountain Lion 16 Go RAID 0 SSD 2*512 Go, 10 To RAID 5, Nvidia 670 2Go, Blu-ray, Ecran 27" HP 2560*1600
i5 2500K@4 GHz Snow Leopoard, 16 Go, 10 To RAID 5, ATI 5770 1 Go
iPod 5 Go première génération iPod U2 40 Go première génération iPod 40 Go troisième génération

« La théorie, c'est quand on sait tout et que rien ne fonctionne.
La pratique, c'est quand tout fonctionne et que personne ne sait pourquoi.
Ici, nous avons réuni théorie et pratique : Rien ne fonctionne... et personne ne sait pourquoi ! »

Albert Einstein

Le jour où le Mac fonctionnera de la même manière que l'iPhone, je passerai à Windows.
Lionel. Macbidouille. 25 juin 2010.
Go to the top of the page
 
+Quote Post
moarteen
posté 19 May 2014, 06:44
Message #6


Macbidouilleur de bronze !
**

Groupe : Membres
Messages : 368
Inscrit : 4 Apr 2006
Lieu : sur les frontieres
Membre no 58 864



Au delà de 3GHz le rapport performances/watt diminue chez Intel


--------------------
Mac 512Ke, Mac SE, Centris 650 25->40MHz, PM 7500 601->604, PB G3->G4, iBook G3, MBP CD ->N->HybridHD->SSD, iMac G4 Sunflower ->SSD, Mini C2D, MBP 15 2014
Go to the top of the page
 
+Quote Post
Albook
posté 19 May 2014, 06:59
Message #7


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 2 415
Inscrit : 31 Aug 2006
Membre no 67 018



Ce nouveau core i7 sera-t-il seulement une vitrine ou sera-t-il le premier d'une liste plus importante largement commercialisée ?
Avec un TDP de 88W, quelles probabilités de le retrouver dans un mac ?

Ce message a été modifié par Albook - 19 May 2014, 06:59.
Go to the top of the page
 
+Quote Post
X_Gebo
posté 19 May 2014, 07:43
Message #8


Macbidouilleur de vermeil !
****

Groupe : Membres
Messages : 912
Inscrit : 2 Aug 2011
Lieu : Saint Hippolyte-du-Fort
Membre no 169 375



Citation (Lionel @ 18 May 2014, 23:58) *
En effet, multiplier le nombre de coeurs est certes efficace mais cela ne fonctionne que si tout l'environnement est capable d'utiliser ces coeurs disponibles alors qu'une fréquence plus élevée est accessible à toute la machine sans complications.

Voilà maintenant quelques années que nous avons des machines multi-processeurs / multi-cores : je suis perplexe de constater que peu d'applications les utilisent à plein.
Pas de nécessité de rapidité pour toutes les applications (je peux le comprendre) ? (Grosses) difficultés à programmer ? Ce sont de vraies questions que je me pose : si ceux-qui-savent pouvaient m'éclairer !


--------------------
Go to the top of the page
 
+Quote Post
raoulito
posté 19 May 2014, 07:59
Message #9


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 7 010
Inscrit : 24 Jan 2014
Lieu : La Vienne
Membre no 189 026



Citation (lewis82 @ 19 May 2014, 01:25) *
Juste une petite correction: le concept de pipeline, dans l'architecture des microprocesseurs, signifie que l'exécution des instructions est séparée en sous-étapes (lecture de l'instruction dans la mémoire, décodage de l'instruction, lecture des registres (le cas échéant), exécution de l'instruction, sauvegarde de l'instruction dans les registres, écriture du résultat dans la mémoire (le cas échéant). Dans le cas d'un processeur Intel moderne, on peut s'attendre à un pipeline de 16 étages. Dans un ARM, 5 étages. Mais dans le cas des Pentium 4, c'était 30 étages.

En tant que tel, ça ne cause pas problème d'avoir un pipeline profond: on peut effectivement augmenter la vitesse parce que les opérations à effectuer sont toutes plus courtes. En revanche, lorsqu'on couple les pipeline avec de la prédiction de branchements, chaque mauvaise prédiction nécessite de vider le pipeline et de recommencer l'exécution à partir de zéro de 30 instructions. (Cela dit, ceci serait le cas à chaque instruction conditionelle dans le code, même sans prédiction) Il y a donc intérêt à avoir le pipeline le plus court possible pour minimiser l'impact des instructions conditionelles et des prédictions.


C'est là que je me dit que fabriquer un processeur ce n'est pas à la portée de tout le monde.. la vache!

Citation (X_Gebo @ 19 May 2014, 07:43) *
Citation (Lionel @ 18 May 2014, 23:58) *
En effet, multiplier le nombre de coeurs est certes efficace mais cela ne fonctionne que si tout l'environnement est capable d'utiliser ces coeurs disponibles alors qu'une fréquence plus élevée est accessible à toute la machine sans complications.

Voilà maintenant quelques années que nous avons des machines multi-processeurs / multi-cores : je suis perplexe de constater que peu d'applications les utilisent à plein.
Pas de nécessité de rapidité pour toutes les applications (je peux le comprendre) ? (Grosses) difficultés à programmer ? Ce sont de vraies questions que je me pose : si ceux-qui-savent pouvaient m'éclairer !


Parfois flemardise, parfois inutilitée pour les taches du logiciel, mais n'oublions pas "grand central" sur mac, cet element au coeur du noyau (sous la couche open cl me semble-t-il) est censée justement éviter cela... Encore faut-il ajouter modifier le code pour l'utiliser (il parait que c'est simple à faire mais je ne suis pas programmeur)


--------------------
——

Çà c'est ma création, un podcast associatif racontant une histoire de SF : http://reduniverse.fr La plus grande saga galactique jamais racontée en podcast :)

Tout homme qui dirige, qui fait quelque chose, a contre lui ceux qui voudraient faire la même chose, ceux qui font précisément le contraire et surtout la grande armée des gens d'autant plus sévères qu'ils ne font rien du tout.
JULES CLARETIE
Go to the top of the page
 
+Quote Post
r@net54
posté 19 May 2014, 08:42
Message #10


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 3 458
Inscrit : 23 Mar 2004
Lieu : Paris / Vancouver
Membre no 16 640



Citation (Albook @ 19 May 2014, 06:59) *
Ce nouveau core i7 sera-t-il seulement une vitrine ou sera-t-il le premier d'une liste plus importante largement commercialisée ?
Avec un TDP de 88W, quelles probabilités de le retrouver dans un mac ?


Aucune chance de le voir dans un Mac.
Cette famille de processeurs hors de prix n'est de toute façon prévu que pour des desktop, souvent des tours pour gamer.
Seul le MacPro pourrait en être dote, mais il y a le problème du dégagement thermique et ensuite les MacPro tournent avec des Xeon.
Eventuellement un hackintosh de luxe.

Il y a deux façon de voir ce processeur.

La première est optimiste: comme dis precedement, les fous de l'overclock montent des Core ix a plus de 4ghz depuis un moment.
En theorie si on a un refroidissement suffisant, la vie du processeur n'en est pas trop réduite.
Il est probable, qu'avec les gigantesques avancées qu'Intel a fait en optimisation énergétiques ces dernières années sous la pression d'ARM, et la déception retentissante du refresh d'Haswell qu'Intel juge aujourd'hui opportun de monter un tout petit peu la fréquence standard de son fleuron de la gamme Core i7 et que sa maitrise de la gravure actuelle permette a celui-ci d'encaisser suffisamment longtemps cette fréquence.

De toute façon vu la chute des ventes des processeurs pour desktop, Intel peut remonter les taux de qualité et disqualifier plus de processeurs pour cette certification. Probable qu'Intel peut aussi monter un peu le prix de vente de ce processeur, car les quelques hertz de gagnes seront un bon argument de vente, certainement plus que les fadaises marketing des denieres années.

Comme le rappel Lionel, si la propagande d'Intel est passee de la course aux gigahertz, a celle de la multiplication des pains des core, puis a celle de l'optimisation énergétique par le truchement de l'intégration de l'iGPU et d'autres fonctions normalement (et efficacement) présentent sur la CM, plus aucune personnes un peu informee n'est dupe.
La stagnation des performances des processeurs x86 d'Intel est une constatation factuelle.
Et on sait pertinemment que pour augmenter la puissance d'un processeur, soit on monte sa fréquence, soit on change d'architecture. Intel ne veux toujours pas lâcher le x86 et tente de remettre un peu d'entrain dans le zombie en lui donnant un coup de pied au… quelques hertz de plus.

La seconde façon, c'est de voir ce processeur comme un coup de bluff marketing.
Intel serait au pied du mur ayant toutes les peines du monde a stabiliser la future génération broadwell, dont les performances seraient trop proches d'Haswell de toute facon.
Donc Intel tente le tout pour le tout est monte un peu la fréquence de ce processeur hors de prix pour essayer de drainer un courant d'enthousiasme pour les processeurs Broadwell avenir: si Intel est capable de monter un Haswell a 4ghz, alors les Broadwell, plus fins en gravure, atteindront aussi des 4ghz: CQFD. Enfin ça c'est une idée marketing.

Dans tous les cas il va falloir attendre plusieurs mois pour avoir un recul suffisant afin de savoir si ce processeur tient le choc.

Apres comme le rappelle l'article original, si passer la barre des 4ghz est un séisme pour Intel, ça fait un bout de temps qu'AMD l'a passe et qu'en mode turbo c'est la barre des 5ghz qui est chatouillee.

Ce message a été modifié par r@net54 - 19 May 2014, 09:07.


--------------------
Agnostique multipratiquant: Unixs, Linux, Mac OS X, iOS et un peu de Windows. Des Macs, des iDevices, des PC et des "ordinosaures"…
Citation
« Celui qui t’entretient des défauts d’autrui entretient les autres des tiens. »,
« Quand on suit une mauvaise route, plus on marche vite, plus on s'égare. »
Diderot
Go to the top of the page
 
+Quote Post
dandu
posté 19 May 2014, 08:55
Message #11


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 1 755
Inscrit : 13 Nov 2002
Lieu : Près de Liège (Be)
Membre no 4 663



Citation (X_Gebo @ 19 May 2014, 08:43) *
Citation (Lionel @ 18 May 2014, 23:58) *
En effet, multiplier le nombre de coeurs est certes efficace mais cela ne fonctionne que si tout l'environnement est capable d'utiliser ces coeurs disponibles alors qu'une fréquence plus élevée est accessible à toute la machine sans complications.

Voilà maintenant quelques années que nous avons des machines multi-processeurs / multi-cores : je suis perplexe de constater que peu d'applications les utilisent à plein.
Pas de nécessité de rapidité pour toutes les applications (je peux le comprendre) ? (Grosses) difficultés à programmer ? Ce sont de vraies questions que je me pose : si ceux-qui-savent pouvaient m'éclairer !


C'est même pas une question de difficulté de programmation, c'est juste que certains traitements ne sont pas adaptés à un découpage sur plusieurs cores.

Y a des calculs et des tâches qui sont fondamentalement linéaires, notamment dans les jeux, et donc on ne peut pas tout gérer sur plusieurs cores en même temps. Une fois qu'on a déplacé ce qu'il était possible de déplacer sur les autres cores, on reste limité par la vitesse d'un seul.

Une analogie (pas géniale, mais bon, ça parle) automobile : si t'as qu'une seule personne à transporter, t'iras plus vite avec une voiture qui roule à 200 km/h qu'avec 12 voitures qui roulent à 150 km/h.

Ceci dit, la majorité des usages qui demandent de la puissance sont quand même capables de gérer plusieurs cores en 2014, sauf si on travaille vraiment sur de vieilles applications.
Go to the top of the page
 
+Quote Post
r@net54
posté 19 May 2014, 09:00
Message #12


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 3 458
Inscrit : 23 Mar 2004
Lieu : Paris / Vancouver
Membre no 16 640



Citation (raoulito @ 19 May 2014, 07:59) *
Parfois flemardise, parfois inutilitée pour les taches du logiciel, mais n'oublions pas "grand central" sur mac, cet element au coeur du noyau (sous la couche open cl me semble-t-il) est censée justement éviter cela... Encore faut-il ajouter modifier le code pour l'utiliser (il parait que c'est simple à faire mais je ne suis pas programmeur)


Il faut aussi rappeler que le principe du logiciel permet seulement dans une limite restreinte de cas d'exploiter le parallelisme.

L'ecrasante majorité des logiciels bureautiques ou grand public ne sont pas de bons candidats au parallélisme.

Seul quelques catégories (architecture client/serveur, serveur de base de données multi-clients, calculs scientifiques, simulations scientifiques, traitements complexes d'image) sont hautement parallelisables et la c'est plus le GPGPU qui est la réponse la plus adaptée.

Grand Central est plus, a mon sens, un modèle de deconstruction et reordonancement dynamique du logiciel qu'autre chose. Si on a plusieurs logiciels qui sont clients de services qui peuvent être traites en parallèle, alors Grand Central va permettre une optimisation de l'exploitation des core. Si on a un logiciel séquentiel pur, ça change rien.
C'est comme OpenCL, ça permet du GPGPU et du reordonancement indépendamment de l'architecture processeur, mais ça va pas permettre de paralliliser un soft qui n'est pas parallelisable.

Apres il faut aussi se rendre compte que dans le cas des softs massivement parallelisables, donc exécutes sur les machines hautement parallèle (supercalculateur), il faut tout le talent, l'ingeniosite et la collaboration entre ingénieurs et chercheurs pour arriver a tirer le maximum de la machine, et cela est spécifique a chaque cas…


--------------------
Agnostique multipratiquant: Unixs, Linux, Mac OS X, iOS et un peu de Windows. Des Macs, des iDevices, des PC et des "ordinosaures"…
Citation
« Celui qui t’entretient des défauts d’autrui entretient les autres des tiens. »,
« Quand on suit une mauvaise route, plus on marche vite, plus on s'égare. »
Diderot
Go to the top of the page
 
+Quote Post
SartMatt
posté 19 May 2014, 09:37
Message #13


Macbidouilleur d'Or !
*****

Groupe : Rédacteurs
Messages : 32 187
Inscrit : 15 Nov 2005
Membre no 49 996



Citation (r@net54 @ 19 May 2014, 09:42) *
Cette famille de processeurs hors de prix n'est de toute façon prévu que pour des desktop, souvent des tours pour gamer.
Cette "famille de processeurs hors de prix", c'est juste les Core i7 standards sur socket 1150, à 300€ max, qu'Apple utilise justement dans les iMac...

L'iMac actuel en version haut de gamme avec option utilise un i7 4770K.
Le i7 4790K est justement en quelque sorte le successeur de ce 4770K.

Ceux qui sont hors de prix (et encore, tout est relatif... à 500€ le 4930K, ça resterait jouable pour un iMac, vu le prix de vente de la machine...), ce sont les i7 49xx, avec 6 cœurs et montés sur un socket différent (socket 2011, comme dans le Mac Pro).

Citation (r@net54 @ 19 May 2014, 09:42) *
Intel serait au pied du mur ayant toutes les peines du monde a stabiliser la future génération broadwell, dont les performances seraient trop proches d'Haswell de toute facon.
Donc Intel tente le tout pour le tout est monte un peu la fréquence de ce processeur hors de prix pour essayer de drainer un courant d'enthousiasme pour les processeurs Broadwell avenir: si Intel est capable de monter un Haswell a 4ghz, alors les Broadwell, plus fins en gravure, atteindront aussi des 4ghz: CQFD. Enfin ça c'est une idée marketing.
Ça tient pas debout 2s ça comme théorie...

Bon, supposons donc qu'Intel ait du mal à faire Broadwell et que ses performances soient trop proche d'Haswell.

Dans ce cas, serait-il vraiment opportun d'augmenter la fréquence d'Haswell, rendant encore plus difficile la réalisation d'un Broadwell plus performant ? Non. La logique serait alors justement de réserver cette hausse de fréquence à Broadwell, pour qu'il se différencie plus facilement d'Haswell sur le plan des performances...


--------------------

Go to the top of the page
 
+Quote Post
Pascal 77
posté 19 May 2014, 09:41
Message #14


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 3 052
Inscrit : 10 Oct 2005
Membre no 47 611



Citation (Lionel @ 18 May 2014, 23:58) *
la société a fait un total revirement de ses plans à long terme et sont ainsi nés les processeurs "Core" et la multiplication des coeurs pour faire encore perdurer la loi de Moore.


Tout en ne perdant pas de vue que le maintient de la validité de cette loi n'a pour seul objectif, (avec la complicité du logiciel) que d'obliger l'utilisateur à renouveler son matériel et ses logiciels, donc, en résumé, c'est du pur marketing.

Un exemple : on m'a donné récemment un vieux Sony Vaio, un P4 à 2,66 Ghz de 2004 (soit dit entre nous, largement plus lent que mon iBook G4 à 1,2 Ghz de la même année whistle.gif) sous Windows XP.

Maintenant, Microsoft me dit qu'il faut que je passe à Windows 7 ou 8 si je veux continuer à avoir des mises à jour de sécurité … Mais voilà : cette machine ne supportera pas autre chose que XP, en raison de sa capacité mémoire limitée (maxi 1 Go, partagé avec le GPU). Bon, je me dis "c'est comme les Mac, la capacité maxi indiquée est fonction de la Ram disponible à la mise en service, soit 512 Mo/barrette à l'époque, si je lui mets deux barrettes de 1 Go, il pourra passer à "seven" … Ben bernique ! les barrettes de 1 Go, il ne les supporte pas, donc, pour pouvoir continuer à l'utiliser en sécurité, ben on peut pas, faut le jeter et en acheter un autre !

Ça fait un moment déjà qu'on est passé du stade où l'industrie avait pour objet de satisfaire les besoins du public à celui ou le public a pour objet de satisfaire au besoin d'enrichissement des actionnaires de l'industrie !


EDIT : bon, d'accord, certains ont besoin de l'augmentation de performances des machines, même en bureautique, des fois (un de mes client utilise en permanence des tableaux Excel de plusieurs dizaines de milliers de lignes sur 50 à 100 colonnes chacun, et avec des macros. Pour lui, une machine rapide c'est un gain de productivité), mais bon, il faut bien reconnaître que c'est très loin d'être le cas général, et que la majorité des postes "bureautiques" fonctionneraient toujours très bien avec mon Sony Vaio.

Ce message a été modifié par Pascal 77 - 19 May 2014, 09:47.


--------------------
Un Windows pour les gouverner tous, un Windows pour les trouver, et dans les ténèbres, les lier … Euuh je vais pitêt rester sur Mac !
Go to the top of the page
 
+Quote Post
dandu
posté 19 May 2014, 10:51
Message #15


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 1 755
Inscrit : 13 Nov 2002
Lieu : Près de Liège (Be)
Membre no 4 663



Citation (SartMatt @ 19 May 2014, 10:37) *
Citation (r@net54 @ 19 May 2014, 09:42) *
Cette famille de processeurs hors de prix n'est de toute façon prévu que pour des desktop, souvent des tours pour gamer.
Cette "famille de processeurs hors de prix", c'est juste les Core i7 standards sur socket 1150, à 300€ max, qu'Apple utilise justement dans les iMac...

L'iMac actuel en version haut de gamme avec option utilise un i7 4770K.
Le i7 4790K est justement en quelque sorte le successeur de ce 4770K.



4771, en fait, Apple utilise rarement des puces débloquée dans les Mac wink.gif
Go to the top of the page
 
+Quote Post
Albook
posté 19 May 2014, 11:32
Message #16


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 2 415
Inscrit : 31 Aug 2006
Membre no 67 018



Citation (dandu @ 19 May 2014, 11:51) *
Citation (SartMatt @ 19 May 2014, 10:37) *
Citation (r@net54 @ 19 May 2014, 09:42) *
Cette famille de processeurs hors de prix n'est de toute façon prévu que pour des desktop, souvent des tours pour gamer.
Cette "famille de processeurs hors de prix", c'est juste les Core i7 standards sur socket 1150, à 300€ max, qu'Apple utilise justement dans les iMac...

L'iMac actuel en version haut de gamme avec option utilise un i7 4770K.
Le i7 4790K est justement en quelque sorte le successeur de ce 4770K.



4771, en fait, Apple utilise rarement des puces débloquée dans les Mac wink.gif


Donc, si j'ai bien compris, on pourrait le trouver dans un mac en version 4791 ? biggrin.gif
Go to the top of the page
 
+Quote Post
dandu
posté 19 May 2014, 11:54
Message #17


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 1 755
Inscrit : 13 Nov 2002
Lieu : Près de Liège (Be)
Membre no 4 663



Pour le moment, le 4791 n'a pas été annoncé, le nouveau haut de gamme (hors 4790K, justement), c'est le 4790 classique, 3,6 GHz avec Turbo à 4 GHz.

Le 4790K, c'est particulier, ça vise une niche.
Go to the top of the page
 
+Quote Post
Princo22
posté 19 May 2014, 12:40
Message #18


Macbidouilleur d'argent !
***

Groupe : Membres
Messages : 692
Inscrit : 13 Jul 2011
Membre no 168 785



Citation (Pascal 77 @ 19 May 2014, 18:41) *
Citation (Lionel @ 18 May 2014, 23:58) *
la société a fait un total revirement de ses plans à long terme et sont ainsi nés les processeurs "Core" et la multiplication des coeurs pour faire encore perdurer la loi de Moore.


Tout en ne perdant pas de vue que le maintient de la validité de cette loi n'a pour seul objectif, (avec la complicité du logiciel) que d'obliger l'utilisateur à renouveler son matériel et ses logiciels, donc, en résumé, c'est du pur marketing.

Un exemple : on m'a donné récemment un vieux Sony Vaio, un P4 à 2,66 Ghz de 2004 (soit dit entre nous, largement plus lent que mon iBook G4 à 1,2 Ghz de la même année whistle.gif) sous Windows XP.

Maintenant, Microsoft me dit qu'il faut que je passe à Windows 7 ou 8 si je veux continuer à avoir des mises à jour de sécurité … Mais voilà : cette machine ne supportera pas autre chose que XP, en raison de sa capacité mémoire limitée (maxi 1 Go, partagé avec le GPU). Bon, je me dis "c'est comme les Mac, la capacité maxi indiquée est fonction de la Ram disponible à la mise en service, soit 512 Mo/barrette à l'époque, si je lui mets deux barrettes de 1 Go, il pourra passer à "seven" … Ben bernique ! les barrettes de 1 Go, il ne les supporte pas, donc, pour pouvoir continuer à l'utiliser en sécurité, ben on peut pas, faut le jeter et en acheter un autre !

Ça fait un moment déjà qu'on est passé du stade où l'industrie avait pour objet de satisfaire les besoins du public à celui ou le public a pour objet de satisfaire au besoin d'enrichissement des actionnaires de l'industrie !


EDIT : bon, d'accord, certains ont besoin de l'augmentation de performances des machines, même en bureautique, des fois (un de mes client utilise en permanence des tableaux Excel de plusieurs dizaines de milliers de lignes sur 50 à 100 colonnes chacun, et avec des macros. Pour lui, une machine rapide c'est un gain de productivité), mais bon, il faut bien reconnaître que c'est très loin d'être le cas général, et que la majorité des postes "bureautiques" fonctionneraient toujours très bien avec mon Sony Vaio.

Autant je suis d'accord sur l'idée, autant tu as choisi le pire exemple qui soit.
Tu parles d'une machine qui a aujourd'hui plus de 10 ans et qui, lors de l'achat n'était déjà pas du haut de gamme (si tu ne fais pas d'erreur sur la date, il ne peut s'agir que d'un Northwood B 2.66, cpu sorti en 2002, le Smithfield 2.66 n'étant sorti qu'en 2005).

La baisse de gourmandise des applis ces 6/8 dernières années est flagrante, mais elle ne prolonge pas non plus indéfiniment la durée de vie du matériel. Et autant je comprend ceux qui râlent sur l'arrêt de support de Windows XP parce qu'ils ont acheté une machine neuve en 2010, autant le faire pour une machine de 2004 relève d'une certaine mauvaise foi wink.gif
Mais si vraiment tu tiens à installer Seven, il tourne avec 1go de ram.

PS: la limite de capacité par barrette n'est pas là que pour nous pourrir la vie. Il y a quelques raisons techniques derrières. Pour faire court, si ton ordi supportait 1Go par barrette, tu l'aurais payé plus cher et il irait moins vite.
Go to the top of the page
 
+Quote Post
iAPX
posté 19 May 2014, 13:11
Message #19


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 15 383
Inscrit : 4 Jan 2006
Lieu : dtq
Membre no 52 877



Citation (r@net54 @ 19 May 2014, 04:00) *
Citation (raoulito @ 19 May 2014, 07:59) *
Parfois flemardise, parfois inutilitée pour les taches du logiciel, mais n'oublions pas "grand central" sur mac, cet element au coeur du noyau (sous la couche open cl me semble-t-il) est censée justement éviter cela... Encore faut-il ajouter modifier le code pour l'utiliser (il parait que c'est simple à faire mais je ne suis pas programmeur)


Il faut aussi rappeler que le principe du logiciel permet seulement dans une limite restreinte de cas d'exploiter le parallelisme.

L'ecrasante majorité des logiciels bureautiques ou grand public ne sont pas de bons candidats au parallélisme.

Seul quelques catégories (architecture client/serveur, serveur de base de données multi-clients, calculs scientifiques, simulations scientifiques, traitements complexes d'image) sont hautement parallelisables et la c'est plus le GPGPU qui est la réponse la plus adaptée.

Grand Central est plus, a mon sens, un modèle de deconstruction et reordonancement dynamique du logiciel qu'autre chose. Si on a plusieurs logiciels qui sont clients de services qui peuvent être traites en parallèle, alors Grand Central va permettre une optimisation de l'exploitation des core. Si on a un logiciel séquentiel pur, ça change rien.
C'est comme OpenCL, ça permet du GPGPU et du reordonancement indépendamment de l'architecture processeur, mais ça va pas permettre de paralliliser un soft qui n'est pas parallelisable.

Apres il faut aussi se rendre compte que dans le cas des softs massivement parallelisables, donc exécutes sur les machines hautement parallèle (supercalculateur), il faut tout le talent, l'ingeniosite et la collaboration entre ingénieurs et chercheurs pour arriver a tirer le maximum de la machine, et cela est spécifique a chaque cas…

+1 Et c'est pourtant coté parallélisme qu'Intel essaie de faire progresser ses CPU x86 (SSE, AVX, AVX2 et bientot AVX3 512bits basé sur les Xeon Phi). Il y a peu de gain d'IPC (Instructions par Cycle) a tirer du code scalaire habituel, ceci explique d'ailleurs une belle stagnation des IPC, dans ce cas, depuis le Core™ 2, dont l'actuel Haswell n'est qu'une évolution, malgrès la multiplication de coeur, pour la plupart des usagers d'ordinateurs.

Fondamentalement, Intel et les autres qui suivent de loin, sont en train d'atteindre les limites du silicone, ayant frappé plusieurs murs les uns à la suite des autres: fini les augmentations de fréquences "gratuites" à chaque augmentation de finesse, fini la baisse "automatique" de la consommation à chaque augmentation de finesse, fini le gain en IPC facile en rajoutant de la complexité dans le modèle d'exécution (le gain n'est que très marginal!).

Il reste des gains à faire en traitement vectoriels (ie: parallèle), alors Intel investit dedans et certains logiciels Pro savent exploiter AVX ou AVX2 pour en tirer parti, beaucoup de logiciels sont multithreadé autant que faire ce puisse, mais à la fin, quand je tape un texte dans Pages ou que je consulte le web, tout cela est pas mal mono-threadé, donc peu de gains depuis quelques années!


--------------------
Utilisateur de Mac depuis 1985 et possesseur de Mac depuis 2005. Utilisateur d'un PC Lenovo au travail, sous Windows, qui renforce ma passion pour les Mac!
Go to the top of the page
 
+Quote Post
Guest_dtb06_*
posté 19 May 2014, 13:23
Message #20





Guests






Sur mon PC je suis à 4.5GHz depuis 3 ans (air cooling avec un Cooler Master Hyper TX3). Les processeurs Intel tiennent très bien l'overclocking. Malheureusement ils le limitent artificiellement aux modèles "K". Je pense que mon 2600K overclocké tourne mieux qu'un Haswell à 3.5.

EDIT : et pour les 4GHz il me semble qu'AMD en a déjà sorti il y a quelques temps sur les Phenom (pas top en performance), non ?

Ce message a été modifié par dtb06 - 19 May 2014, 13:30.
Go to the top of the page
 
+Quote Post
Guest_dtb06_*
posté 19 May 2014, 13:42
Message #21





Guests






Citation (Princo22 @ 19 May 2014, 13:40) *
Citation (Pascal 77 @ 19 May 2014, 18:41) *
Citation (Lionel @ 18 May 2014, 23:58) *
la société a fait un total revirement de ses plans à long terme et sont ainsi nés les processeurs "Core" et la multiplication des coeurs pour faire encore perdurer la loi de Moore.


Tout en ne perdant pas de vue que le maintient de la validité de cette loi n'a pour seul objectif, (avec la complicité du logiciel) que d'obliger l'utilisateur à renouveler son matériel et ses logiciels, donc, en résumé, c'est du pur marketing.

Un exemple : on m'a donné récemment un vieux Sony Vaio, un P4 à 2,66 Ghz de 2004 (soit dit entre nous, largement plus lent que mon iBook G4 à 1,2 Ghz de la même année whistle.gif) sous Windows XP.

Maintenant, Microsoft me dit qu'il faut que je passe à Windows 7 ou 8 si je veux continuer à avoir des mises à jour de sécurité … Mais voilà : cette machine ne supportera pas autre chose que XP, en raison de sa capacité mémoire limitée (maxi 1 Go, partagé avec le GPU). Bon, je me dis "c'est comme les Mac, la capacité maxi indiquée est fonction de la Ram disponible à la mise en service, soit 512 Mo/barrette à l'époque, si je lui mets deux barrettes de 1 Go, il pourra passer à "seven" … Ben bernique ! les barrettes de 1 Go, il ne les supporte pas, donc, pour pouvoir continuer à l'utiliser en sécurité, ben on peut pas, faut le jeter et en acheter un autre !

Ça fait un moment déjà qu'on est passé du stade où l'industrie avait pour objet de satisfaire les besoins du public à celui ou le public a pour objet de satisfaire au besoin d'enrichissement des actionnaires de l'industrie !


EDIT : bon, d'accord, certains ont besoin de l'augmentation de performances des machines, même en bureautique, des fois (un de mes client utilise en permanence des tableaux Excel de plusieurs dizaines de milliers de lignes sur 50 à 100 colonnes chacun, et avec des macros. Pour lui, une machine rapide c'est un gain de productivité), mais bon, il faut bien reconnaître que c'est très loin d'être le cas général, et que la majorité des postes "bureautiques" fonctionneraient toujours très bien avec mon Sony Vaio.

Autant je suis d'accord sur l'idée, autant tu as choisi le pire exemple qui soit.
Tu parles d'une machine qui a aujourd'hui plus de 10 ans et qui, lors de l'achat n'était déjà pas du haut de gamme (si tu ne fais pas d'erreur sur la date, il ne peut s'agir que d'un Northwood B 2.66, cpu sorti en 2002, le Smithfield 2.66 n'étant sorti qu'en 2005).

La baisse de gourmandise des applis ces 6/8 dernières années est flagrante, mais elle ne prolonge pas non plus indéfiniment la durée de vie du matériel. Et autant je comprend ceux qui râlent sur l'arrêt de support de Windows XP parce qu'ils ont acheté une machine neuve en 2010, autant le faire pour une machine de 2004 relève d'une certaine mauvaise foi wink.gif
Mais si vraiment tu tiens à installer Seven, il tourne avec 1go de ram.

PS: la limite de capacité par barrette n'est pas là que pour nous pourrir la vie. Il y a quelques raisons techniques derrières. Pour faire court, si ton ordi supportait 1Go par barrette, tu l'aurais payé plus cher et il irait moins vite.

D'accord avec Princo22, et en plus, j'aimerais bien te voir essayer de mettre MacOS 10.6, 10.7, 10.8 ou 10.9 sur ton Powerbook G4. Ca risque d'être sport ! Alors que sur le papier ton P4 peut prendre Win8.1 (avec 1Go de RAM ça risque de ramer un poil, je te l'accorde...)
Go to the top of the page
 
+Quote Post
Princo22
posté 19 May 2014, 17:03
Message #22


Macbidouilleur d'argent !
***

Groupe : Membres
Messages : 692
Inscrit : 13 Jul 2011
Membre no 168 785



Citation (iAPX @ 19 May 2014, 21:11) *
+1 Et c'est pourtant coté parallélisme qu'Intel essaie de faire progresser ses CPU x86 (SSE, AVX, AVX2 et bientot AVX3 512bits basé sur les Xeon Phi). Il y a peu de gain d'IPC (Instructions par Cycle) a tirer du code scalaire habituel, ceci explique d'ailleurs une belle stagnation des IPC, dans ce cas, depuis le Core™ 2, dont l'actuel Haswell n'est qu'une évolution, malgrès la multiplication de coeur, pour la plupart des usagers d'ordinateurs.

Fondamentalement, Intel et les autres qui suivent de loin, sont en train d'atteindre les limites du silicone, ayant frappé plusieurs murs les uns à la suite des autres: fini les augmentations de fréquences "gratuites" à chaque augmentation de finesse, fini la baisse "automatique" de la consommation à chaque augmentation de finesse, fini le gain en IPC facile en rajoutant de la complexité dans le modèle d'exécution (le gain n'est que très marginal!).

Il reste des gains à faire en traitement vectoriels (ie: parallèle), alors Intel investit dedans et certains logiciels Pro savent exploiter AVX ou AVX2 pour en tirer parti, beaucoup de logiciels sont multithreadé autant que faire ce puisse, mais à la fin, quand je tape un texte dans Pages ou que je consulte le web, tout cela est pas mal mono-threadé, donc peu de gains depuis quelques années!

N'exagérons rien, l'IPC brut doit, à la louche, être plus double de celui des premiers Core en monothread. Ca n'a rien de fantastique en 8 ans, mais c'est loin d'être ridicule, surtout pour une base reconnu par tous à l'époque comme disposant d'un IPC très élevé (même si face au P4, ce n'était pas très compliqué biggrin.gif ).

En revanche, il est clair que les gains "automatiques" gagnés grâce à la finesse de gravure sont derrière nous depuis un moment.
Go to the top of the page
 
+Quote Post
iAPX
posté 19 May 2014, 20:01
Message #23


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 15 383
Inscrit : 4 Jan 2006
Lieu : dtq
Membre no 52 877



Citation (Princo22 @ 19 May 2014, 12:03) *
N'exagérons rien, l'IPC brut doit, à la louche, être plus double de celui des premiers Core en monothread. Ca n'a rien de fantastique en 8 ans, mais c'est loin d'être ridicule, surtout pour une base reconnu par tous à l'époque comme disposant d'un IPC très élevé (même si face au P4, ce n'était pas très compliqué biggrin.gif ).

En revanche, il est clair que les gains "automatiques" gagnés grâce à la finesse de gravure sont derrière nous depuis un moment.

Pas très loin d'être ridicule, et comme les fréquences ont complètement stagné, et que les Core™ 2 atteignaient facilement déja les 4Ghz (micro-architecture "core" pour perdre ceux que le marketing Intel n'avait pas largué), au prix d'un TDP plus élevé (mais des transistors plus résistants aux températures élevées!), le gain en 8ans est très faible par pseudo-génération Core™ sorti derrière (on est à la sixième je crois, qui sait?!?).

En fait le gain en IPC est mesurable par des benchmarks, par exemple celui-là, 20% de performance gagné en augmentant de 10% la fréquence, soit juste 10% d'IPC en mono-thread entre un Core™ 2 de 2006 et on Core™ i5 Sandy-Bridge de 2013-2014 (l'architecture qui équipe le Mac Pro 2014!). 10% en 7-8ans seulement de gain à fréquence égale. C'est totalement marginal, et ça démontre qu'Intel est en face d'un mur.

le seul gain visible c'est sur la vitesse de la mémoire, Geekbench est très sensible à ça, contrairement aux vrais logiciels, aux nombre de coeurs, mais là aussi ça ne touche pas l'usage quotidien de la plupart des utilisateurs de base, mais des usages plus avancés et les pro évidemment, et aux instructions vectorielles AVX puis AVX2, là aussi qui ne touchent que certaines populations d'utilisateurs: pour les Pro ça avance2, pour les autres ça stagne totalement!

Pour finir, la plupart des "benchs", pour faire ressortir des "progrès", misent sur le multi-threadé à fond, la bande-passante mémoire (inutile sauf sur WinRAR! lol), et les instructions vectorielles AVX2, mais si on sort de ça pour utiliser des profils d'usages "basiques" on s'aperçoit que les performances sont incroyablement stables depuis la micro-architecture "core" des Core™ 2 de 2006!

Ceci dit outre mes nombreux Mac, j'en achète au moins un par an, j'ai un PC Core™ 2 Quad Q6600 qui tourne bien à 3.4Ghz (ventilo d'origine!), avec deux SSD et deux HD, une Radeon R9 280X, et qui est très réactif sur les logiciels de base, démontrant à quel point ça stagne chez Intel comparé à nos laptops Haswell, Sandy-Bridge et Ivy Bridge, ou mon iMac Core™ i5 de première génération!!!

Disclosure: je suis programmeur en assembleur depuis 1977, je code avec AVX2 actuellement pour le fun, et OpenCL. Je pense avoir une bonne vision de ce que ces technologies aménent, et surtout à qui elles bénéficient!

Ce message a été modifié par iAPX - 19 May 2014, 20:26.


--------------------
Utilisateur de Mac depuis 1985 et possesseur de Mac depuis 2005. Utilisateur d'un PC Lenovo au travail, sous Windows, qui renforce ma passion pour les Mac!
Go to the top of the page
 
+Quote Post
iLoveMac
posté 19 May 2014, 20:25
Message #24


Nouveau Membre


Groupe : Membres
Messages : 4
Inscrit : 18 Aug 2009
Membre no 140 799



Citation (iAPX @ 19 May 2014, 20:01) *
Citation (Princo22 @ 19 May 2014, 12:03) *
N'exagérons rien, l'IPC brut doit, à la louche, être plus double de celui des premiers Core en monothread. Ca n'a rien de fantastique en 8 ans, mais c'est loin d'être ridicule, surtout pour une base reconnu par tous à l'époque comme disposant d'un IPC très élevé (même si face au P4, ce n'était pas très compliqué biggrin.gif ).

En revanche, il est clair que les gains "automatiques" gagnés grâce à la finesse de gravure sont derrière nous depuis un moment.

Pas très loin d'être ridicule, et comme les fréquences ont complètement stagné, et que les Core™ 2 atteignaient facilement déja les 4Ghz (micro-architecture "core" pour perdre ceux que le marketing Intel n'avait pas largué), au prix d'un TDP plus élevé (mais des transistors plus résistants aux températures élevées!), le gain en 8ans est très faible par pseudo-génération Core™ sorti derrière (on est à la sixième je crois, qui sait?!?).

En fait le gain en IPC est mesurable par des benchmarks, par exemple celui-là, 20% de performance gagné en augmentant de 10% la fréquence, soit juste 10% d'IPC en mono-thread entre un Core™ 2 de 2006 et on Core™ i5 Sandy-Bridge de 2013-2014 (l'architecture qui équipe le Mac Pro 2014!). 10% en 7-8ans seulement de gain à fréquence égale. C'est totalement marginal, et ça démontre qu'Intel est en face d'un mur.

le seul gain visible c'est sur la vitesse de la mémoire, Geekbench est très sensible à ça, contrairement aux vrais logiciels, aux nombre de coeurs, mais là aussi ça ne touche pas l'usage quotidien de la plupart des utilisateurs de base, mais des usages plus avancés et les pro évidemment, et aux instructions vectorielles AVX puis AVX2, là aussi qui ne touchent que certaines populations d'utilisateurs: pour les Pro ça avance2, pour les autres ça stagne totalement!

Pour finir, la plupart des "benchs", pour faire ressortir des "progrès", misent sur le multi-threadé à fond, la bande-passante mémoire (inutile sauf sur WinRAR! lol), et les instructions vectorielles AVX2, mais si on sort de ça pour utiliser des profils d'usages "basiques" on s'aperçoit que les performances sont incroyablement stables depuis la micro-architecture "core" des Core™ 2 de 2006!


Euhh c'est pas des Xeons dans les Mac Pro ?
Go to the top of the page
 
+Quote Post
iAPX
posté 19 May 2014, 20:28
Message #25


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 15 383
Inscrit : 4 Jan 2006
Lieu : dtq
Membre no 52 877



Oui des Xeon™ qui ont une micro-architecture Ivy Bridge, celle évoquée dans mon test.

Xeon™ est l'appellation commerciale d'Intel pour des CPU "Pro" équipée d'ECC, et quelquefois d'autres joujoux en plus, mais en terme de micro-architecture, similaire à nos machines de bureaux ou ordinateurs portables. Il n'y a pas de magie dans le nom "Xeon", à part pour le portfeuille quand on compare les prix wink.gif

Ah oui les Xeon™ ont souvent un retard d'une micro-architecture, pour une raison évidente de fiabilisation et d'évaluation des contraintes sur le long-terme, qui leur permette d'assurer une meilleure durabilité, au prix de performance en retrait (beaucoup actuellement faute d'AVX 2).

Ce message a été modifié par iAPX - 19 May 2014, 20:32.


--------------------
Utilisateur de Mac depuis 1985 et possesseur de Mac depuis 2005. Utilisateur d'un PC Lenovo au travail, sous Windows, qui renforce ma passion pour les Mac!
Go to the top of the page
 
+Quote Post
r@net54
posté 19 May 2014, 22:36
Message #26


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 3 458
Inscrit : 23 Mar 2004
Lieu : Paris / Vancouver
Membre no 16 640



Citation (dandu @ 19 May 2014, 11:54) *
Pour le moment, le 4791 n'a pas été annoncé, le nouveau haut de gamme (hors 4790K, justement), c'est le 4790 classique, 3,6 GHz avec Turbo à 4 GHz.

Le 4790K, c'est particulier, ça vise une niche.


D'autant que ça passe pas sur une carte les mère specifique z97 donc exit les Z87… Intel a toujours eu l'art de produire une famille de puce de ce genre a chaque génération de core… La nouveauté, c'est qu'ils axent la com sur la fréquence.
Sinon pour rappel, un 4770k actuel avec un gros watercooling ça tourne a 5ghz et meme un core i5 Sandy bridge...
Donc en gros, ce qui va se passer c'est qu'Intel va vendre un proc déjà overcloacké, et dont la tolérance d'overcloacking sera probablement nulle (ou alors on met la machine dans de l'azote liquide wink.gif )


--------------------
Agnostique multipratiquant: Unixs, Linux, Mac OS X, iOS et un peu de Windows. Des Macs, des iDevices, des PC et des "ordinosaures"…
Citation
« Celui qui t’entretient des défauts d’autrui entretient les autres des tiens. »,
« Quand on suit une mauvaise route, plus on marche vite, plus on s'égare. »
Diderot
Go to the top of the page
 
+Quote Post
Kiriré
posté 19 May 2014, 22:51
Message #27


Macbidouilleur d'argent !
***

Groupe : Membres
Messages : 573
Inscrit : 9 Jul 2008
Membre no 117 523



Citation (X_Gebo @ 19 May 2014, 07:43) *
Citation (Lionel @ 18 May 2014, 23:58) *
En effet, multiplier le nombre de coeurs est certes efficace mais cela ne fonctionne que si tout l'environnement est capable d'utiliser ces coeurs disponibles alors qu'une fréquence plus élevée est accessible à toute la machine sans complications.

Voilà maintenant quelques années que nous avons des machines multi-processeurs / multi-cores : je suis perplexe de constater que peu d'applications les utilisent à plein.
Pas de nécessité de rapidité pour toutes les applications (je peux le comprendre) ? (Grosses) difficultés à programmer ? Ce sont de vraies questions que je me pose : si ceux-qui-savent pouvaient m'éclairer !

Oui enfin l'apport du multi-thread n'est pas seulement que les applications les exploites, mais que l'OS également arrivent à répartir la charges en fonctions des processus qui demande du temps machine ^^
Aujourd'hui tu n'as plus de ralentissement machine parce que un processus prend 100% du temps machine d'un thread. Ca c'est aussi le gros avantage (qu'on a peut-être tendance à oublier) c'est celui d'avoir réellement parallélisé les processus tournant sur la machine. Aujourd'hui avec un i5 on a 4 processus tournant en parallèle tout de même, l'UC fait 4 choses en même temps, c'est un gros plus tout de même. Alors que ces processus en question soient mono-thread ou non, c'est un autre débat, et je dirais que tout les calculs ne sont pas destinés à être parallélisé au risque de les rendre moins performants. Mais l'apport du multi-thread est indéniable, et on le voit très bien, aujourd'hui les processeurs vieillissent nettement mieux qu'à l'époque des Athlon XP ou Pentium 3-4 où en 1 ans d'existence le processeur était pas loin des 75-100% de charge dès qu'on lançait le moindre truc ou qu'on faisait la moindre chose rendant la machine poussive. Par exemple mon i7 à plus de 2 ans (pas loin de 3 ans)... et franchement je ne sens absolument pas ses limites et dans 4-5 ans ce sera pareil (s'il ne claque pas avant).

Ce message a été modifié par Kiriré - 20 May 2014, 16:45.


--------------------
Ma config' : Boitier Cooler Master HAF, i7 2600k avec chipset z68, 16 Go de RAM, MSI 680 GTX Lightning et un HDD de 1 To boosté par un SSD caching Crucial M4... Rien que ça :)
Mon portable : Petit Asus 13 pouces B33E, i5 2430M, 12 Go de RAM et un SSD Samsung 840 Pro de 256 Go sous Ubuntu avec une connectique de folie... ça rox du poney :D
Go to the top of the page
 
+Quote Post
SartMatt
posté 19 May 2014, 23:31
Message #28


Macbidouilleur d'Or !
*****

Groupe : Rédacteurs
Messages : 32 187
Inscrit : 15 Nov 2005
Membre no 49 996



Citation (r@net54 @ 19 May 2014, 23:36) *
D'autant que ça passe pas sur une carte les mère specifique z97 donc exit les Z87… Intel a toujours eu l'art de produire une famille de puce de ce genre a chaque génération de core… La nouveauté, c'est qu'ils axent la com sur la fréquence.
T'es quand même un grand rigolo quand tu t'y met...

Une fois tu gueule parce que le gain de performances d'une génération à l'autre (que tu minores au passage...) ne justifie pas le remplacement (ce qui est vrai, même sans minorer le gain, et l'à presque toujours été depuis des années...), une fois tu gueule parce qu'on peut pas upgrader parce qu'il y a un nouveau chipset.

Mais du coup puisque le gain ne justifie pas l'upgrade, en quoi est-ce un problème de ne pas pouvoir upgrader ? rolleyes.gif dry.gif

Citation (r@net54 @ 19 May 2014, 23:36) *
Donc en gros, ce qui va se passer c'est qu'Intel va vendre un proc déjà overcloacké
Par définition de l'overclocking, non.

Citation (r@net54 @ 19 May 2014, 23:36) *
et dont la tolérance d'overcloacking sera probablement nulle (ou alors on met la machine dans de l'azote liquide wink.gif )
La plupart des Haswell dépassent sans aucune difficulté les 4 GHz en air-cooling. Pourquoi celui là ne pourrait pas ?
Au contraire, vu qu'il va devoir tenir les 4 GHz de façon parfaitement stable, ce sont les meilleures puces qui seront sélectionnées, donc ce 4790K sera probablement capable de monter plus haut que la moyenne des Haswell refresh.

En plus, en overclocking les puces Intel récentes sont souvent limités par la performance de l'interface thermique entre le die et le heatspreader. Or, c'est justement un point d'amélioration de Devil's Canyon (en fait, le premier point mis en avant par Intel dans son slide de présentation) : "Improved thermal interface material".


--------------------

Go to the top of the page
 
+Quote Post
SartMatt
posté 30 May 2014, 00:19
Message #29


Macbidouilleur d'Or !
*****

Groupe : Rédacteurs
Messages : 32 187
Inscrit : 15 Nov 2005
Membre no 49 996



Et hop, en fait y a même pas besoin de changer de chipset : http://www.hardware.fr/news/13724/devil-s-...atible-z87.html

Intel n'aurait indiqué la compatibilité qu'avec le Z97 à cause du TDP un poil plus élevé qui passerait pas sur une carte mère Z87 taillée au plus juste, mais en pratique, elles doivent quasiment toutes avoir assez de marge pour accepter un TDP 5% plus élevé (le Z87, c'est des cartes mères haut de gamme, pas du low-cost...) et une simple mise à jour du firmware sera suffisante...


--------------------

Go to the top of the page
 
+Quote Post
Widil
posté 30 May 2014, 00:57
Message #30


Nouveau Membre


Groupe : Membres
Messages : 15
Inscrit : 29 May 2014
Membre no 190 705



r@net54 encore entrain de l'ouvrir pour ne rien dire.
Go to the top of the page
 
+Quote Post

Reply to this topicStart new topic
1 utilisateur(s) sur ce sujet (1 invité(s) et 0 utilisateur(s) anonyme(s))
0 membre(s) :

 



Nous sommes le : 25th April 2024 - 05:40