IPB

Bienvenue invité ( Connexion | Inscription )

2 Pages V  < 1 2  
Reply to this topicStart new topic
> Intel mise gros en dévoilant son Core M, Réactions à la publication du 08/09/2014
Options
iAPX
posté 8 Sep 2014, 17:29
Message #31


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 15 383
Inscrit : 4 Jan 2006
Lieu : dtq
Membre no 52 877



En fait si on remet les choses en perspectives, Intel a une petite part de marche des GPU (marche circonscrit aux PC donc tres petit en quantite face aux tablettes et smartphones), et dans cette petite part de marche, la plupart des achats se font "par defaut" puisque livre d'origine sans reel choix possible, comme sur la grande majorite des ordinateurs portables, ou des ordinateurs de bureau d'entree-de-gamme (la majorite des PC).

Si on y reflechi bien, les chiffres de vente ne veulent rien dire dans ce cas, il ne s'agit ni d'un choix du consommateur ni meme de l'OEM (comme Dell ou Apple), qui n'ont aucune autre possibilite au meme niveau de prix (evidemment, sauf a prendre une CPU AMD). Ce n'est pas un marche, mais une rente du a un quasi-monopole sur les CPU de PC, CPU qui se vendent de moins en moins.


--------------------
Utilisateur de Mac depuis 1985 et possesseur de Mac depuis 2005. Utilisateur d'un PC Lenovo au travail, sous Windows, qui renforce ma passion pour les Mac!
Go to the top of the page
 
+Quote Post
Princo22
posté 8 Sep 2014, 18:40
Message #32


Macbidouilleur d'argent !
***

Groupe : Membres
Messages : 692
Inscrit : 13 Jul 2011
Membre no 168 785



Citation (zhir @ 8 Sep 2014, 22:47) *
Reste la question clé: qui va les acheter? Comment expliquer à un client lambda que c'est génial de disposer d'un PC 14nm sans clavier déguisé en tablette, avec tous ses anti-virus, Servicepacks, Windoseupdate, et j'en passe? La jeunesse se passe des PCs.

Si tu parles d'ados de 14 ans, oui, je te donne en grande partie raison. La tranche 18/25 semble clairement faire la transition. Les limites des tablettes se dévoilent vite. Et ils ont beau essayer, jusqu'à maintenant, le confort et les fonctionnalités offertes par les PC restent loin au dessus.

D'un certain point de vue, on peut y voir une répétition de la guerre portable/fixe ou les portables, gagnant en puissance, en fonctionnalités et en confort on presque évincé les fixes. Il n'est pas impossible que le scénario se répète, mais ce n'est pas gagné. Le marché est bien trop jeune pour pouvoir discerner clairement qui remplacera qui dans telle ou telle couche sociale.

Et j'entends autant de mal de iOS, ses verrous, ses achats forcés, son manque d'applis (sic!) que de Android et son anti-virus obligatoire (re-sic!), sa complexité et sa pub omni-présente que de Windows, ses bugs sa lenteur.

Citation (SartMatt @ 8 Sep 2014, 17:05) *
Yep, mais attention, comme tu le dis la fréquence turbo n'est qu'indicative.
Vu que la consommation est plafonnée par le TDP, il se peut que sur les nouvelles puces à TDP plus faible, la fréquence turbo soit atteinte moins souvent, parce qu'avec certains types d'utilisation il ne pourra pas atteindre cette fréquence sans dépasser son TDP.
[...]
Pour ces Core M, on aura par exemple sans doute des tablettes utilisant la puce avec un TDP strict, voir inférieur à celui spécifié, tandis que certains ultrabooks auront un refroidissement actif qui permettra d'autoriser la puce à monter à un TDP plus élevé, éventuellement modulé en fonction de la source d'alimentation.

D'ailleurs, ça semble être clairement l'idée du Core M-5Y10 avec son TDP configurable.
De mon point de vue, ce type de puce doit être pris pour ce qu'il est: une puce pas un produit complet. Selon les conditions de son implémentation, ça peut être le jour et la nuit. Mais on commence à avoir l'habitude, même les GPU haut de gamme s'y mettent confused5.gif

Citation (Ambroise @ 8 Sep 2014, 18:15) *
Dans son contexte la comparaison n'était pas si boîteuse. Intel voulait montrer le gain en efficacité énergétique entre Haswell et Broadwell : ils ont donc fixé le même TDP pour les deux et montré l'impressionnant gain en performance de Broadwell dans ces conditions. Cette approche a tout son sens quand le processeur est présenté pour un usage particulier, à savoir les tablettes fanless qui ne peuvent pas dissiper plus de 4,5W : avant Broadwell un constructeur aurait pu faire une telle tablette avec un Core i5, mais elle aurait fonctionné à une fréquence dégradée en permanence.

Ce n'est pas l'idée que je trouve boiteuse, mais la comparaison en elle même dans ce cas précis et surtout l'absence de détails. Un 4302Y @4,5W, ça n'existe pas. A partir de là, on peut tout supposer:
- un 4302Y avec sa conso limitée à 4,5W ? Illogique. Rien n'interdit à la conso de dépasser le TDP dans certains cas. Et c'est pourtant ce qui est le plus probable.
- un 4302Y normal ? Avec une grosse confusion SDP/TDP ? Ce ne serait pas à leur avantage.
- un 4302Y castré pour simuler un TDP de 4,5W ? C'est ce qui paraît le plus logique mais on peut le faire de beaucoup de manières différentes avec de grosses différences sur les perfs.

Intel étant coutumier des confusions de ce genre, on ne peut rien tirer de fiable de ce type de comparaisons à mes yeux, sans même parler du fait que le 4302, n'étant pas prévu pour fonctionner dans une telle enveloppe thermique,doit avoir dans tous les cas une efficacité énergétique (nettement) inférieure à celle qu'il a en temps normal.

Citation (Lionel @ 8 Sep 2014, 18:11) *
Je vais donner mon avis personnel, pas assez mûr pour apparaître dans une brève.
A une échéance pas trop lointaine Intel va faire son retour significatif dans les tablettes et ultra mobiles. Il sera pour ça aidé par MS qui abandonne Windows RT pour tablettes.
D'ici 3 ans, les tablettes X86 seront une réalité puissante du marché face aux produits ARM. Intel aura encore progressé et le fait que Windows soit en version pratiquement normale dessus sera un très puissant moteur.
Pourquoi devoir réinventer la roue logicielle quand il y a une telle logithèque disponible ? Certes, Windows va devoir évoluer pour devenir enfin très confortable sur tablettes mais ils sont sur le bon chemin.
En résumé, c'est encore le couple Wintel qui va sortir de l'ornière les deux sociétés.

A vrai dire, je ne pas certain que le destins des deux sociétés soit aussi lié, du moins, pas dans les deux sens.
Pour Intel, à moins d'une grosse surprise, je pense aussi qu'il vont s'imposer progressivement dans la mobilité. En regardant ces dernières années, on voit bien maintenant ce que certains craignaient/espéraient il y a quelques années: le rouleau compresseur Intel est en marche. Années après années, la conso de leurs puces descend, laissant de moins en moins de place à la concurrence.
Il y a encore 5 ans, ils étaient intouchable au dessus de 30W. Il y a 3 ans, ils l'étaient au dessus de 20W. L'année dernière, ils ont réduit la concurrence à moins de 12W et tout laisse à penser que personne ne pourra les ennuyer au dessus de 8/10W dès cette année. A cette vitesse, je ne donne pas cher de ARM s'ils continuent de ne rien faire d'autre qu'attendre que leurs partenaires fassent le boulot à leur place.
En fait, je ne voit qu'une seule chose qui pourrait stopper Intel: que quelqu'un réussisse à refaire ce que AMD a presque fait pendant une dizaine d'année, taper violemment là ou ça fait mal: le milieu de gamme. Mais les acteurs potentiellement capables de faire ça se compte sur les doigts de la main d'un vétéran qui a perdu 2 doigts, bientôt 3... On ne désespère pas qu'ils repoussent, mais personne n'y croit trop confused5.gif

Pour M$, la partie est différente. Evidemment, Windows sur une tablette dispose de gros avantages face à Android et iOS. Mais quelle est la proportion de la clientèle souhaitant tirer partie de la logithèque windows sur tablette ? Probablement pas beaucoup.
M'est d'avis qu'un Windows phone ou un "vrai" Windows ne change pas le principal problème de Microsoft: si ma tablette bascule demain en Windows, c'est parce qu'elle m'offrira plus que la concurrence. En gros, une vraie synergie, pratique et efficace avec ma machine principale. Et je ne parle pas de commencer une vidéo Youtube sur mon fauteuil pour la terminer aux toilettes. Je parle de pouvoir me connecter en deux clics à mon fixe pour récupérer un fichier oublié quand je suis dans le train sans que Microsoft le lise en chemin, je parle de dire à mon fixe de s'éteindre car je ne rentre pas ce soir et qu'il le fasse au lieu de demander l'autorisation à un utilisateur qui justement n'est pas là, je parle d'accéder à la boucle réseau locale de mon fixe via un autre appareil pour bosser sans passer 3h à configurer un routage fictif, je parle de lancer mon navigateur pour effacer mon historique pornographique en 15 secondes pendant que ma femme me demande mon mdp par téléphone pour aller voir une recette de cuisine...
Bref, je parle de pouvoir faire tout ce qu'on voudrait et devrait pouvoir faire depuis 10 ans sur Windows sans attendre que Apple le fasse et que Microsoft copie en moins bien.

Le jour ou ils auront ça, que ce soit du x86, de l'ARM ou du PPC en dessous importe peu. Et tant qu'ils ne l'auront pas, ils se contenteront probablement des miettes laissées par Android et iOS sur le marché mobile et vivront de leur 75% de parts de marché du PC, totalement impuissant devant une chute ou une reprise dudit marché.

Mais sur le marché PC, tout pourrait basculer probablement plus rapidement qu'on ne le pense:
La steambox sort et marche. Les éditeurs de jeux suivent massivement, et en une paire d'année, le cœur de jeux sur PC peut basculer sur Linux, d'autant que la moitié des activités annexes se font désormais sur la tablette à coté du PC, Microsoft ayant toujours tous fait pour qu'on ne puissent pas utiliser convenablement un deuxième écran.
Dans le même temps, Apple fait avancer OSX dans le bon sens et continue de progresser.
Les grand éditeurs, disposant de pilotes aboutis sur Linux (et soyons fous, sur OSX aussi) risqueraient fort de (re)developper en cross-plateformes en abandonnant Dx au passage.
Et là, je ne donne pas cher de Windows. Plus de Windows, plus d'Office. Plus d'Office, plus de Microsoft.
C'est un scénario noir pour M$, mais si ça arrivait, en 4 ou 6 ans, ils passent sous les 30% de Pdm.

PS: oui, j'aime faire rêver les MacUsers biggrin.gif
PS: oui, ça restera probablement un rêve laugh.gif
Go to the top of the page
 
+Quote Post
SartMatt
posté 8 Sep 2014, 19:02
Message #33


Macbidouilleur d'Or !
*****

Groupe : Rédacteurs
Messages : 32 187
Inscrit : 15 Nov 2005
Membre no 49 996



Citation (Princo22 @ 8 Sep 2014, 19:40) *
Et là, je ne donne pas cher de Windows. Plus de Windows, plus d'Office. Plus d'Office, plus de Microsoft.
Assez d'accord avec ton post, sauf sur ce point.

Autant, il y a des alternatives crédibles à Windows comme OS (OS X en tête, mais aussi certaines distributions Linux), autant pour Office, c'est beaucoup plus discutable. Pour avoir vécu des migrations Office -> Open Office en entreprise, on y perd énormément, tant en ergonomie qu'en fonctionnalités.

Si Windows venait à se casser la gueule, ça ne menacerait probablement pas Office. Il est disponible sur Mac, sur iOS, sur Android (smartphones pour l'instant, tablettes bientôt)... Donc si Windows n'est pas sauvable, je pense que Microsoft n'hésitera pas bien longtemps à porter Office vers Linux et à rendre plus complètes les versions iOS et Android (qui sont actuellement plus limitées que la version Mac/Windows il me semble) : Office est une formidable machine à cash pour Microsoft, ce qui justifie largement de faire passer sa survie avant celle de Windows.


--------------------

Go to the top of the page
 
+Quote Post
DDT
posté 8 Sep 2014, 19:19
Message #34


Macbidouilleur de bronze !
**

Groupe : Membres
Messages : 285
Inscrit : 17 Aug 2005
Membre no 44 050



Citation (zhir @ 8 Sep 2014, 18:06) *
Bien des années plus tard, même les premiers "Atom Z" pour téléphones comprenaient un chipset graphique de chez PowerVR et non pas de chez Intel. Surprenant pour une société avec 2/3 du marché des GPU.

Sans même parler des performances des premiers Intel HD, c'était quand même un gros changement d'architecture pour Intel (avec le PCH), c'est logique qu'ils aient pas tout fait d'un coup, surtout que l'Atom était pas encore une priorité.
Intel avait déjà beaucoup utilisé les GPUs PowerVR auparavant, et c'est peut-être aussi une histoire de drivers et de présence dans le milieu mobile.
Go to the top of the page
 
+Quote Post
r@net54
posté 8 Sep 2014, 23:27
Message #35


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 3 458
Inscrit : 23 Mar 2004
Lieu : Paris / Vancouver
Membre no 16 640



Citation (Ambroise @ 8 Sep 2014, 14:39) *
Citation (Lionel @ 8 Sep 2014, 11:11) *
Pourquoi devoir réinventer la roue logicielle quand il y a une telle logithèque disponible ?
En résumé, c'est encore le couple Wintel qui va sortir de l'ornière les deux sociétés.


Je n'arrive pas à voir Intel comme une société dans l'ornière. Ils ne me donnent pas l'impression de travailler avec une technologie désuète qu'ils n'arriveraient plus à faire évoluer. Au contraire ils montrent constamment, et notamment sur les 10 ou 15 dernières années, qu'ils sont prêts à tenter de nouvelles architectures, qu'ils investissent (avec plus ou moins de bonheur) tous les marchés et qu'ils continuent à repousser des limites.

C'est Microsoft qui est dans l'ornière.
Avec ou sans Windows, Intel va continuer à être incontournable. On aura bientôt un macbook air encore plus fin et sans ventilo (Mac OS X apparaît d'ailleurs parmi les systèmes testés et compatibles dans le manuel Intel Core-M), les Mac Pro Broadwell sortiront l'année prochaine avec 12 coeurs simplement parce que sur ces deux produits il n'y a pas d'alternatives crédibles.


Microsoft dans l'orniere? Au niveau du GP et sur le mobile oui, mais sur son marche historique, le corporate, Microsoft ne s'est jamais aussi bien porte. La societe s'est certes plantee totalement sur tout le secteur mobile, Windows 8, dans toutes ses versions, est une honte qui approche le record d'impopularite détenu par Vista, la XBox est un gouffre financier,... mais la societe engrange des benefices monstrueux qui permetttent meme d'absorber le gouffre financie Nokia depuis 2010: tu connais une autre societe capable d'encaisser autant de ratages et de sortir des benefices en augmentation chaque annees?

Avec Nadella a la tete de MS l'orientation sur le secteur pro, malgre l'enfumage de com, se dessine de plus en plus.

Intel va bien aussi. Certes le secteur mobile leur échappe totalement et définitivement, mais peu importe, le marche du PC assure une rente meme si la croissance y est terminee, et le secteur du data center assure la croissance de la societe pour au moins pour 3 -4 ans. Au pire, si une autre architecture arrive sur PC, ARM ou autre, le basculement prendra 5 ans pour etre effectif au moins au niveau pro et institutionnel, et pendant ce temps ce sont des centaines de millions de PC Wintel qui vont devoir etre "maintenus"...

Ce qui va mal c'est le x86, desuet, qui coute de plus en plus cher a essayer de faire surnager, et dont la marge de progression est loin derriere...
Mais Intel n'est pas stupide (depuis qu'Otelini a ete debarque) et le x86 est de toute facon condamne a moyen terme. La question est de savoir si Intel peut arriver a faire survivre le x86 a court terme et a quel prix. On voit que malgre une stagnation manifeste et une augmentation des prix (deja eleves) Intel arrive a ecouler ses stock de Core Ix a chaque generation (artificielle). Si Intel arrive a conserver la meme puissance en reduisant la consommation, tant mieux, et on pourrait dire "enfin".
Ce qui est certain, c'est que plus le temps passe plus le besoin d'augmentation de la puissance est pressant. Et si l'on constate que le x86 est une architecture du passe et sans avenir, c'est en fait toute l'electronique basée sur le sicilium qui est dans l'impasse. ARM a une marge de progression plus importante que celle d'Intel avec le x86, mais ce n'est pas parce que le mur est un peu plus loin que la situation est vraiment differente: au plus ARM a une esperance de croissance pendant un peu plus de 5 ans... Pareil pour l'architecture POWER. IBM s'allie a NVidia parce que l'architecture POWER seule n'arrive pas a faire son retard sur le GPGPU et que l'alliance des deux va parmettre des developpements et des optimisations impossibles a realiser indépendamment. Mais la realite c'est que tout CPU que l'on considere aujourd'hui demontre qu'entre un court et un moyen terme, c'est l'impasse...

Demain Intel va produire des SoC ARM? Probable et logique. Le marche mobile est acquis a ARM: plus efficace et moins cher que les vieux x86 et en plus l'architecture ARM ne depend pas d'un concepteur/fondeur monopolistique... Aujourd'hui les soft sont fait pour de l'ARM, mais il faut aussi prendre en consideration, qu'en fait au niveau applicatif on ne prend plus ne compte l'architecture processeur: Android c'est du Java, Apple c'est Swift: deux environnements qui isolent le code du niveau materiel et cela de maniere hermetique!

Et ca c'est une difference majeure dans l'histoire de l'informatique industrielle. Et cela change considerablement la donne.
Apple etait un intrepide pionnier ou un inconstant irresponsable (ca depend si on est admirateur ou detracteur d'Apple) de changer aussi souvent d'architecture (4 fois... alors qu'Unix tourne sur tout) en se démenant pour realiser des emulateurs les plus efficaces et transparents possibles pour soutenir les utilisateurs et developpeurs dans la transition... le maitre mot etait la compatibilite ascendante (pilier du monopole Wintel)... Aujourd'hui l'architecture ne compte plus, mais plus important encore le cout du logiciel n'a plus rien a voir: aujourd'hui on trouve ce que l'on veut a moins de $10, il y a dix ans on ne trouvait pas grand chose a moins de $500 et dans le secteur pro c'est encore plus marquant. Qu'elle importance de devoir racheter 50 soft a $100 pieces alors que quelques annees en arriere un soft valait 5000$... la compatibilite ascendante n'a plus la meme signification ni importance de fait!

Dans 5 ans au plus on aura plus de processeurs, de GPU, de CM,... on aura un SoC (et il faudra un tres puissant microscope pour voir les composants) encapsule dans une dalle de verre (ou plutot polymere), fondu dans la branche d'une paire de lunette.
La revolution montree par l'iPhone puis par l'iPad c'est que l'ordinateur disparait derriere la fonction et l'interface. La notion de materiel devient transparente, intangible. Un iPhone c'est un ecran que l'on manipule, le PC et toute son electronique a disparu.
Un ultrabook comme le MacBook Air c'est un ecran et un clavier... Ces appareils sont si fins que l'on n'en percoit plus que 2 dimensions. La 3eme, celle du technicien, du bidouilleur, elle a disparu.
Aujourd'hui que l'on soit ecrivain ou ingenieur en electronique, face a ces appareils on est au meme point. La connaissance de l'électronicien n'a plus d'importance, plus de signification: il utilise ces machines comme l'ecrivain, ni plus ni moins... Et ces machines a 2 dimensions font aujourd'hui tellement plus que les PC volumineux d'il y a 10 ans... C'est en cela que l'iPhone etait un precurseur.



Ce message a été modifié par r@net54 - 8 Sep 2014, 23:44.


--------------------
Agnostique multipratiquant: Unixs, Linux, Mac OS X, iOS et un peu de Windows. Des Macs, des iDevices, des PC et des "ordinosaures"…
Citation
« Celui qui t’entretient des défauts d’autrui entretient les autres des tiens. »,
« Quand on suit une mauvaise route, plus on marche vite, plus on s'égare. »
Diderot
Go to the top of the page
 
+Quote Post
Princo22
posté 9 Sep 2014, 02:31
Message #36


Macbidouilleur d'argent !
***

Groupe : Membres
Messages : 692
Inscrit : 13 Jul 2011
Membre no 168 785



Citation (SartMatt @ 9 Sep 2014, 03:02) *
Citation (Princo22 @ 8 Sep 2014, 19:40) *
Et là, je ne donne pas cher de Windows. Plus de Windows, plus d'Office. Plus d'Office, plus de Microsoft.
Assez d'accord avec ton post, sauf sur ce point.

Autant, il y a des alternatives crédibles à Windows comme OS (OS X en tête, mais aussi certaines distributions Linux), autant pour Office, c'est beaucoup plus discutable. Pour avoir vécu des migrations Office -> Open Office en entreprise, on y perd énormément, tant en ergonomie qu'en fonctionnalités.

Si Windows venait à se casser la gueule, ça ne menacerait probablement pas Office. Il est disponible sur Mac, sur iOS, sur Android (smartphones pour l'instant, tablettes bientôt)... Donc si Windows n'est pas sauvable, je pense que Microsoft n'hésitera pas bien longtemps à porter Office vers Linux et à rendre plus complètes les versions iOS et Android (qui sont actuellement plus limitées que la version Mac/Windows il me semble) : Office est une formidable machine à cash pour Microsoft, ce qui justifie largement de faire passer sa survie avant celle de Windows.

Dans la domination des suites bureautiques, tu as certainement raison. Office domine de la tête et des épaules les autres suites bureautique en chiffres de vente et en qualité.
La ou je m'interroge, c'est la quantité de postes aujourd'hui équipés de Office "par défaut" parce qu'il était en pack avec windows (licence entreprise ou pas), qui, s'ils ne sont plus sous Windows demain, risquent de voir la suite bureautique sauter en même temps car le poste n'est pas in fine fait pour faire de la bureautique pure.
J'ai bossé sur un centre technique, sur 1200 postes (de mémoire...), il devait y en avoir une dizaine, peut-être quinze de "vraie" bureautique. Mais les 1200 avaient Office et au renouvellement de licence, on reprenait à chaque fois Office pour toutes les machines... Je me doute que cette proportion ne doit pas être commune, mais tout de même.

Je ne sais pas si Microsoft détaille les ventes d'office par plate-forme et par type de licence. J'en doute, mais ça pourrait permettre d'y voir plus clair.
Go to the top of the page
 
+Quote Post
Ambroise
posté 9 Sep 2014, 09:42
Message #37


Macbidouilleur de bronze !
**

Groupe : Membres
Messages : 494
Inscrit : 18 Sep 2007
Membre no 95 094



Citation (r@net54 @ 9 Sep 2014, 00:27) *
Ce qui va mal c'est le x86, desuet, qui coute de plus en plus cher a essayer de faire surnager, et dont la marge de progression est loin derriere...
Mais Intel n'est pas stupide (depuis qu'Otelini a ete debarque) et le x86 est de toute facon condamne a moyen terme. La question est de savoir si Intel peut arriver a faire survivre le x86 a court terme et a quel prix. On voit que malgre une stagnation manifeste et une augmentation des prix (deja eleves) Intel arrive a ecouler ses stock de Core Ix a chaque generation (artificielle). Si Intel arrive a conserver la meme puissance en reduisant la consommation, tant mieux, et on pourrait dire "enfin".


Le reste de votre analyse est intéressant mais vos affirmations sur la stagnation d'Intel et du x86 invalident tout.
Une façon simple d'évaluer si Intel arrive encore à faire gagner quelques pourcents de puissance à ses processeurs est de comparer les benchmarks qui ne mesurent que les capacités de calcul. Le bench SpecFP2006 fournit une source cohérente et constante sur les 7 dernières années; en plus il est reconnu par l'ensemble de l'industrie (même ARM fait parti des membres du SPEC consortium).

J'ai relevé pour chaque année le meilleur score SpecFP2006 rate obtenu par un monoprocesseur Intel.
2006 : Fujitsu TX150 (Pentium D 940) : 18
2007 : Asus P5E3 (Core 2 QX9650) : 52
2008 : Asus P6T (Core i7-965) : 86,1
2009 : Fujitsu RX300 (Xeon W5590) : 108
2010 : HP Proliant BL620c (Xeon X7650) : 141
2011 : Intel DX79SI (Core i7-3960X) : 200
2012 : Huawei RH2288 (Xeon E5-2690) : 257
2013 : Nec Express5800(Xeon E5-2697 v2) : 345

Donc voilà, en 7 ans Intel a réussi à multiplier par 20 la puissance de son processeur le plus rapide.

Cela fait 25 ans que l'on prévoit la fin du x86 parce que le CISC ne permettrait plus d'évoluer, que les trucs pour contourner ses faiblesses coûteraient une fortune en énergie et en silicium, etc .. Et pourtant pendant ce temps la puissance de calcul des x86 a doublé tous les 18 mois. Je pense même qu'historiquement Intel n'a jamais été aussi dynamique. Non contents d'être parmi les meilleurs sur les hautes puissances de calcul (avec les Sparc de Fujitsu et les Power d'IBM), ils sont également ceux qui font le plus de percées sur l'efficacité énergétique.


Go to the top of the page
 
+Quote Post
SartMatt
posté 9 Sep 2014, 10:33
Message #38


Macbidouilleur d'Or !
*****

Groupe : Rédacteurs
Messages : 32 187
Inscrit : 15 Nov 2005
Membre no 49 996



Citation (Ambroise @ 9 Sep 2014, 10:42) *
Citation (r@net54 @ 9 Sep 2014, 00:27) *
Ce qui va mal c'est le x86, desuet, qui coute de plus en plus cher a essayer de faire surnager, et dont la marge de progression est loin derriere...
Mais Intel n'est pas stupide (depuis qu'Otelini a ete debarque) et le x86 est de toute facon condamne a moyen terme. La question est de savoir si Intel peut arriver a faire survivre le x86 a court terme et a quel prix. On voit que malgre une stagnation manifeste et une augmentation des prix (deja eleves) Intel arrive a ecouler ses stock de Core Ix a chaque generation (artificielle). Si Intel arrive a conserver la meme puissance en reduisant la consommation, tant mieux, et on pourrait dire "enfin".
Le reste de votre analyse est intéressant mais vos affirmations sur la stagnation d'Intel et du x86 invalident tout.
Et j'ajouterais que outre le n'importe quoi sur la stagnation des performances, il dit aussi n'importe quoi sur l'augmentation des prix... Mais c'est pas comme si je le lui avait déjà signalé à maintes reprises...

Il n'y a pas si longtemps que ça, le haut de gamme grand public (hors gammes extrêmes) chez Intel, ça dépassait les 500€. Aujourd'hui, c'est autour de 300€.

Et bien souvent, les nouveaux processeurs sortent exactement au même prix que celui qu'ils remplacent (ce qui en réalité correspond donc à une baisse de prix, si on tient compte de l'inflation et du gain de performances...).

Lors du lancement des C2D en juillet 2006, le haut de gamme (E6700) était à 530$.
Lors du lancement des C2Q en janvier 2007, le haut de gamme (Q6600) était 530$ (suivi 3 mois plus tard par un Q6700 à 851$).
Lors du lancement des i7 Nehalem en novembre 2008, le haut de gamme (i7-940) était à 562$ (ses deux successeurs en Nehalem, le 950 puis le 960 on été lancés à 562$ également).
Lors du lancement des i7 Lynfield en septembre 2009, le haut de gamme (i7-870) était à 562$ (encore !). Son successeur en Lynfield (i7-880, mai 2010) était à 583$.
Lors du lancement des i7 Sandy Bridge en janvier 2011, le haut de gamme (i7-2600K) était à 317$. Son successeur en SNB, le i7-2700K est sorti à 332$.
Lors du lancement des i7 Ivy Bridge en avril 2012, le haut de gamme (i7-3770K) était à 313$.
Lors du lancement des i7 Haswell en juin 2013, le haut de gamme (i7-4770K) était à 339$. Son successeur en Haswell est le i7-4790K, lui aussi à 339$.

Bref, on le voit bien, parfois ça augmente un peu, parfois ça baisse un peu, voir beaucoup (-45% sur le haut de gamme en passant de Lynfield à SNB)... Et globalement, les prix d'aujourd'hui sont largement inférieur à ceux pratiqués il y a huit ans lorsque le C2D est sorti...

Et on peut faire le même constant en regardant d'autres processeurs dans la gamme Intel. Par exemple le i3-4160, qui est le moins cher des Haswell est à 117$ (soit 5$ de moins que le i3-4130 sorti 9 mois plus tôt et 5% plus lent...), alors que le moins cher des Core 2 Duo en 2007 après la sortie des Core 2 Quad (E4300) était à 163$.

Et les Pentium, c'était 74$ pour un E2140 (Core 2) en juin 2007, 64$ aujourd'hui pour un G3220 (Haswell).

Et en Celeron, on est passé de 39$ pour un 420 (Core 2) en 2007 à 42$ pour un G1820 (Haswell) aujourd'hui. Mais la castration est moins violente aujourd'hui (2 cœurs contre 4 sur le haut de gamme) qu'en 2007 (1 cœur contre 4).

C'est fou ce que les prix ont augmenté quoi rolleyes.gif

Surtout que dans le même temps, le prix des cartes mères a baissé, parce qu'il y a plus de choses intégrées dans le CPU.

Tiens, l'autre jour j'ai commandé une carte mère, un CPU et 4 Go de RAM pour dépanner le PC d'un client. Moins de 88€ TTC pour le tout (prix accessible à tous, je fais trop peu de volume pour passer par des grossistes), en Intel Haswell. Il y a 8 ans, c'était clairement pas envisageable d'avoir ça pour ce prix.


--------------------

Go to the top of the page
 
+Quote Post
Skwaloo
posté 11 Sep 2014, 11:14
Message #39


Macbidouilleur de bronze !
**

Groupe : Membres
Messages : 497
Inscrit : 16 Oct 2005
Membre no 48 046



Citation (Lionel @ 8 Sep 2014, 11:11) *
Je vais donner mon avis personnel, pas assez mûr pour apparaître dans une brève.
A une échéance pas trop lointaine Intel va faire son retour significatif dans les tablettes et ultra mobiles. Il sera pour ça aidé par MS qui abandonne Windows RT pour tablettes.
D'ici 3 ans, les tablettes X86 seront une réalité puissante du marché face aux produits ARM. Intel aura encore progressé et le fait que Windows soit en version pratiquement normale dessus sera un très puissant moteur.
Pourquoi devoir réinventer la roue logicielle quand il y a une telle logithèque disponible ? Certes, Windows va devoir évoluer pour devenir enfin très confortable sur tablettes mais ils sont sur le bon chemin.
En résumé, c'est encore le couple Wintel qui va sortir de l'ornière les deux sociétés.
Vos opinions m'intéresse sur la question.

Il y a + de 50 milliars d'ARM vendu, dont 10,4 milliards seulement pour l'année dernière. Donc très grosse accélération des ventes d'ARM, au contraire des x86.
On déporte, globalement, de + en + nos utilisations sur mobiles. Pour plein d'utilisations on ne trouve pas mieux sur x86. Des stats donnent - de 65% d'utilisation des ordis par rapport aux mobiles, et même moins de 50% en Chine. Ce qui veut dire que les logithèques et performances sur ARM ne sont pas des problèmes, et du x86 super performant ne consommant et ne coûtant rien n'apporterait pas de grande révolution pour écouter Spotify, ces mails, surfer...(la majeur partie des utilisations n'est Photoshop ou FC)
Ces Core M, super performants ? Pour baisser la conso, les fréquences sont très diminuées. Il reste encore de bonnes performances face à des SoC qui ont des fréquences 2 à 3 fois + rapides ?
Ces Core M tous seuls ont été annoncés à 280$, ce qui ne concurrence pas les ARM.
Il existe de la tablette complète à 200€ qui à 4 coeurs ARM A17, je suis curieux de voir ces Core M face à ça...
Si Intel sort en 1er ces SoC mobile c'est bien parce que ça devient le marché le + important. Hors des cas où le x86 est, pour l'instant, nécessaire pour les hautes performances (ce qui ne représente pas une grosse partie des ventes) et la compatibilité logiciel alors Intel ne pas lutter contre les ARM sans perdre de l'argent.


--------------------
Go to the top of the page
 
+Quote Post
Ambroise
posté 11 Sep 2014, 12:07
Message #40


Macbidouilleur de bronze !
**

Groupe : Membres
Messages : 494
Inscrit : 18 Sep 2007
Membre no 95 094



Citation (Skwaloo @ 11 Sep 2014, 12:14) *
Ces Core M tous seuls ont été annoncés à 280$, ce qui ne concurrence pas les ARM.
Il existe de la tablette complète à 200€ qui à 4 coeurs ARM A17, je suis curieux de voir ces Core M face à ça...


C'est clair, le Core M n'est pas dans la catégorie des ARM.
Pour faire face à un ARM 4-coeurs bon marché, Intel a par exemple l'Atom Z3735G : un 4-coeurs 64-bits à 17$. Il trouve sa place dans des tablettes à 100 euros comme la Toshiba Encore Mini.
Go to the top of the page
 
+Quote Post
SartMatt
posté 11 Sep 2014, 13:12
Message #41


Macbidouilleur d'Or !
*****

Groupe : Rédacteurs
Messages : 32 187
Inscrit : 15 Nov 2005
Membre no 49 996



Citation (Skwaloo @ 11 Sep 2014, 12:14) *
Il y a + de 50 milliars d'ARM vendu, dont 10,4 milliards seulement pour l'année dernière. Donc très grosse accélération des ventes d'ARM, au contraire des x86.
C'est débile de comparer les chiffres comme ça, sachant que les 3/4, si ce n'est plus, des puces ARM vendues, c'est juste des puces faisant office de micro-contrôleur.

C'est un peu comme comparer les chiffres de ventes de Majorette et de Renault ^^


--------------------

Go to the top of the page
 
+Quote Post
Skwaloo
posté 11 Sep 2014, 16:26
Message #42


Macbidouilleur de bronze !
**

Groupe : Membres
Messages : 497
Inscrit : 16 Oct 2005
Membre no 48 046



En parlant de débile tu devrais savoir de quoi tu parles vu comme tu fais ton soldat d'Intel. Je me délecte encore de ta démonstration complètement abrutie qui consistait à prouver que les SoC ARM n'allait pas prendre d'ampleur parce qu'ils ne pourraient pas décoder de futurs formats vidéo laugh.gif Pour ça tu as eu la niaiserie de faire comme si sur ARM il n'y avait pas de NÉON qui est l'équivalent d'AVX. Des années après c'est toi qui avait raison ? Eh NON, tu t'es ridiculement trompé comme à chaque fois que tu essaye d'enfoncer les ARM.

Compte sur tes doigts pour savoir que ça fait + 5 ans qu'il y a des ARM en vente, donc les ventes grossissent énormément + que celles de ton super héros. Toi pas vouloir comprendre qu'on ne s'oblige pas à ne parler que des puces desktop/laptop ? Tu ne te lasses jamais de tes enfantillages ?



--------------------
Go to the top of the page
 
+Quote Post
SartMatt
posté 11 Sep 2014, 18:14
Message #43


Macbidouilleur d'Or !
*****

Groupe : Rédacteurs
Messages : 32 187
Inscrit : 15 Nov 2005
Membre no 49 996



Citation (Skwaloo @ 11 Sep 2014, 17:26) *
En parlant de débile tu devrais savoir de quoi tu parles vu comme tu fais ton soldat d'Intel. Je me délecte encore de ta démonstration complètement abrutie qui consistait à prouver que les SoC ARM n'allait pas prendre d'ampleur parce qu'ils ne pourraient pas décoder de futurs formats vidéo laugh.gif Pour ça tu as eu la niaiserie de faire comme si sur ARM il n'y avait pas de NÉON qui est l'équivalent d'AVX. Des années après c'est toi qui avait raison ? Eh NON, tu t'es ridiculement trompé comme à chaque fois que tu essaye d'enfoncer les ARM.
Je n'ai jamais dit qu'ils n'allaient pas prendre de l'ampleur à cause de ça...
J'avais dit à l'époque qu'avoir une puce qui a de la marge de puissance, ça a l'avantage de mieux pouvoir évoluer... Et que du coup, les appareils qui reposent sur un CPU peu performant associé à des aides matérielles spécialisées (par exemple un circuit dédié au H.264 comme dans tous les SoC ARM) serait obsolète bien plus vite...

Et le fait est que le présent me donne bel et bien raison : les appareils ARM de l'époque sont aujourd'hui bien incapables de lire une vidéo H.265, alors qu'une processeur x86 performant de la même époque peut le faire. Et c'est pas spécifique à la vidéo d'ailleurs : une tablette Tegra 2 de 2010 rame à mort sous Android 4.4 (2013), un A4 de 2010 rame sous iOS 7 (2013)... Un PC de 2010 tourne comme une horloge sous Windows 8.1 ou OS X 10.9...

Donc oui, pour des usages de base l'ARM de l'époque était suffisant. Mais comme il n'avait aucune marge de puissance, il ne suffit plus aujourd'hui. Alors qu'un x86 de l'époque, certes plus gourmand, tient encore la route.

Et surtout, si j'avais fait cette explication à l'époque, faudrait pas oublier que c'était en réponse à un petit rigolo qui trouvait intelligent de faire une comparaison ARM/x86 sur la base des performances 3D (donc en fait, une comparaison des GPU) et des performances en décodage H.264 (donc en fait, une comparaison des circuits dédiés au décodage vidéo). Ce qui comparait donc tout sauf justement le ARM et le x86 rolleyes.gif


--------------------

Go to the top of the page
 
+Quote Post
Skwaloo
posté 11 Sep 2014, 23:02
Message #44


Macbidouilleur de bronze !
**

Groupe : Membres
Messages : 497
Inscrit : 16 Oct 2005
Membre no 48 046



Gros malin, fait voir comment on fait pour utiliser un autre GPU que celui intégré dans les SoC ARM (mis à part les kits de SECO) !

Tes Atom de 2010 tournent comme une horloge sous W8.1 ? PPPffff


Ce message a été modifié par Skwaloo - 11 Sep 2014, 23:21.


--------------------
Go to the top of the page
 
+Quote Post
chombier
posté 11 Sep 2014, 23:04
Message #45


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 6 580
Inscrit : 20 Mar 2003
Membre no 6 765



Non mais t'es pas couché toi ?
Allez hop ! Au lit !

Mais qu'est-ce qu'il fout Grognon ?
Ah Merde. Il est mort. sad.gif


--------------------
késtananafout' (:
Go to the top of the page
 
+Quote Post
AlbertRaccoon
posté 12 Sep 2014, 01:22
Message #46


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 3 515
Inscrit : 21 Sep 2005
Membre no 46 410



Citation (Skwaloo @ 12 Sep 2014, 00:02) *
Tes Atom de 2010 tournent comme une horloge sous W8.1 ? PPPffff

Tu devrais vraiment faire des recherches avant de sortir des âneries (sachant que 8.1 est globalement mieux optimisé que 8)...
Go to the top of the page
 
+Quote Post
Skwaloo
posté 12 Sep 2014, 08:07
Message #47


Macbidouilleur de bronze !
**

Groupe : Membres
Messages : 497
Inscrit : 16 Oct 2005
Membre no 48 046



Les Atom de 2010 étaient réputé très limiter en Windows, il le sont moins aujourd'hui ???! La dernière version de Photoshop tourne comme une horloge dessus ???!


--------------------
Go to the top of the page
 
+Quote Post
SartMatt
posté 12 Sep 2014, 08:11
Message #48


Macbidouilleur d'Or !
*****

Groupe : Rédacteurs
Messages : 32 187
Inscrit : 15 Nov 2005
Membre no 49 996



Citation (Skwaloo @ 12 Sep 2014, 00:02) *
Gros malin, fait voir comment on fait pour utiliser un autre GPU que celui intégré dans les SoC ARM (mis à part les kits de SECO) !
Ben on peut pas. Mais ça veut pas dire que du coup les tests 3D ont une quelconque valeur quand on veut comparer deux CPU...

Quand on veut comparer deux CPU en 3D, on le fait avec la même puce 3D. Si on peut pas, tant pis, on compare pas.

Citation (Skwaloo @ 12 Sep 2014, 00:02) *
Tes Atom de 2010 tournent comme une horloge sous W8.1 ? PPPffff
J'ai pas testé, mais vu que Windows 7 tourne très bien dessus, y a pas de raison que Windows 8.1 n'y tourne pas, vu qu'il est plus léger...
Et quand je parlais de CPU x86 de 2010, je parlais pas forcément de l'Atom hein... Mais aussi et surtout des CPU plus gros, qui aujourd'hui sont bel et bien capable de lire des codecs qu'aucun CPU ARM ne sait lire sans décodeur dédié (l'Atom de 2010, lui, il ne peut pas... parce que comme c'est un CPU basse performances, comme la plupart des CPU ARM, il n'a pas la puissance pour, et doit s'appuyer sur un circuit de décodage).


--------------------

Go to the top of the page
 
+Quote Post
AlxV
posté 12 Sep 2014, 10:45
Message #49


Macbidouilleur de vermeil !
****

Groupe : Membres
Messages : 863
Inscrit : 7 Feb 2012
Membre no 174 401



Citation (SartMatt @ 12 Sep 2014, 09:11) *
Citation (Skwaloo @ 12 Sep 2014, 00:02) *
Gros malin, fait voir comment on fait pour utiliser un autre GPU que celui intégré dans les SoC ARM (mis à part les kits de SECO) !
Ben on peut pas. Mais ça veut pas dire que du coup les tests 3D ont une quelconque valeur quand on veut comparer deux CPU...

Quand on veut comparer deux CPU en 3D, on le fait avec la même puce 3D. Si on peut pas, tant pis, on compare pas.

Citation (Skwaloo @ 12 Sep 2014, 00:02) *
Tes Atom de 2010 tournent comme une horloge sous W8.1 ? PPPffff
J'ai pas testé, mais vu que Windows 7 tourne très bien dessus, y a pas de raison que Windows 8.1 n'y tourne pas, vu qu'il est plus léger...
Et quand je parlais de CPU x86 de 2010, je parlais pas forcément de l'Atom hein... Mais aussi et surtout des CPU plus gros, qui aujourd'hui sont bel et bien capable de lire des codecs qu'aucun CPU ARM ne sait lire sans décodeur dédié (l'Atom de 2010, lui, il ne peut pas... parce que comme c'est un CPU basse performances, comme la plupart des CPU ARM, il n'a pas la puissance pour, et doit s'appuyer sur un circuit de décodage).


Je n'ai aucun grief contre toi et je pense que tu es quelqu'un de respectable et sympathique, mais là tu racontes vraiment n'importe quoi


--------------------
Machine principale : [NEW] MacBook Pro 14", M1Max / 32Go RAM / 2To SSD 😍😍😍😍 + Ecran Pro Display 32'' 😍😍😍😍😍😍😍😍
Machine complémentaire : Ipad Pro 2020, 11", 256Go + Magic Keyboard 😍😍😍
Go to the top of the page
 
+Quote Post
Skwaloo
posté 12 Sep 2014, 11:22
Message #50


Macbidouilleur de bronze !
**

Groupe : Membres
Messages : 497
Inscrit : 16 Oct 2005
Membre no 48 046



Citation (SartMatt @ 12 Sep 2014, 09:11) *
Citation (Skwaloo @ 12 Sep 2014, 00:02) *
Gros malin, fait voir comment on fait pour utiliser un autre GPU que celui intégré dans les SoC ARM (mis à part les kits de SECO) !
Ben on peut pas. Mais ça veut pas dire que du coup les tests 3D ont une quelconque valeur quand on veut comparer deux CPU...

Quand on veut comparer deux CPU en 3D, on le fait avec la même puce 3D. Si on peut pas, tant pis, on compare pas.

Un CPU avec une puce 3D ?
Les cartes graphiques n'ont jamais été comparées quand elles n'avaient pas la même puce 3D ?????!!!!! Donc on a jamais comparé carte graphique nVidia et AMD ????!!!!... On a changé de multi-univers ?
Alors d'où vient cette volonté acharnée de te refuser de comparer des SoC disponible sur le marché dans leur globalité ?!


Citation (SartMatt @ 12 Sep 2014, 09:11) *
Citation (Skwaloo @ 12 Sep 2014, 00:02) *
Tes Atom de 2010 tournent comme une horloge sous W8.1 ? PPPffff
J'ai pas testé, mais vu que Windows 7 tourne très bien dessus, y a pas de raison que Windows 8.1 n'y tourne pas, vu qu'il est plus léger...
Et quand je parlais de CPU x86 de 2010, je parlais pas forcément de l'Atom hein... Mais aussi et surtout des CPU plus gros, qui aujourd'hui sont bel et bien capable de lire des codecs qu'aucun CPU ARM ne sait lire sans décodeur dédié (l'Atom de 2010, lui, il ne peut pas... parce que comme c'est un CPU basse performances, comme la plupart des CPU ARM, il n'a pas la puissance pour, et doit s'appuyer sur un circuit de décodage).

Le sujet portait uniquement sur l'Atom !
C'est une évidence pour tout le monde qu'aucun ARM d'aujourd'hui n'égale les meilleurs x86 et, un truc qui va te faire plaisir, je suis convaicu que ce n'est pas près d'arriver (pas par impossibilité technique, mais trop d'argent à investir pour une réussite commerciale très incertaine aujourd'hui).
Les décodeurs dédiés ne sont pas une mauvaise chose, même Intel en fait.


--------------------
Go to the top of the page
 
+Quote Post
SartMatt
posté 12 Sep 2014, 12:37
Message #51


Macbidouilleur d'Or !
*****

Groupe : Rédacteurs
Messages : 32 187
Inscrit : 15 Nov 2005
Membre no 49 996



Citation (AlxV @ 12 Sep 2014, 11:45) *
Je n'ai aucun grief contre toi et je pense que tu es quelqu'un de respectable et sympathique, mais là tu racontes vraiment n'importe quoi
Argumenter, ça serait trop te demander ?

Citation (Skwaloo @ 12 Sep 2014, 12:22) *
Citation (SartMatt @ 12 Sep 2014, 09:11) *
Citation (Skwaloo @ 12 Sep 2014, 00:02) *
Gros malin, fait voir comment on fait pour utiliser un autre GPU que celui intégré dans les SoC ARM (mis à part les kits de SECO) !
Ben on peut pas. Mais ça veut pas dire que du coup les tests 3D ont une quelconque valeur quand on veut comparer deux CPU...

Quand on veut comparer deux CPU en 3D, on le fait avec la même puce 3D. Si on peut pas, tant pis, on compare pas.
Un CPU avec une puce 3D ?
Les cartes graphiques n'ont jamais été comparées quand elles n'avaient pas la même puce 3D ?????!!!!! Donc on a jamais comparé carte graphique nVidia et AMD ????!!!!... On a changé de multi-univers ?
Quand on fait des comparaisons de CPU, dans un test 3D, on les compare à GPU égal.
Quand on fait des comparaisons de GPU, on le fait à CPU égal.

Donc quand tu as des SoC, si tu veux comparer les CPU (quand tu veux faire archi ARM vs archi x86, c'est bien uniquement la partie CPU qui entre en jeu, le GPU ce n'est ni du ARM, ni du x86), comme tu peux pas le faire à GPU égal, tu le fait pas dans des tests 3D. C'est tout.

Si tu compares ton temps au tour en F1 sur un circuit avec celui de Vettel dans une simple Porsche, ça n'a pas de sens d'en déduire quelque chose sur les performances de la voiture, parce que c'est un résultat qui dépend beaucoup plus du pilote que de la voiture.

Avec les SoC, c'est pareil. Le résultat d'un test 3D dépend beaucoup plus du GPU que du CPU, donc ça n'a pas de sens d'en tirer des conclusions sur le CPU.

Citation (Skwaloo @ 12 Sep 2014, 12:22) *
Alors d'où vient cette volonté acharnée de te refuser de comparer des SoC disponible sur le marché dans leur globalité ?!
Ah mais je n'ai absolument rien contre ça... C'est juste que dans ce cas, faut pas dire que c'est une comparaison ARM vs x86.
C'est une comparaison Snapdragon 800 vs Atom Z3770.
Et quand tu commentes le résultat d'un test 3D dans ce cas, tu dis pas "le ARM est supérieur au x86", tu dis "le GPU du Snapdragon 800 a l'ai supérieur à celui du Z3770".

Citation (Skwaloo @ 12 Sep 2014, 12:22) *
Les décodeurs dédiés ne sont pas une mauvaise chose, même Intel en fait.
Bien sûr que c'est pas une mauvaise chose : c'est ce qui permet la meilleur efficacité pour un traitement donné.
Sauf que par contre, ça n'a quasiment aucune souplesse.

Quand je vois des gens dire que ça sert à rien d'avoir un Core i parce que un SoC ARM fait aussi bien pour les usages grand public (donc notamment la lecture vidéo), ça me fait doucement rigoler. Parce que dès qu'on va changer le codec, le SoC ARM sera à l'agonie alors que le Core i se baladera.

Ce n'est pas parce qu'on n'a pas besoin de la puissance 95% du temps que ça ne sert rien d'avoir cette marge de puissance... Là encore, on peut faire l'analogie avec la voiture : en général, on demande rarement plus de 30 ou 40 ch à un moteur. Mais avoir 180ch offre quand même bien plus d'agrément de conduite qu'en avoir 60 : t'as beaucoup plus de souplesse d'utilisation, et la puissance est là quand tu en as besoin.


--------------------

Go to the top of the page
 
+Quote Post
AlxV
posté 15 Sep 2014, 08:52
Message #52


Macbidouilleur de vermeil !
****

Groupe : Membres
Messages : 863
Inscrit : 7 Feb 2012
Membre no 174 401



juste à lire :

Citation
"J'avais dit à l'époque qu'avoir une puce qui a de la marge de puissance, ça a l'avantage de mieux pouvoir évoluer..."


C'est quoi ton projet ? que les ARM soient aussi puissant que les Core i5 pour pouvoir décoder les codecs 8K qui sortiront dans 10 ans ? Tout ça pour des tablettes à 200€ et en respectant un TDP de 10W ? On va où là...

Citation
"Et que du coup, les appareils qui reposent sur un CPU peu performant associé à des aides matérielles spécialisées (par exemple un circuit dédié au H.264 comme dans tous les SoC ARM) serait obsolète bien plus vite..."


Du grand délire. Alors que la présence d'un chip dédié a permis aux appareil mobile d'entrer dans l'ère du multimédia et assurant une décompression matérielle de codecs complexes, style h264, donc en permettant au processeur d'être réactifs tout en contenant leur TDP (donc l'autonomie, la chauffe, etc, etc), toi tu nous sors le codec H265 et tu nous raconte la vis sur l'obsolescence des appareils des 3 dernières années

Ton plan c'est de nous expliquer qu'un tablette à 200€ qui peut pas lire un film 4K à 20Go le fichier (et qui sera affiché en 1280x800) c'est pas bien ?

Citation
"Et le fait est que le présent me donne bel et bien raison : les appareils ARM de l'époque sont aujourd'hui bien incapables de lire une vidéo H.265, alors qu'une processeur x86 performant de la même époque peut le faire. Et c'est pas spécifique à la vidéo d'ailleurs : une tablette Tegra 2 de 2010 rame à mort sous Android 4.4 (2013), un A4 de 2010 rame sous iOS 7 (2013)... Un PC de 2010 tourne comme une horloge sous Windows 8.1 ou OS X 10.9..."


Ben oui, ils sont cons ces constructeurs. Il suffisait de mettre un core i7 dans la tablette et tu devenais le roi du monde
On nage en plein délire, une vraie bonne discussion de comptoir "Ben oui ma petite dame, avec tous ces satellites qu'on envoie, normal que le temps se déglingue"


--------------------
Machine principale : [NEW] MacBook Pro 14", M1Max / 32Go RAM / 2To SSD 😍😍😍😍 + Ecran Pro Display 32'' 😍😍😍😍😍😍😍😍
Machine complémentaire : Ipad Pro 2020, 11", 256Go + Magic Keyboard 😍😍😍
Go to the top of the page
 
+Quote Post
SartMatt
posté 15 Sep 2014, 09:44
Message #53


Macbidouilleur d'Or !
*****

Groupe : Rédacteurs
Messages : 32 187
Inscrit : 15 Nov 2005
Membre no 49 996



Citation (AlxV @ 15 Sep 2014, 09:52) *
On nage en plein délire, une vraie bonne discussion de comptoir "Ben oui ma petite dame, avec tous ces satellites qu'on envoie, normal que le temps se déglingue"
C'est surtout que tu n'as pas suivi la discussion de l'époque, donc forcément, tu crois que je parle uniquement des tablettes...

Mais dans la discussion de l'époque, le fanboy ARM de service nous disait que ça sert à rien d'avoir des CPU puissants parce qu'un CPU ARM décode du H.264 les doigts dans le nez, et que du coup les grosses machines n'avaient plus aucun intérêt et que l'ARM pouvait complètement remplacer le x86 (si je me souviens bien, c'était à l'époque où Microsoft annonçait l'arrivée de Windows sur ARM... on a vu ce que ça a donné...)... Ce à quoi je lui avais répondu qu'il fallait pas confondre décodage soft et décodage hard (on compare pas ARM et x86 sur la base des performances du circuit de décodage vidéo, c'est débile), et que les grosses machines avaient encore de l'intérêt du fait de leur capacité d'adaptation.

Bien sûr, dans une tablette, y a pas le choix, faut mettre un CPU pas puissant avec des décodeurs hard. Mais sur une machine de bureau, où on peut se permettre un CPU plus puissant, les gros CPU ont encore largement leur place, ça rend la machine plus souple et plus durable.

J'en connais plus d'un qui il y a 2-3 ans ont opté pour une tablette plutôt qu'un laptop, et aujorud'hui le regrettent en se rendant compte qu'ils doivent déjà changer leur tablette alors qu'un laptop tiendrait encore largement la route...


--------------------

Go to the top of the page
 
+Quote Post
AlxV
posté 15 Sep 2014, 11:05
Message #54


Macbidouilleur de vermeil !
****

Groupe : Membres
Messages : 863
Inscrit : 7 Feb 2012
Membre no 174 401



Citation (SartMatt @ 15 Sep 2014, 10:44) *
Citation (AlxV @ 15 Sep 2014, 09:52) *
On nage en plein délire, une vraie bonne discussion de comptoir "Ben oui ma petite dame, avec tous ces satellites qu'on envoie, normal que le temps se déglingue"
C'est surtout que tu n'as pas suivi la discussion de l'époque, donc forcément, tu crois que je parle uniquement des tablettes...

Mais dans la discussion de l'époque, le fanboy ARM de service nous disait que ça sert à rien d'avoir des CPU puissants parce qu'un CPU ARM décode du H.264 les doigts dans le nez, et que du coup les grosses machines n'avaient plus aucun intérêt et que l'ARM pouvait complètement remplacer le x86 (si je me souviens bien, c'était à l'époque où Microsoft annonçait l'arrivée de Windows sur ARM... on a vu ce que ça a donné...)... Ce à quoi je lui avais répondu qu'il fallait pas confondre décodage soft et décodage hard (on compare pas ARM et x86 sur la base des performances du circuit de décodage vidéo, c'est débile), et que les grosses machines avaient encore de l'intérêt du fait de leur capacité d'adaptation.

Bien sûr, dans une tablette, y a pas le choix, faut mettre un CPU pas puissant avec des décodeurs hard. Mais sur une machine de bureau, où on peut se permettre un CPU plus puissant, les gros CPU ont encore largement leur place, ça rend la machine plus souple et plus durable.

J'en connais plus d'un qui il y a 2-3 ans ont opté pour une tablette plutôt qu'un laptop, et aujorud'hui le regrettent en se rendant compte qu'ils doivent déjà changer leur tablette alors qu'un laptop tiendrait encore largement la route...


le fanboy ARM disait de bien grosses conneries

Un certain nombre d'utilisateurs se servent de leur ordinateur et/ou de leur tablette principalement pour surfer sur Facebook et matter des séries

Certains achètent des macbook Pro juste pour mettre à jour leur statut Facebook (quand je parlais de techno-beauf...)

Si tu commences à argumenter avec ces gens là, on va pas aller bien loin. Il faut les laisser faire joujou dans la cour de l'école et ils sont content

Je me souviens quand Steve Jobs a tué le plut-in flash, combien ils étaient nombreux à se la raconter "de toutes façon flash ça sert à rien, on peut lire des vidéos avec HTML5", genre flash ça ne sert qu'a lire des vidéos ... ok, ok, vis-ta-vie sur Youtube


--------------------
Machine principale : [NEW] MacBook Pro 14", M1Max / 32Go RAM / 2To SSD 😍😍😍😍 + Ecran Pro Display 32'' 😍😍😍😍😍😍😍😍
Machine complémentaire : Ipad Pro 2020, 11", 256Go + Magic Keyboard 😍😍😍
Go to the top of the page
 
+Quote Post

2 Pages V  < 1 2
Reply to this topicStart new topic
1 utilisateur(s) sur ce sujet (1 invité(s) et 0 utilisateur(s) anonyme(s))
0 membre(s) :

 



Nous sommes le : 25th April 2024 - 00:46