Version imprimable du sujet

Cliquez ici pour voir ce sujet dans son format original

Forums MacBidouille _ Macbidouille Articles & News : Vos Réactions _ Apple Silicon M4

Écrit par : Paul Emploi 7 May 2024, 23:10

[MàJ par Philippe]

Les premiers benchmarks ont déjà été réalisés sur Twitter par @VadimYuryev, et le M4 est effectivement 25% plus rapide que le M3, 50% plus rapide que le M2, comme promis par Apple, ce qui le met au niveau des M2 Pro et M3 Pro.

Le gain en fréquence est maintenant connu, puisque le M4 tourne à 4,4 Ghz contre 4,05 Ghz pour le M3, une augmentation de 8,6% de la fréquence.

On a donc un gain d'environ 16% par l'adjonction de 2 cœurs économiques (4+4 à 4+6), environ 9% par augmentation de la fréquence, et quasi nul pour ce qui concerne l'efficacité de la micro-architecture comparé au M3...


Merci TSMC et son N3E!
Mais on peut être franchement inquiet sur les capacités d'Apple à faire évoluer sa micro-architecture, qui parait faire du surplace...

[Sujet initial]

Apple vient de révéler les caractéristiques du M4, premier élément de sa nouvelle génération de SoC, et qui vient d'être présenté via les iPad Pro.

Ce M4 devrait arriver sur les MacBook Air puis MacBook Pro 14" cette année, faisant table rase du M3, qui s'était révélé décevant à cause de son TDP qui avait fait un bond en avant et se révélait trop calorifère pour le châssis du MacBook Air.

CPU

La CPU intégrée au M4 est annoncée comme 50% plus rapide que celle du M2, passant d'une configuration 4+4 à 4+6, ajoutant donc 2 cœurs économiques au passage.
Cet ajout permet autant d'augmenter les performances générales que de limiter la consommation de l'ensemble.

Apple annonce la CPU du M4 comme 50% plus rapide que celle du M2 sorti il y a 2 ans.
Et en consommant deux fois moins à performances identiques.
À vérifier en pratique, mais il est probable qu'on soit à ce bel ordre de grandeur.

Ce progrès est du aux environs 16% amenés par le passage à 4+6 cœurs, l'augmentation de la fréquence grâce au process TSMC N3E avancé contre N5P avant, mais aussi une meilleure dissipation thermique de l'iPad Pro de l'ordre de 20%.

Et pour finir peut-être des progrès micro-architecturaux, mais ils devraient être très faibles car le M4 seulement 25% plus rapide que le M3 malgré les 2 cœurs en plus...
Notez qu'on est passé de 8 instructions décodés par cycle sur les M1 et M2, à 9 pour le M3 et à 10 pour le M4, les unités entières sont passées de 6 sur les M1, et M2 à 8 sur le M3 et peut-être 9 sur le M4, mais sans réel effet sur les IPC.

GPU

La GPU prend du mieux, du beaucoup mieux en fait, à valider tellement les chiffres annoncés sont obscènes!

D'abord l'intégration du Ray-Tracing RT (lâché de rayon) matériel, attendu depuis fort longtemps, et dont rien n'est indiqué sur le niveau de performance réel.
Les performances du RT sont très dépendantes des choix techniques effectués, comme on l'a vu avec AMD et nVidia, une GPU en théorie plus puissante pouvant se révéler moins rapide lors de l'usage de ces types de rendu.

Ensuite, tenez vous bien, toujours avec 10 cœurs GPU, 4 fois plus rapide pour les rendu pro "pro rendering performance".
Je me demande ce qu'ils veulent dire par "pro rendering", mais même si donc les rendus pas "pro" ne seront pas 4 fois plus rapides dont les jeux, on devrait observer un bond en avant.

Là aussi la gravure N3E de TSMC ainsi que l'augmentation de 20% de la dissipation thermique du nouvel iPad Pro sont à l'œuvre.

IA & ML

Apple a évoqué des accélérations pour le Machine Learning ML (apprentissage automatisé) au sein même de la CPU, mais on ne sait quels types de charges de travail en bénéficieront ni quelle sera l'implémentation réalisée.

Serait-ce une communication sur les instructions inofficielles AMX d'Apple?

En revanche la NPU passe à 38 Tops, mais c'est tout sauf une surprise puisque le A17 Pro de l'an dernier affichait déjà 35 Tops dans les iPhone 15 Pro!

Il y a le coup de pied de l'âne en indiquant que c'est la NPU la plus puissante commercialisée dans une tablette ou un PC, visant ainsi Qualcomm et son Snapdragon X encore dans les limbes, mais aussi Microsoft et ses "AI PC".

Mais c'est factuellement faux si on compte les capacités des GPU de certains PC, AMD et surtout nVidia!

Sous-système mémoire

Sans qu'il y ait d'annonce spécifique sur les SLC du sous-système mémoire, notamment en terme de taille de cache et de bande-passante du bus interne, la bande passante mémoire a augmenté de 18% en passant de 102 Go/s à 120 Go/s.

Si la partie CPU n'en a pas vraiment besoin, ça donne là un peu d'oxygène aux NPU et GPU.

Pour conclure

Après un M3 qui m'avait déçu, le M4 sera-t-il le sauveur décrit par Apple?

Les informations données sur l'efficacité par watt qui aurait doublée, ainsi que le travail pour dissiper la chaleur généré dans l'iPad montrent qu'Apple a pris ce problème au sérieux, tant côté M4 que côté chassis. Merci TSMC aussi pour le process de gravure N3E.

On peut très probablement espérer un MacBook Air M4 qui dépote!

http://macbidouille.com/news/2024/05/09/apple-silicon-m4


Écrit par : Hebus 7 May 2024, 23:19

Tu peux faire tourner ton code ML sur le GPU et le NPU des procs Apple également,

J’avais complètement zappé les perfs du A17 en ML

Écrit par : iPantoufle 8 May 2024, 11:43

Génial. Les plombiers ont le M4 sur leur tablette et les vidéastes font toujours des rendus sur leur Mac Pro M2. Apple ère Tim Cook.

Écrit par : zoso2k1 8 May 2024, 11:50

Citation (iPantoufle @ 8 May 2024, 12:43) *
Génial. Les plombiers ont le M4 sur leur tablette et les vidéastes font toujours des rendus sur leur Mac Pro M2. Apple ère Tim Cook.


Soit le M4 est de l’enfumage soit ils ont vraiment un problème de gamme chez Apple.

Parce qu’on va avoir le M4 pro, le M4 max, le M4 ultra et pourquoi pas le M4 pro Max , le M4 pro ultra.

Écrit par : Hebus 8 May 2024, 12:13

Le M4 c’est un M3 amélioré côté consommation et ML plus le truc indispensable pour controller le nouvel écran …

Son existence se justifie sans mal sur un iPad Pro, impressionnant comment les gens projettent leur seul besoin sur l’ensemble du marché

Il se vend plus d’iPad que de Mac… rien que cela justifie la montée en gamme, la baisse des revenus sur l’iPad la dernière année s’explique d’ailleurs par le manque de mise à jour sur 2 ans et la concurrence est la, Samsung a sorti d’excellentes tablettes ces derniers mois par exemple.

On achète un produit pour les applications que l’on peut utiliser , tout ce débat sur l’OS en tant que tel est vain, si les iPad Pro se vendent c’est qu’il y a des applications que les gens utilisent et qui ont besoin de ce genre de performances

Procreate, ProCreate Dream, Concept, SketchUp, uMake, Sharp3D, LumaFusion, Photo et Designer de Affinity, GoodNotes… etc

Si ce ne sont pas obligatoirement des usages exclusif sur l’iPad, cela rentre dans les outils de productions des pro, pour ce que cela sait faire, ultra portabilité et interface au doigt et au stylet.

Je suis étonné par contre que Apple n’ait pas suivi Samsung sur la sortie d’une tablette King size de 16 pouces …

Écrit par : JoKer_forever 8 May 2024, 14:32

Citation (iPantoufle @ 8 May 2024, 12:43) *
Génial. Les plombiers ont le M4 sur leur tablette et les vidéastes font toujours des rendus sur leur Mac Pro M2. Apple ère Tim Cook.


Il est probable qu'Apple corrige rapidement cette distinction... dans 1 mois ?
Les Mac Studio et les Mac Pro M4 (Max, Ultra et peut-être en dessus) pour présenter les fonctions IA du nouveau système ça serait assez logique.

Écrit par : Paul Emploi 8 May 2024, 16:03

Citation (JoKer_forever @ 8 May 2024, 14:32) *
Citation (iPantoufle @ 8 May 2024, 12:43) *
Génial. Les plombiers ont le M4 sur leur tablette et les vidéastes font toujours des rendus sur leur Mac Pro M2. Apple ère Tim Cook.


Il est probable qu'Apple corrige rapidement cette distinction... dans 1 mois ?
Les Mac Studio et les Mac Pro M4 (Max, Ultra et peut-être en dessus) pour présenter les fonctions IA du nouveau système ça serait assez logique.

Très probablement avec le MacBook Air M4.
Le M3 a été très décevant dans le MacBook Air, une piste pourrait être que la gravure N3E de TSMC n'ai pas atteint les objectifs d'efficacité énergétique initialement prévus, expliquant les problèmes thermiques amenant des ralentissements très malvenus.

Le M4 est un dérivé du M1, optimisé au fur-et-à-mesure, avec quand même un décodeur passé de 8 à 10 instructions et l'ajout de 2 ou 3 unités entières.
Mais le gain en IPC est extrêmement faible de génération en génération, alors on augmente les fréquences et on ajoute des cœurs en profitant des progrès de gravure de TSMC.

J'espérais l'arrivée d'une nouvelle micro-architecture, ça attendra au moins le M5, avec peut-être moins d'unités "entières" mais certaines plus polyvalentes pour permettre l'équivalent de la macro-fusion d'Intel: regrouper deux ou même trois instructions couramment successives en une seule pour diminuer les latences et donc aussi maximiser les IPC.

Écrit par : Hebus 8 May 2024, 16:29

Philippe, où récupères tu les infos sur les détails de l’architecture du M4 ?

Écrit par : Paul Emploi 8 May 2024, 18:00

La vidéo d'Apple où on comprend des choses dites à mi-mot ou entre les lignes, Wikipedia (N3E spécifiquement), Anandtech pour mon ajout sur le décodeur et le nombre d'unités entières, etc.
D'ailleurs on partage la même opinion avec Anandtech pour AMX, cette unité secrète et son jeu d'instruction normalement uniquement accessible via les framework d'accélération...

Pour les (environs) 16% de plus apportés par les 2 cœurs économiques en sus, deux règles de trois. smile.gif

La fréquence est encore inconnue, donc je ne peux en déduire le gain en IPC, mais même si elle n'a pas bougé c'est seulement autour de 9% par rapport au M3, et je soupçonne que l'essentiel soit du à l'augmentation de fréquence, le M4 étant alors un "M3 refresh" du coté CPU pour profiter des bienfaits du N3E de TSMC.

Écrit par : JayTouCon 8 May 2024, 21:04

Citation (Hebus @ 8 May 2024, 12:13) *
Son existence se justifie sans mal sur un iPad Pro, impressionnant comment les gens projettent leur seul besoin sur l’ensemble du marché

venant d'un fanboy sexagénaire qui nous explique qu'un M4 se justifie sur une tablette qui va tourner sous IOS il y a de quoi vraiment éclater de rire et ces termes périmés.. 'projection ' pfffiouuu

s'il y a bien un appareil sur lequel le M4 ne sert strictement à rien c'est bien sur une tablette ou le téléphone. raconter le contraire est totalement mensonger. il y aurait OSX dessus encore ça pourrait s'entendre mais IOS..

qui est venu à bout d'un M1 ou d'un M2 sur iPad en regrettant le manque de puissance ?? ça n'existe pas c'est du délire .

cette puce est ici surdimensionnée pour un OS sous dimensionné. et au passage on vire l'ultra grand angle (c'est pas qu'il serve énormément mais quand même une appli comme 'swing vision' qui fonctionnait avec l'ultra grand angle..) alors qu'on nous vend Final Cut Pro pour iPad et que l'on peut directement monter ses video en utilisant les cameras de la tablette (4k 60 fis). la logique..

que l'iPad dure 2 jours en utilisation sur une charge sans qu'on cherche le chargeur déjà plutôt que de pérorer que le M4 est ' 2 ou 4 fois plus rapide' serait déjà une bonne chose, c'est à dire écouter ceux qui s'en servent, pas ceux qui s'extasient sur des chiffres de benchs dont personne ne sentira la réelle différence dans la vie .

Écrit par : malloc 9 May 2024, 07:23

Citation (JayTouCon @ 8 May 2024, 22:04) *
Citation (Hebus @ 8 May 2024, 12:13) *
Son existence se justifie sans mal sur un iPad Pro, impressionnant comment les gens projettent leur seul besoin sur l’ensemble du marché

venant d'un fanboy sexagénaire


Ou comment passer de la médiocrité habituelle au franchement abject... sad.gif

Écrit par : zero 9 May 2024, 07:34

Cette amélioration ne peut plus justifier les prix des Mac mini qui sont aux fraises depuis un moment déjà.

https://www.youtube.com/watch?v=rKGmNagoevM

Écrit par : ekami 9 May 2024, 08:44

Le prochain matériel qui devrait être équipé du M4 devrait logiquement être le Mac Pro, mais étant donné qu'on n'a pas vu de M3 Ultra, j'opterai plutôt pour le Mac Studio, histoire de relancer le ventes. Un Mac Mini M4 serait le bienvenu, mais je n'y crois pas. Si les volumes de production de TSMC sont "faibles", se seront les MacBook Air/Pro qui seront les heureux élus.
Apple reste donc tout aussi "imprévisible" qu'à ses débuts au niveau des changements de gamme, ce qui est très probablement voulu par les marketeux et le board qui n'ont que le CA en tête.

Écrit par : malloc 9 May 2024, 09:41

Citation (ekami @ 9 May 2024, 09:44) *
Le prochain matériel qui devrait être équipé du M4 devrait logiquement être le Mac Pro, mais étant donné qu'on n'a pas vu de M3 Ultra, j'opterai plutôt pour le Mac Studio, histoire de relancer le ventes. Un Mac Mini M4 serait le bienvenu, mais je n'y crois pas. Si les volumes de production de TSMC sont "faibles", se seront les MacBook Air/Pro qui seront les heureux élus.


Plutôt l'inverse: les MBAir/Pro font d'énormes volumes, comparé au Studio et probablement au mini.

Donc même s'il y a l'aspect statutaire du MBPro qui rendrait une arrivée tardive du M4 difficile, ce serait vraiment étrange d'en équiper les MBAir et petits MBPro d'abord.

Enfin bon, Apple a bien réussi à vendre sans honte des PowerBook G4 jusqu'en 2006...

Citation (ekami @ 9 May 2024, 09:44) *
Apple reste donc tout aussi "imprévisible" qu'à ses débuts au niveau des changements de gamme, ce qui est très probablement voulu par les marketeux et le board qui n'ont que le CA en tête.


La marge. Pas le CA, la marge.
Ca change tout wink.gif

Écrit par : Hebus 9 May 2024, 11:49

Citation (malloc @ 9 May 2024, 08:23) *
Ou comment passer de la médiocrité habituelle au franchement abject... sad.gif


Bah… ça montre son niveau qui n’est même pas au niveau des pâquerettes

Pauvre type, il fait juste pitié

Je les porte bien mes 62 ans en activité, télétravail dans le sud, très bien payé, au soleil de Provence …

Bientôt un Mac Studio M4, quoique un MBA M4 24 GB de ram me conviendrait parfaitement avec le AVP … la vie est belle … avant la fin du monde !

Écrit par : Paul Emploi 9 May 2024, 12:53

Tant que j'y pense, ce M4 devrait avoir une très bonne autonomie, tant dans l'iPad que dans les Mac, avec une "efficacité par watt qui aurait doublée", ou comme dit par Apple dans sa présentation en faisant le même travail tout en consommant deux fois moins.

Et avec des performances CPU proche des M2 Pro 12 cœurs, M3 Pro 12 cœurs et M2 Max 12 cœurs. Dans un iPad ou un MacBook Air!

Pour les détails techniques sur l'iPad Pro et iPadOS, c'est bien sûr un OS de haut-vol de type Unix-like dérivé de BSD et basé sur le noyau Open-source XNU avec une interface graphique adaptée aux usages visés par Apple.
Les maigres ventes des tablettes utilisant une interface graphique destinée à des ordinateurs traditionnels éclairent les choix fait par Apple.

Comme toujours, on est pas obligé d'aimer ni d'acheter...

Écrit par : malloc 9 May 2024, 13:43

Citation (Hebus @ 9 May 2024, 12:49) *
Citation (malloc @ 9 May 2024, 08:23) *
Ou comment passer de la médiocrité habituelle au franchement abject... sad.gif


Bah… ça montre son niveau qui n’est même pas au niveau des pâquerettes

Pauvre type, il fait juste pitié

Je les porte bien mes 62 ans en activité, télétravail dans le sud, très bien payé, au soleil de Provence …

Bientôt un Mac Studio M4, quoique un MBA M4 24 GB de ram me conviendrait parfaitement avec le AVP … la vie est belle … avant la fin du monde !


Tiens je n'avais pas pensé à ce point... Est-ce que sur un VP la résolution native du Mac en portage d'écran est nécessairement conservée?

Je souffre vraiment en terme d'efficacité quand je passe du 16" au 13" en déplacement.
Mais pour le dos, c'est l'inverse wink.gif

Donc si les 13" font un écran virtuelle de taille équivalent aux 16", je vois bien un MBair et un VP dans le sac pour pouvoir bosser peinard dans le train ou l'avion sans me casser les reins...

Écrit par : ekami 9 May 2024, 14:10

Citation (malloc @ 9 May 2024, 09:41) *
Citation (ekami @ 9 May 2024, 09:44) *
Le prochain matériel qui devrait être équipé du M4 devrait logiquement être le Mac Pro, mais étant donné qu'on n'a pas vu de M3 Ultra, j'opterai plutôt pour le Mac Studio, histoire de relancer le ventes. Un Mac Mini M4 serait le bienvenu, mais je n'y crois pas. Si les volumes de production de TSMC sont "faibles", se seront les MacBook Air/Pro qui seront les heureux élus.

Plutôt l'inverse: les MBAir/Pro font d'énormes volumes, comparé au Studio et probablement au mini.
Donc même s'il y a l'aspect statutaire du MBPro qui rendrait une arrivée tardive du M4 difficile, ce serait vraiment étrange d'en équiper les MBAir et petits MBPro d'abord.
Enfin bon, Apple a bien réussi à vendre sans honte des PowerBook G4 jusqu'en 2006...
Citation (ekami @ 9 May 2024, 09:44) *
Apple reste donc tout aussi "imprévisible" qu'à ses débuts au niveau des changements de gamme, ce qui est très probablement voulu par les marketeux et le board qui n'ont que le CA en tête.

La marge. Pas le CA, la marge.
Ca change tout wink.gif

Oui avant tout la sacro-sainte marge. Je le sais, j'étais plus concentré sur le CA après la lecture des chiffres du 1er trimestre d'Apple.
Ceci dit, pour une entreprise de la taille d'Apple, et surtout pour ses actionnaires, le CA est important.
--
On pourrait s'attendre à une forme de cohérence au niveau des processeurs dans les gammes Mac avec
- Mac Pro et Studio équipés des derniers processeurs. M4 Max ou >. Ce n'est pas (encore) le cas, même si les M2 Max et Ultra sont très puissants.
- MacBook Pro M3 Pro et Max
- MacBook Air M2 (et en M1 pour maintenir un modèle d'entrée de gamme ?)
- Mac Mini M2 (et en M1 pour maintenir un modèle d'entrée de gamme ?)
- Et idem pour les les iPad avec des M3 / M3 / M1 selon le modèle
Mais une telle lisibilité créerait un attentisme chez les acheteurs qui sauraient que lorsqu'un nouveau processeur arrive, il faut attendre le grand chamboule tout des gammes avant d'acheter.
De plus, cette façon de faire serait certainement très couteuse pour Apple au niveau des coûts de R&D et de la production puisqu'il faudrait créer de nouveaux modèles tous les 12 à 18 mois.
Au final, Apple joue les divas et c'est le marketing qui se charge des stratégies de ventes , comme d'habitude…

Écrit par : jeandemi 9 May 2024, 14:31

Le M4 est en priorité dans les iPad et MacBook Air, parce qu'il chauffe et consomme moins que le M3. Le M3 n'est pas un souci dans les machines qui disposent d'un refroidissement actif

Écrit par : g4hd 9 May 2024, 14:50

Citation (malloc @ 9 May 2024, 14:43) *
Je souffre vraiment en terme d'efficacité quand je passe du 16" au 13" en déplacement.

Donc si les 13" font un écran virtuel de taille équivalente aux 16", je vois bien un MBair et un VP dans le sac pour pouvoir bosser peinard dans le train ou l'avion sans me casser les reins...

C'est très fatigant pour la vue… quand tout est affiché plus petit, textes, chiffres etc.
Ça mérite d'être testé plus que 30 secondes à s'extasier en magasin… pour vérifier avant l'achat !

Écrit par : Hebus 9 May 2024, 18:33

Citation (g4hd @ 9 May 2024, 15:50) *
Citation (malloc @ 9 May 2024, 14:43) *
Je souffre vraiment en terme d'efficacité quand je passe du 16" au 13" en déplacement.

Donc si les 13" font un écran virtuel de taille équivalente aux 16", je vois bien un MBair et un VP dans le sac pour pouvoir bosser peinard dans le train ou l'avion sans me casser les reins...

C'est très fatigant pour la vue… quand tout est affiché plus petit, textes, chiffres etc.
Ça mérite d'être testé plus que 30 secondes à s'extasier en magasin… pour vérifier avant l'achat !


Tu auras deux semaines pour le valider ou pas à l’usage, c’est amplement suffisant

Mais le AVP V1 est une V1 donc … pour les fous et les fanboys laugh.gif

Et les community managers …

Les premiers benchmarks sortent et ça a l’air d’être très bon en single core

Écrit par : Paul Emploi 9 May 2024, 21:19

Le sujet a été mis à jour avec les résultats des premiers benchmarks...

Comme je m'y attendais, il y a très peu de progrès micro-architecturaux, en fait il n'y en a pas de tangible, ou à la marge.
Apple semble avoir heurté un mur, qui nécessitera une nouvelle micro-architecture car visiblement augmenter la largeur du décodeur et ajouter des unités entières n'a rien donné de bon. Les chaînes de dépendance du code sont les plus fortes!

Au passage la mise-à-jours sur le Qualcomm Snapdragon X qui devait écraser Apple: le haut-de-gamme X 12 cœurs sera moins rapide que le M4 10 cœurs en consommant 40% de plus, et évidemment la version "plus" (comme PLUS lent) 10 cœurs moins rapides sera encore moins compétitive.
Ça n'était vraiment pas une bonne idée de vouloir se comparer aux Apple Silicon, même si ça a fait le buzz: certains ont de la mémoire et aiment à revenir sur les allégations des uns et des autres.

Écrit par : cfendt 9 May 2024, 22:35

Citation (Paul Emploi @ 9 May 2024, 22:19) *
Le sujet a été mis à jour avec les résultats des premiers benchmarks...

Comme je m'y attendais, il a très peu de progrès micro-architecturaux, en fait il n'y en a pas de tangible, ou à la marge.
Apple semble avoir heurté un mur, qui nécessitera une nouvelle micro-architecture car visiblement augmenter la largeur du décodeur et ajouter des unités entières n'a rien donné de bon. Les chaînes de dépendance du code sont les plus fortes!

Et au passage la mise-à-jours sur le Qualcomm Snapdragon X qui devait écraser Apple: le haut-de-gamme X 12 cœurs sera moins rapide que le M4 10 cœurs en consommant 40% de plus, et évidemment la version "plus" 10 cœurs moins rapides (comme PLUS lent) sera encore moins compétitive.
Ça n'était vraiment pas une bonne idée de vouloir se comparer aux Apple Silicon, même si ça fait le buzz: certains ont de la mémoire et aiment à revenir sur les allégations des uns et des autres.


Alors effectivement, Apple semble faire du surplace avec sa micro-architecture… mais si Qualcomm (le seul a essayer sérieusement à concurrencer Apple au jeu du qui a la meilleure CPU ARM…) est aussi à la ramasse malgré le fric engagé (et alors même qu’il n’y a encore aucun produit basé sur sa puce: Apple a encore un peu de temps pour sortir une “archi v2” (et pas juste une 1.0.4!!!)

50% plus rapide en seulement 2 ans… même si ça reste “très semblable” , qui d’autre l’a fait? Qui peut proposer une machine comme l’iPad pro aujourd’hui? (Poid, performance et autonomie comparable… la finesse à la limite c’est du bonus!!!)

Après, on est déjà en 3nm avec 10 cœurs et une fréquence de 4.4GHz… la limite (mur quantique, nombre se transistor, taille se la puce…) s’approche vite! Ils vont clairement pas continuer 10 ans comme ça!!!

Écrit par : VSD 10 May 2024, 07:24

Ce qui en rien ne justifie un tel prix ?
Un nouveau Pencil pour se refaire des $
L'année d'après un nouveau Pencil car nouvelle gomme ? ! ?
C'est juste n'importe quoi ! Celles et ceux qui se sont offert le M3 doivent être aux anges !!!

Écrit par : Papalou 10 May 2024, 07:57

Citation (cfendt @ 9 May 2024, 22:35) *
50% plus rapide en seulement 2 ans… même si ça reste “très semblable” , qui d’autre l’a fait?


Côté consumer, Intel a fait d'énorme progrès ces 3 dernières années (mais c'est du x86), et côté serveurs/workstation Ampere Computing fait des trucs incroyables.

Écrit par : Gallows Pole 10 May 2024, 09:50

Citation (malloc @ 9 May 2024, 08:23) *
Citation (JayTouCon @ 8 May 2024, 22:04) *
Citation (Hebus @ 8 May 2024, 12:13) *
Son existence se justifie sans mal sur un iPad Pro, impressionnant comment les gens projettent leur seul besoin sur l’ensemble du marché

venant d'un fanboy sexagénaire


Ou comment passer de la médiocrité habituelle au franchement abject... sad.gif


Pas mieux...

Écrit par : ekami 10 May 2024, 14:12

Citation (Paul Emploi @ 8 May 2024, 18:00) *
La vidéo d'Apple où on comprend des choses dites à mi-mot ou entre les lignes, Wikipedia (N3E spécifiquement), Anandtech pour mon ajout sur le décodeur et le nombre d'unités entières, etc.
D'ailleurs on partage la même opinion avec Anandtech pour AMX, cette unité secrète et son jeu d'instruction normalement uniquement accessible via les framework d'accélération...

Pour les (environs) 16% de plus apportés par les 2 cœurs économiques en sus, deux règles de trois. smile.gif

La fréquence est encore inconnue, donc je ne peux en déduire le gain en IPC, mais même si elle n'a pas bougé c'est seulement autour de 9% par rapport au M3, et je soupçonne que l'essentiel soit du à l'augmentation de fréquence, le M4 étant alors un "M3 refresh" du coté CPU pour profiter des bienfaits du N3E de TSMC.

Merci Paul.
Le M4 est donc ce qu'aurait dû être le M3 si Apple n'allait pas si vite en besogne pour que l'on continue à parler d'elle dans les médias.
Si la micro-architecture n'évolue qu'à la marge, la fréquence continue d'augmenter, mais sauf à remplacer le substrat silicium par un nouveau, Apple va buter sur le mur des 5 à 6 GHz.
Penses tu qu'il serait-il envisageable de "câbler en hardware" des fragments des frameworks les plus utilisés pour en accélérer l'exécution, comme au bon vieux temps de la ToolBox des débuts du Mac, ou cette idée (géniale en son temps) est-elle à présent inenvisageable au vu de l'énormité et de la complexité des frameworks de l'OS ?

Écrit par : Hebus 10 May 2024, 14:19

La ROM du Macintosh d’origine contenait de la mémoire non modifiable , Read Only Memory… Ce n’était pas câblé , juste beaucoup de code machine ou compilé mémorisé à demeure, le side effect était que si tu voulais améliorer certains frameworks tu les avais dans la ROM et en RAM, mémoire vive, puisque la nouvelle version de certaines fonctions de la Mac Toolbox étaient chargées par le système au démarrage ou à la demande.

Par ailleurs la ROM est plus lente que la RAM en terme d’accès mémoire, donc sans doute que pour certaines parties critiques, le code correspondant devrait être dupliqué en RAM…

Écrit par : captaindid 10 May 2024, 17:44

Citation (ekami @ 10 May 2024, 14:12) *
Penses tu qu'il serait-il envisageable de "câbler en hardware" des fragments des frameworks les plus utilisés pour en accélérer l'exécution, comme au bon vieux temps de la ToolBox des débuts du Mac, ou cette idée (géniale en son temps) est-elle à présent inenvisageable au vu de l'énormité et de la complexité des frameworks de l'OS ?

Depuis le début de l'informatique on n'a pas arrêté de câbler en hardware toutes les opérations fréquentes, cruciales, et grosses consommatrices de puissance de traitement; le tout software implique une grande lenteur de traitement.
En voici quelques unes, des puces externes finalement intégrées dans les CPU, ou plutôt des SoC:
la FPU pour accélérer le calcul des flottants
les DSP pour accélérer le traitement du signal et du son (qu'on trouve dans des cartes son ou des modems, qui accélèrent drastiquement notamment le DCT et l'iDCT etc... en partie remplacée par les unités vectorielles des CPU
les cartes vidéo pour accélérer la 2D, puis la 3D.
les puces de compression-décompression vidéo, beaucoup plus rapides qu'un CPU mais souvent liées à un ou quelques codecs, puis elles ont été intégrées dans les cartes vidéo, puis dans la partie vidéo des CPU, en fait des SoC.
des cartes de chiffrement-déchiffrement qu'on trouvait sur certains serveurs, maintenant remplacées par des instructions spécifiques dans les CPU.
des cartes réseau qui accélèrent le traitement des couches réseau basse, qu'on trouve (ou "trouvait", maintenant tout doit être dans le CPU avec des instructions spécifiques) sur des serveurs et routeurs.
des unités spéciales pour traiter l'IA, mais aussi des instructions spécifiques dans les CPU
j"en oublie certainement beaucoup ...

comme le rappelle Hébus, la Toolbox n'était qu'une ROM (un peu plus lente que la RAM d'ailleurs), mais pas une accélération matérielle: tout était calculé par ce bon vieux 68000 et ses successeurs.
l’intérêt de la ToolBox en ROM plutôt que sur disque, était le fait qu'au début notamment, on chargeait l'OS, et les appli, depuis une disquette: outre le fait que c'était lent, il n'y avait pas beaucoup de place (les premières sur mac faisaient 400Ko!).
Mettre la Toolbox en ROM était donc doublement avantageux, mais sans possibilité de mise à jour. Mais on ne passait pas son temps à toujours tout mettre à jour (internet n'existait pas) et on se contentait bien des disquettes livrées avec l'ordi ou dans la boite d'une appli tierce.

câbler la toolbox? impossible, beaucoup de librairies disparates, faisant tout et n'importe quoi, bref rien à voir avec la liste que je donne plus d'un circuit spécialisé ne faisant qu'une toute petite chose, mais très rapidement.

dans les OS modernes on ne parle plus de Toolbox, mais d'API, ce qui revient au même; ces API font plein de choses, et pour certaines, notamment la 3D, elles savent très bien s'appuyer sur des puces spécialisées, ou utiliser les instructions spécifiques des CPU modernes.

Écrit par : ekami 10 May 2024, 18:12

Citation (captaindid @ 10 May 2024, 17:44) *
Dans les OS modernes on ne parle plus de Toolbox, mais d'API, ce qui revient au même; ces API font plein de choses, et pour certaines, notamment la 3D, elles savent très bien s'appuyer sur des puces spécialisées, ou utiliser les instructions spécifiques des CPU modernes.

Merci Captain. Ayant débuté avec le Mac Plus, je connais bien tout ça, mais un petit rappel didactique n'est jamais de trop.
Ma question est d'ordre plus général: Est-il pertinent ce continuer à mettre au point des puces (ou des sous-systèmes sur le SOC) encore plus ultra-spécialisés (quitte à multiplier les API), ou vaut-il mieux explorer d'autres pistes pour continuer à accélérer le hardware ?

Écrit par : cyril231275 10 May 2024, 19:03

La loi de Moore c'est terminé. Faut arrêter à un moment de faire la fine bouche et chouiner si on a un gain non négligeable tout de même mais pas aussi époustouflant que lors du passage d'une technologie de processeur à une autre.
Ce M4 est un excellent processeur, plus rapide à la base que ses prédécesseurs, plus rapide que les énormes promesses de la concurrence de type ARM, point. Alors on peut couper les cheveux en quatre et chercher tous les aspects techniques à décharge pour prouver que l'amélioration n'en est pas une mais ça devient totalement absurde.

Écrit par : maclinuxG4 10 May 2024, 19:40

Citation (cyril231275 @ 10 May 2024, 20:03) *
La loi de Moore c'est terminé.

et non lire surtout le point 3: cela reste encore applicable
https://fr.wikipedia.org/wiki/Loi_de_Moore

Écrit par : Paul Emploi 10 May 2024, 20:11

Ce qu'on observe entre le M3 et le M4, plus performant et consommant à-priori moins, c'est au contraire ce que décrit la loi de Moore: l'augmentation du nombre de transistors à surface égale, ce qui entraine une baisse de leur consommation à même fréquence, et une hausse de leur fréquence potentielle.
Cela permet de mettre plus de cœurs, des cœurs plus complexes, d'augmenter la fréquence, et/ou de consommer moins. Le M4 intègre tout ça.

Pour simplifier, c'est la loi de Moore qui explique le M4 plus rapide que le M3. TSMC, pas Apple.

Il y a donc deux problèmes pour l'avenir, le "mur" et la capacité d'Apple à créer une nouvelle micro-architecture plus efficace (IPC) en architecture ARMv9.

Écrit par : yang 10 May 2024, 21:24

Citation (Paul Emploi @ 9 May 2024, 22:19) *
Comme je m'y attendais, il y a très peu de progrès micro-architecturaux, en fait il n'y en a pas de tangible, ou à la marge.


Dans ce cas, comment expliquer les 22% d'augmentation en single core ? (3087 -> 3767)
Les 8,6% d'augmentation de fréquence ne suffisent pas…
Si ce n'est pas une nouvelle micro-architecture, c'est quoi ?
C'est une vraie question, je ne comprends pas comment c'est possible !

Écrit par : maclinuxG4 11 May 2024, 08:36

la microarchitecture Mx, apple ne l as pas encore inventé:
l'architecture existant est amélioré, mais les performances semblent plafonnées, d’où un gain plus faible

Écrit par : moi-je 11 May 2024, 10:17

Je suis d’accord qu’il n’y a pas de vrais progrès architecturaux depuis le M1 (côté CPU en tous cas, le ray tracing CPU et l’éventuelle évolution NPU semblent peu explorés…) mais il ‘n’y a pas non plus d’évolutions du SOC lui même depuis la mémoire incluse dans le package, choix décisif à mon sens pour les performances des Mx… sans une évolution des normes / techniques de bande passante et des interconnections à l’intérieur même du SOC peut être que le plafond vient de ces liens Mémoire /CPU/GPU/NPU… les mettre dans le même soc réduit évidemment la latence mais la gestion de ces liens voir l’ordonnancement des instructions vers les modules spécialisés doit amener à ce plafonnement. On le voit par rapport aux autres SOC arm dans presque tous les secteurs le Mx d’Apple est devant que ce soit en terme de performance et surtout d’efficacité … la rupture technologique passera pour moi par une avancée dans les liaisons entre les xPU qui doit devenir le goulet d’étranglement … on ne peux plus rien rapprocher plus rien n’est externe au soc et je n’ai pas vu non plus de rupture de perfs avec les nouveaux designs ARM… il n’y a peut être pas d’intérêt à passer à du 128 bits ni à modifier le PCI express 5-6x mais moi je verrais bien les prochaines ruptures amenés par ce genre d’évolution … on va avoir des M1 optimisés tant que TSMC assure les 15% par an…

Écrit par : Paul Emploi 11 May 2024, 11:05

Citation (yang @ 10 May 2024, 21:24) *
Citation (Paul Emploi @ 9 May 2024, 22:19) *
Comme je m'y attendais, il y a très peu de progrès micro-architecturaux, en fait il n'y en a pas de tangible, ou à la marge.


Dans ce cas, comment expliquer les 22% d'augmentation en single core ? (3087 -> 3767)
Les 8,6% d'augmentation de fréquence ne suffisent pas…
Si ce n'est pas une nouvelle micro-architecture, c'est quoi ?
C'est une vraie question, je ne comprends pas comment c'est possible !

Ça ressemble à un coup de boost de la fréquence en charge monothread, quand les autres cœurs de type Performance ne sont pas utilisés, une nouveauté dans la famille M.
Ça permettrait de rester dans le TDP tout en diminuant les latences sur les tâches interactives et les performances sur les traitements monothread en général.

Et c'est effectivement une bonne question!

Car soit je me fie à Apple sur sa maîtrise retrouvée du TDP contrairement au M3, et l'efficacité (IPC) n'a pas progressé avec 4,4 Ghz maintenus en multithread.
Soit Apple a menti sur ce point, et on a bien une progression de l'efficacité (IPC) mais associée à une baisse de la fréquence de travail en multithread sur l'iPad Pro.
Je suis parti de l'hypothèse qu'Apple n'avait pas menti sur sa gestion de la dissipation thermique et de l'efficacité par Watt, ils ont été très clairs dans leur présentation sur ces points et ont insisté dessus.

Le futur MacBook Pro 14" M4 nous en apprendra beaucoup sur le sujet, grâce à son refroidissement actif.
Mais je serais franchement étonné qu'Apple ai menti ouvertement dans sa présentation.

Écrit par : yang 11 May 2024, 12:15

Citation (Paul Emploi @ 11 May 2024, 12:05) *
Citation (yang @ 10 May 2024, 21:24) *
Citation (Paul Emploi @ 9 May 2024, 22:19) *
Comme je m'y attendais, il y a très peu de progrès micro-architecturaux, en fait il n'y en a pas de tangible, ou à la marge.


Dans ce cas, comment expliquer les 22% d'augmentation en single core ? (3087 -> 3767)
Les 8,6% d'augmentation de fréquence ne suffisent pas…
Si ce n'est pas une nouvelle micro-architecture, c'est quoi ?
C'est une vraie question, je ne comprends pas comment c'est possible !

Ça ressemble à un coup de boost de la fréquence en charge monothread, quand les autres cœurs de type Performance ne sont pas utilisés, une nouveauté dans la famille M.
Ça permettrait de rester dans le TDP tout en diminuant les latences sur les tâches interactives et les performances sur les traitements monothread en général.

Et c'est effectivement une bonne question!

Car soit je me fie à Apple sur sa maîtrise retrouvée du TDP contrairement au M3, et l'efficacité (IPC) n'a pas progressé avec 4,4 Ghz maintenus en multithread.
Soit Apple a menti sur ce point, et on a bien une progression de l'efficacité (IPC) mais associée à une baisse de la fréquence de travail en multithread sur l'iPad Pro.
Je suis parti de l'hypothèse qu'Apple n'avait pas menti sur sa gestion de la dissipation thermique et de l'efficacité par Watt, ils ont été très clairs dans leur présentation sur ces points et ont insisté dessus.

Le futur MacBook Pro 14" M4 nous en apprendra beaucoup sur le sujet, grâce à son refroidissement actif.
Mais je serais franchement étonné qu'Apple ai menti ouvertement dans sa présentation.


Merci pour l'explication, hâte de voir ce que ça va donner pour le reste de la gamme !

Écrit par : maclinuxG4 11 May 2024, 16:37

Citation (moi-je @ 11 May 2024, 11:17) *
Je suis d’accord qu’il n’y a pas de vrais progrès architecturaux depuis le M1 (côté CPU en tous cas, le ray tracing CPU et l’éventuelle évolution NPU semblent peu explorés…) mais il ‘n’y a pas non plus d’évolutions du SOC lui même depuis la mémoire incluse dans le package, choix décisif à mon sens pour les performances des Mx… sans une évolution des normes / techniques de bande passante et des interconnections à l’intérieur même du SOC peut être que le plafond vient de ces liens Mémoire /CPU/GPU/NPU… les mettre dans le même soc réduit évidemment la latence mais la gestion de ces liens voir l’ordonnancement des instructions vers les modules spécialisés doit amener à ce plafonnement. On le voit par rapport aux autres SOC arm dans presque tous les secteurs le Mx d’Apple est devant que ce soit en terme de performance et surtout d’efficacité … la rupture technologique passera pour moi par une avancée dans les liaisons entre les xPU qui doit devenir le goulet d’étranglement … on ne peux plus rien rapprocher plus rien n’est externe au soc et je n’ai pas vu non plus de rupture de perfs avec les nouveaux designs ARM… il n’y a peut être pas d’intérêt à passer à du 128 bits ni à modifier le PCI express 5-6x mais moi je verrais bien les prochaines ruptures amenés par ce genre d’évolution … on va avoir des M1 optimisés tant que TSMC assure les 15% par an…

C'est pas faux....

Écrit par : biaucean 12 May 2024, 10:04

Citation (moi-je @ 11 May 2024, 10:17) *
on va avoir des M1 optimisés tant que TSMC assure les 15% par an…

Oui, il n'y a aucune raison de ne pas aller au bout de l'optimisation tant que Apple est largement devant la concurrence, et de la rentabiliser au maximum. Cela laisse du temps pour travailler une éventuelle nouvelle micro-architecture.

Écrit par : Paul Emploi 12 May 2024, 17:56

Non, il n'y a pas de problème de lien mémoire dans les SoC Apple, sauf les Ultra à cause des limites de l'interconnexion (latence et bande-passante).

La CPU situé sur le bus mémoire de la GPU a largement suffisamment de bande-passante sur le M4.

L'Architecture Mémoire Unifiée est très efficace, il faut voir le SoC comme une GPU qui partage son bus mémoire interne avec d'autres unités dont la CPU qui a bien moins de besoins en terme de bande-passante. La latence est celle attendue pour une CPU, excellente grâce à la connexion directe et non-bufferisée à la mémoire.

Écrit par : aranaud 13 May 2024, 09:52

Je me posse la question de l'intérêt de mettre le processeur "le plus puissant" dans un iPad. La deuxième question, combien de temps tient-il les performances max dans un iPad ?

Écrit par : captaindid 15 May 2024, 16:18

Citation (ekami @ 10 May 2024, 19:12) *
Citation (captaindid @ 10 May 2024, 17:44) *
Dans les OS modernes on ne parle plus de Toolbox, mais d'API, ce qui revient au même; ces API font plein de choses, et pour certaines, notamment la 3D, elles savent très bien s'appuyer sur des puces spécialisées, ou utiliser les instructions spécifiques des CPU modernes.

Merci Captain. Ayant débuté avec le Mac Plus, je connais bien tout ça, mais un petit rappel didactique n'est jamais de trop.
Ma question est d'ordre plus général: Est-il pertinent ce continuer à mettre au point des puces (ou des sous-systèmes sur le SOC) encore plus ultra-spécialisés (quitte à multiplier les API), ou vaut-il mieux explorer d'autres pistes pour continuer à accélérer le hardware ?

C'est ce qu'on continue à faire, soit par un circuit spécialisé, soit par des nouvelles instructions du CPU.
Je crois qu'on arrive au bout du bout: toutes les fonctionnalités "accélérables" (c'est à dire ayant une toute petite boucle dans le code, faisant un traitement spécifique, et utilisée assez souvent, pour que ça vaille le coup de l'implémenter) ont été faites:
par exemple l'apparition du M1 : en plus d'un CPU + FPU+ instructions vectorielles etc... accompagné d'une carte vidéo qui fait accélération 2D + 3D + (dé)compression vidéo, Apple a introduit des unités d'IA, de chiffrage/sécurité.
Bon pour cette dernière, Apple ajoutait déjà une puce spécialisée sur la carte mère des derniers Mac Intel
What Else?

Dans les puces spécialisées courantes citées dans mon post précédent, je n'ai pas parlé des unités DMA (Direct Memory Acces, utiles pour les transferts et copie mémoires), des unités MMU (Memory Management Unit pour gérer la mémoire virtuelle et paginée) toutes deux depuis fort longtemps intégrées dans les CPU et SoC
j'aurais pu parler aussi des cartes de gestion des grappes de disque RAID, (Adaptec ...), maintenant c'est souvent fait en software, c'est moins cher mais c'est moins bien aussi...

Après on trouve des cartes spécialisée, utiles que pour certains métiers, peu diffusées donc chères, pour faire des calculs spécifiques, dont des labos de recherche: ce type de carte ne seront jamais intégrées dans des SoC, car inutiles pour quasiment tout le monde.
Dans ce type de cartes ultra spécifique, on peut y mettre la carte d'extension optionnelle du dernier Mac Pro Intel: carte d'acquisition vidéo pro, avec compression et décompression de quelques codecs pro, tout cela à un prix "pro"!

une fonctionnalité qui n'a jamais été accélérée à ma connaissance est la compression sans pertes: comme un circuit d'accélération de l'algo LZW (utilisée par les archives compressées ZIP et équivalentes).
ceci dit, vu les multiples implémentations et optimisations de cet algo, incompatibles entre elles bien que similaires, pour tenter de réduire à chaque fois la taille de l'archive résultante, une puce, par nature figée se serait trouvée de suite obsolète, et inutilisable par bien des programmes de compression: c'est surement la raison pour laquelle cette opération est toujours software.

j'avais aussi entendu parler il y a très longtemps du projet d'une puce pour accélérer les fonctions primitives nécessaires à un jeu d'échecs. il y a eu un échec wink.gif pour le financement du projet, vu le petit marché.

Écrit par : Fabrice_75015 17 May 2024, 17:41

Bonjour à tous,

ce qui n'est pas clair pour moi c'est à quoi servent les NPU ?
En effet, je joue un peu avec les LLM (llama, fooocus, etc..) et aucun n'utilise les NPU. Ils utilisent tous le GPU, via Metal Persofrmance Shaders (https://developer.apple.com/documentation/metalperformanceshaders). D'ailleurs fooocus fonctionne sur mon Mac Intel/AMD eGPU.
En discutant sur les différents forums github, il s'avère que la plupart des dev de LLM se font sur base des GPU, et modifier le code pour utiliser les NPU semble complexe (voir il se peut que les GPU soient de toute façon beaucoup plus puissants).

Les NPU sont spécialisés dans le calcul matriciel, ce que font aussi les GPU... la différence : les GPU travaillent dans la VRAM et les NPU directement dans la RAM. Pour les machines Apple ARM cela ne change rien, car on est en mémoire unifiée... d'où ma question ? Est-ce que les NPU ont vocation à dépasser la puissance des GPU dans un avenir très proche ?

Écrit par : STRyk 22 May 2024, 09:53

Attendez le M5... laugh.gif

Écrit par : Hebus 24 May 2024, 14:09

Vidséo très instructive sur les différences du M4 avec les prévédentes versions


Propulsé par Invision Power Board (http://www.invisionboard.com)
© Invision Power Services (http://www.invisionpower.com)