IPB

Bienvenue invité ( Connexion | Inscription )

3 Pages V  < 1 2 3 >  
Reply to this topicStart new topic
> Un retour de force dans la Touch Bar, Réactions à la publication du 27/11/2020
Options
vlady
posté 27 Nov 2020, 19:03
Message #31


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 2 627
Inscrit : 26 Jun 2010
Lieu : Paris
Membre no 155 873



Citation (downanotch @ 27 Nov 2020, 18:02) *
Un technicien d'Apple indiquait que certains opérations d'allocation / release mémoire était 4-5 fois plus rapide sur Apple Silicon. Partant de là, on peut imaginer que là ou macOS garde en cache certains objets sur Intel, il les libère plus facilement sur Apple Silicon, diminuant ainsi l'empreinte mémoire.


Tu ne confond ça avec Objective-C retain/release (gestion de mémoire de type "ref counting") ? Ça oui, c'est bien plus rapide (après tout tout leurs soft écrit en Obj-C/Swift passe son temps à faire du ref counting), mais ce n'est rien avoir avec l'économie de mémoire.

https://twitter.com/Catfish_Man/status/1326...4235568128?s=20

Ce message a été modifié par vlady - 27 Nov 2020, 19:48.


--------------------
Macbook 16" M1 Pro 32GB/1TB + Studio Display, Dell Precision 3640 i7-10700K/32GB, Fedora 36 Linux, Casque Sony WH-1000XM4, iPhone 6s 64GB
Go to the top of the page
 
+Quote Post
fudo
posté 27 Nov 2020, 19:05
Message #32


Macbidouilleur d'argent !
***

Groupe : Membres
Messages : 766
Inscrit : 1 Oct 2004
Membre no 24 498



Citation (Padbol38 @ 27 Nov 2020, 11:45) *
Quitte à faire la liste au père Noël je ne serai pas contre un écran tactile, qui aurait du sens avec l'intégration des apps iOS (peu probable... ça cannibaliserait des ipad)
Et un peu plus de connectique USB ? ou HDMI ? Il y a de bonnes chances que le mini jack disparaisse j'imagine, autant compenser.
Bien sûr une webcam Full HD

Je suis d'accord pour l'education... jusqu'à maintenant on avait la tablette avec le clavier comme accessoire
Maintenant que la gamme informatique ARM est là, on pourrait avoir un portable avec un ecran tactile intégré.. perso c'est ce que j'attends... l'équivalent d'un Surface Book à la sauce Apple.
Ca pourrait prendre pas mal de part de marché dans l'Education.. après reste le prix qui freine.
Mais les gadgets touch bar... pour moi c'est sans intérêt... juste des cause supplémentaires de pannes potentielles... je préfèrais autant que le trackpad puisse disposer de 2 zones... une normale et une autre plus grande qui engloberait la zone qu'on a l'habitude d'utilsier pour l'exploiter avec un pencil comme une tablette graphique...
Bref, comme dit avant avec toute cette place inutilisé y a moyen d'imaginer des tas de choses.


--------------------
Hackintosh 2 (config Fanless with GPU) : Streacom DB4 / Corsair SF600 / Asus Z370-i / i7-8700T / WiFi & BT carte Apple + adaptateur M.2-PCIe / MSI RX560 / SSD 512Go M.2 NVMe x2 (multiboot)
Macbook Air M1
Go to the top of the page
 
+Quote Post
SartMatt
posté 27 Nov 2020, 22:27
Message #33


Macbidouilleur d'Or !
*****

Groupe : Rédacteurs
Messages : 32 187
Inscrit : 15 Nov 2005
Membre no 49 996



Citation (iAPX @ 27 Nov 2020, 18:18) *
PS: les drivers d'Intel sont très probablement en cause, j'aurais aimé qu'ils trouvent un moyen de "récupérer" une partie de cette mémoire allouée statiquement pour le cache-disque, quitte à passer par les drivers d'Intel, pour que ça ne soit pas une perte totale.
Non, ce n'est pas une question de drivers. La RAM dédiée est fixée par le firmware au démarrage, ça ne peut pas se modifier dynamiquement après le boot. C'est pour ça que sur les PC ça se règle dans le BIOS, pas dans les paramètres du driver Intel.

C'est quand même hallucinant d'allouer une telle quantité de RAM alors que les PC avec le même GPU allouent à peine quelques dizaines ou centaines de Mo.

Ce message a été modifié par SartMatt - 27 Nov 2020, 22:30.


--------------------

Go to the top of the page
 
+Quote Post
iAPX
posté 27 Nov 2020, 22:43
Message #34


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 15 384
Inscrit : 4 Jan 2006
Lieu : dtq
Membre no 52 877



Citation (SartMatt @ 27 Nov 2020, 16:27) *
Citation (iAPX @ 27 Nov 2020, 18:18) *
PS: les drivers d'Intel sont très probablement en cause, j'aurais aimé qu'ils trouvent un moyen de "récupérer" une partie de cette mémoire allouée statiquement pour le cache-disque, quitte à passer par les drivers d'Intel, pour que ça ne soit pas une perte totale.
Non, ce n'est pas une question de drivers. La RAM dédiée est fixée par le firmware au démarrage, ça ne peut pas se modifier dynamiquement après le boot. C'est pour ça que sur les PC ça se règle dans le BIOS, pas dans les paramètres du driver Intel.

C'est quand même hallucinant d'allouer une telle quantité de RAM alors que les PC avec le même GPU allouent à peine quelques dizaines ou centaines de Mo.

Surtout pour ce que le bousin peut vraiment faire, le plus drôle étant sur un MBP 15" 2017 où dès qu'on branche un écran externe la dGPU embarque obligatoirement (la iGPU est pas câblée sur les ports Thunderbolt), pareil pour les jeux en 3D, donc il n'a jamais qu'un seul écran à gérer et en 2D, 512Mo serait probablement amplement suffisant!

Ce message a été modifié par iAPX - 27 Nov 2020, 23:17.


--------------------
Utilisateur de Mac depuis 1985 et possesseur de Mac depuis 2005. Utilisateur d'un PC Lenovo au travail, sous Windows, qui renforce ma passion pour les Mac!
Go to the top of the page
 
+Quote Post
fkanker
posté 27 Nov 2020, 22:49
Message #35


Adepte de Macbidouille
*

Groupe : Membres
Messages : 192
Inscrit : 25 Mar 2019
Membre no 207 706



Citation (SartMatt @ 27 Nov 2020, 22:27) *
C'est quand même hallucinant d'allouer une telle quantité de RAM alors que les PC avec le même GPU allouent à peine quelques dizaines ou centaines de Mo.

Je sais bien que tu as dit rarement avant et que tu as du voir passer plus de CM que moi, mais rarement à quel point? Ma CM (Asus Z170 Pro Gaming) avec un i5 7600 permet d'allouer jusqu'à 1 Go de RAM. Et il me semble bien qu'elle pouvait monter jusqu'à 1.5 Go avec un bios plus ancien (mais je peux me tromper).
Édit : ce que je veux dire, c’est que je suis tombé sur une exception ou c’est quand même relativement répandu?

Ce message a été modifié par fkanker - 27 Nov 2020, 23:11.


--------------------
Les anciens ici vous le diront : ne jamais acheter un produit Apple, ne jamais mettre à jour le système vers une nouvelle version.
Go to the top of the page
 
+Quote Post
TotOOntHeMooN
posté 28 Nov 2020, 08:45
Message #36


Macbidouilleur de vermeil !
****

Groupe : Membres
Messages : 839
Inscrit : 25 Oct 2005
Membre no 48 636



Citation (Pyth @ 27 Nov 2020, 17:57) *
Sans vouloir faire glisser le débat, vous vous rendez bien compte que cette fonctionnalité permet de créer des bases de données de reconnaissance faciale extrêmement précises, validées et actualisées par vous mêmes et dont on ne sait pas comment elles sont ou seront utilisées ? Ça ressemble furieusement au mode d'action de Google qui offre un service en échange de notre vie privée. Ça ne vous interpelle pas plus que ça ?
Les gens n'en pensent rien. Ca leurs rend service à court terme, alors ils ne se posent pas la question du long terme... C'est vraiment flippant.
Go to the top of the page
 
+Quote Post
SartMatt
posté 28 Nov 2020, 09:41
Message #37


Macbidouilleur d'Or !
*****

Groupe : Rédacteurs
Messages : 32 187
Inscrit : 15 Nov 2005
Membre no 49 996



Citation (fkanker @ 27 Nov 2020, 23:49) *
Citation (SartMatt @ 27 Nov 2020, 22:27) *
C'est quand même hallucinant d'allouer une telle quantité de RAM alors que les PC avec le même GPU allouent à peine quelques dizaines ou centaines de Mo.

Je sais bien que tu as dit rarement avant et que tu as du voir passer plus de CM que moi, mais rarement à quel point? Ma CM (Asus Z170 Pro Gaming) avec un i5 7600 permet d'allouer jusqu'à 1 Go de RAM. Et il me semble bien qu'elle pouvait monter jusqu'à 1.5 Go avec un bios plus ancien (mais je peux me tromper).
Édit : ce que je veux dire, c’est que je suis tombé sur une exception ou c’est quand même relativement répandu?
Rarement dans le sens où perso je l'ai jamais vu, sur une bonne vingtaines de machines.

Sur mes 3 machines actuelles, c'est 256 Mo sur les deux desktop (i7-6700K sur Z170 et i3-8300T sur je ne sais plus quoi) et 64 Mo par défaut à priori non configurable sur le laptop (i7-7700K sur XPS 15)...

J'ai vraiment du mal à voir l'intérêt de réserver une telle quantité à l'IGP. La mémoire réservé est nécessaire pour le frame-buffer et pour quelques usages internes. Pour tout le reste (stockage de textures par exemple) il peut utiliser dynamiquement le reste de la RAM en fonction des besoins.

EDIT : je me rends compte en y réfléchissant que c'est peut-être une conséquence du Retina... Parce que forcément, le Retina ça multiplie par 4 les besoins en frame-buffer... Là ou 256 Mo suffisent à gérer 3 écrans 4K en triple buffering, il faut du coup 1 Go pour gérer 3 écrans 4K "Retina" (donc en fait 8K)...
Mais du coup c'est quand même dommage de réserver ça d'office, sans laisser à l’utilisateur la possibilité d'adapter à son utilisation.

Citation (Pyth @ 27 Nov 2020, 17:57) *
Citation (Lionel @ 27 Nov 2020, 08:32) *
A cette occasion, nous ne serions pas surpris qu'Apple ajoute également le Face-ID à ses portables, ce qui serait somme toute très pratique.
Sans vouloir faire glisser le débat, vous vous rendez bien compte que cette fonctionnalité permet de créer des bases de données de reconnaissance faciale extrêmement précises, validées et actualisées par vous mêmes et dont on ne sait pas comment elles sont ou seront utilisées ?
Jusqu'à preuve du contraire, les données de Face ID ne sont pas transmises à Apple et n'ont absolument aucune raison de l'être.

Et si tu pars du principe que c'est collecté quand même en douce, alors de toute façon ça peut être le cas avec toute machine équipée d'une webcam, qu'il y ait Face ID ou non.

Ce message a été modifié par SartMatt - 28 Nov 2020, 09:42.


--------------------

Go to the top of the page
 
+Quote Post
aranaud
posté 28 Nov 2020, 10:08
Message #38


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 4 750
Inscrit : 6 Oct 2003
Membre no 10 144



Citation (SartMatt @ 28 Nov 2020, 09:41) *
EDIT : je me rends compte en y réfléchissant que c'est peut-être une conséquence du Retina... Parce que forcément, le Retina ça multiplie par 4 les besoins en frame-buffer... Là ou 256 Mo suffisent à gérer 3 écrans 4K en triple buffering, il faut du coup 1 Go pour gérer 3 écrans 4K "Retina" (donc en fait 8K)...
Mais du coup c'est quand même dommage de réserver ça d'office, sans laisser à l’utilisateur la possibilité d'adapter à son utilisation.

Sa ne doit pas être bien compliquer de detecter les écrans et de reserver la mémoire en conséquence sans que l'utilisateur est besoin de le faire en manuel.

[mode suspicieux]Il faut plomber les processeurs intel pour montrer que les processeurs maisons sont plus performant.[/mode suspicieux]


--------------------
Hackintosh cru 2013 i7 3,5 GHz, Gigabyte Z87X-UD5H, 32 Go, Radeon RX 580, Catalina & Windows 7.1, opencore (0.6.2) & Clover (5107), Magic Trackpad - MacBook Pro cru 2012 15" 2.6GHz, HD Antireflet, 8Go, Catalina - Mac Mini cru 2012 2,5 GHz, 4 Go, High Sierra. iPad Air (4ᵉ génération).
Mac Mini cru 2011 2,7 GHz, 8 Go, El Capitan (mort)
Go to the top of the page
 
+Quote Post
zero
posté 28 Nov 2020, 10:20
Message #39


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 12 571
Inscrit : 25 Nov 2001
Membre no 1 397



Citation (shawnscott @ 27 Nov 2020, 17:44) *
Citation (mirmidon @ 27 Nov 2020, 08:48) *
Si seulement il pouvaient profiter de la place qui ne manque pas pour ajouter plus de RAM……

Apparemment, les processeurs M1 n'ont pas besoin de beaucoup de RAM

Il y a besoin moins de RAM depuis que MacOS compresse les données des applis ouverte mais inactives (et il se sert sans doute du disque aussi). Ça date d'avant le M1 en tout cas.
Go to the top of the page
 
+Quote Post
SartMatt
posté 28 Nov 2020, 12:20
Message #40


Macbidouilleur d'Or !
*****

Groupe : Rédacteurs
Messages : 32 187
Inscrit : 15 Nov 2005
Membre no 49 996



Citation (aranaud @ 28 Nov 2020, 11:08) *
Citation (SartMatt @ 28 Nov 2020, 09:41) *
EDIT : je me rends compte en y réfléchissant que c'est peut-être une conséquence du Retina... Parce que forcément, le Retina ça multiplie par 4 les besoins en frame-buffer... Là ou 256 Mo suffisent à gérer 3 écrans 4K en triple buffering, il faut du coup 1 Go pour gérer 3 écrans 4K "Retina" (donc en fait 8K)...
Mais du coup c'est quand même dommage de réserver ça d'office, sans laisser à l’utilisateur la possibilité d'adapter à son utilisation.
Sa ne doit pas être bien compliquer de detecter les écrans et de reserver la mémoire en conséquence sans que l'utilisateur est besoin de le faire en manuel.
Je pense que ça ne peut pas se faire dynamiquement, d'où le fait que sur les PC le réglage se fasse dans le BIOS, pas dans les options du driver. Du coup au moment où les écrans sont détectés c'est sans doute déjà trop tard.

Mais il pourrait y avoir un réglage accessible aux utilisateurs, en leur indiquant le maximum pris en charge niveau écran en fonction de la quantité choisie, et avec reboot pour prise en compte du réglage.


--------------------

Go to the top of the page
 
+Quote Post
otto87
posté 28 Nov 2020, 13:30
Message #41


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 2 228
Inscrit : 12 Jun 2009
Membre no 137 508



Belle farce marketing cette unified memory pour faire passer comme un bénéfice ce qui est une parfaite limitation...
Une inférence sur le réseau sur lequel je bosse, c'est 16Go de Ram juste pour python laugh.gif


--------------------
Ne vous plaignez pas, pour une fois notre gouvernement nous écoute SYSTEMATIQUEMENT!!!!!!
Niveau GPGPU je bosse sur un des 500 plus gros calculateur du monde....
Mac Plus, SE 30,SI,CI,LC 1,2,3,4,imac G3, G4 Tour,imac intel, mac book 13",Dell Precision
Go to the top of the page
 
+Quote Post
yann.og
posté 28 Nov 2020, 13:30
Message #42


Macbidouilleur de bronze !
**

Groupe : Membres
Messages : 280
Inscrit : 19 May 2003
Lieu : nord-est des Yvelines
Membre no 7 669



Et si la Touch Bar venait à utiliser la technologie développée par Hap2U ?


--------------------
Membre du club des AIPBP (Anciens Inscrits Pas Beaucoup de Posts) Voir la règle d'éligibilité
Go to the top of the page
 
+Quote Post
iAPX
posté 28 Nov 2020, 17:14
Message #43


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 15 384
Inscrit : 4 Jan 2006
Lieu : dtq
Membre no 52 877



Citation (otto87 @ 28 Nov 2020, 07:30) *
Belle farce marketing cette unified memory pour faire passer comme un bénéfice ce qui est une parfaite limitation...
Une inférence sur le réseau sur lequel je bosse, c'est 16Go de Ram juste pour python laugh.gif

Et c'est censé tourner sur un MacBook Air?
Ou une machine d'entrée-de-gamme est censée proposée 32 Go ou 64 Go de RAM?

Sérieusement, il faut se souvenir qu'on parle de Mac portables d'entrée-de-gamme, avec un prix correspondant, même si les performances brutes sont haut-de-gamme, au lieu de les traiter comme des machines haut-de-gamme trop limitées!
Le haut-de-gamme portable viendra plus tard, je l'attend avec impatience smile.gif

Et l'intérêt de la mémoire unifiée n'est essentiellement pas de limiter la consommation mémoire dans de nombreux cas, c'est un effet collatéral, mais au contraire de partager l'accès à toute la RAM aux différentes unitées.
Signifiant que justement dans ton cas d'inférence de 16 Go, elle sera très probablement exécutable par la NPU ou la GPU dans une config 32 Go, sans copie mémoire, sans avoir besoin d'une unité avec 16Go dédiée, donc avec beaucoup moins de ressources utilisées mais surtout bien plus de ressources utilisables pour chaque unité en fonction des tâches.

PS: hâte de voir quelle configuration d'ordinateur portable (sinon portatif et encore) pourrait faire tourner directement une inférence de 16Go et à quel prix, sauf à n'utiliser que la CPU!!!

Ce message a été modifié par iAPX - 28 Nov 2020, 17:33.


--------------------
Utilisateur de Mac depuis 1985 et possesseur de Mac depuis 2005. Utilisateur d'un PC Lenovo au travail, sous Windows, qui renforce ma passion pour les Mac!
Go to the top of the page
 
+Quote Post
Guest_Matyu_*
posté 28 Nov 2020, 17:38
Message #44





Guests






Si je devais avoir la Touch Bar sur ma prochaine machine je ferais avec mais je reste quand même assez dubitatif sur l’intérêt réel de la Touch Bar. Je cite ce que lis sur le site d'Apple :

«Pour aller droit au but. Profitez d'encore plus de raccourcis et de fonctionnalités, comme vos emojis préférés, vos langues de prédilection et un accès plus direct à Siri».

Alors déjà j’utilise depuis un bon nombre d'années les raccourcis clavier sur Mac qui sont une combinaison de touches.
Là, pas besoin de Touch Bar. Au cours des derniers mois je n'ai pas ou quasiment pas utilisé les emoji sauf une fois pour échanger avec une fille sur WhatsApp, sur mon iPhone. Je n'utilise pas du tout Siri.
Go to the top of the page
 
+Quote Post
otto87
posté 29 Nov 2020, 02:32
Message #45


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 2 228
Inscrit : 12 Jun 2009
Membre no 137 508



Citation (iAPX @ 28 Nov 2020, 18:14) *
Citation (otto87 @ 28 Nov 2020, 07:30) *
Belle farce marketing cette unified memory pour faire passer comme un bénéfice ce qui est une parfaite limitation...
Une inférence sur le réseau sur lequel je bosse, c'est 16Go de Ram juste pour python laugh.gif

Et c'est censé tourner sur un MacBook Air?
Ou une machine d'entrée-de-gamme est censée proposée 32 Go ou 64 Go de RAM?

Sérieusement, il faut se souvenir qu'on parle de Mac portables d'entrée-de-gamme, avec un prix correspondant, même si les performances brutes sont haut-de-gamme, au lieu de les traiter comme des machines haut-de-gamme trop limitées!
Le haut-de-gamme portable viendra plus tard, je l'attend avec impatience smile.gif

Et l'intérêt de la mémoire unifiée n'est essentiellement pas de limiter la consommation mémoire dans de nombreux cas, c'est un effet collatéral, mais au contraire de partager l'accès à toute la RAM aux différentes unitées.
Signifiant que justement dans ton cas d'inférence de 16 Go, elle sera très probablement exécutable par la NPU ou la GPU dans une config 32 Go, sans copie mémoire, sans avoir besoin d'une unité avec 16Go dédiée, donc avec beaucoup moins de ressources utilisées mais surtout bien plus de ressources utilisables pour chaque unité en fonction des tâches.

PS: hâte de voir quelle configuration d'ordinateur portable (sinon portatif et encore) pourrait faire tourner directement une inférence de 16Go et à quel prix, sauf à n'utiliser que la CPU!!!


J'ai ta réponse un pauvre portable dell i5 avec un petit GPU (en gros une 960 avec ECC) avec 32 Go de Ram.. CPU only, avec un GPU avec moins de 16 Go de ram, rien d'envisageable....
Le seul mac portable qui puisse répondre à cette charge, c'est le mbp 16" qui coûte le double (je suis gentil) de ma machine achetée il y a 3 ans... sauf que je peux passer à 64 Go de ram et ajouter 2 ssd pour dépasser les 1.5 to de stockage que j'ai....bref un mac book pro à 8000 euros laugh.gif
Mais bon le plus drôle c'est qu'il n'y a pas de support metal pour tensor flow qui est clairement l'API number 1 on deep learning....

Bref, le mac et le deep learning c'est pour faire de l'inférence a petit prix avec des réseaux minimalistes!!
Edit ; on est parti pour siggraph, les vacances de noël vont être courtes!!!!

Ce message a été modifié par otto87 - 29 Nov 2020, 02:41.


--------------------
Ne vous plaignez pas, pour une fois notre gouvernement nous écoute SYSTEMATIQUEMENT!!!!!!
Niveau GPGPU je bosse sur un des 500 plus gros calculateur du monde....
Mac Plus, SE 30,SI,CI,LC 1,2,3,4,imac G3, G4 Tour,imac intel, mac book 13",Dell Precision
Go to the top of the page
 
+Quote Post
zero
posté 29 Nov 2020, 03:44
Message #46


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 12 571
Inscrit : 25 Nov 2001
Membre no 1 397



Citation (SartMatt @ 28 Nov 2020, 01:09) *
Citation (iAPX @ 27 Nov 2020, 14:20) *
C'est justement cela la "Unified Memory", et ça fait économiser plus de 1 Go au démarrage ton "marginal", même avec un écran 4K, ce qui avec 8 Go de base est bienvenu.
Donc Apple allouait plus d'1 Go de RAM au frame buffer sur les Mac Intel ? Ça m'étonne quand même, sachant que sur PC les options dans le BIOS pour l'allocation du framebuffer laissent rarement aller au-delà de 128 ou 256 Mo...

Laisse tomber SartMatt, iAPX se fait un film sur le "Unified Memory" juste parce qu'Apple a remplacé "shared" par "Unified". Apple aime bien changer les termes pour se donner un air différent. Et ça prend bien.

Ce message a été modifié par zero - 29 Nov 2020, 03:44.
Go to the top of the page
 
+Quote Post
fkanker
posté 29 Nov 2020, 09:40
Message #47


Adepte de Macbidouille
*

Groupe : Membres
Messages : 192
Inscrit : 25 Mar 2019
Membre no 207 706



Citation (zero @ 29 Nov 2020, 03:44) *
Citation (SartMatt @ 28 Nov 2020, 01:09) *
Citation (iAPX @ 27 Nov 2020, 14:20) *
C'est justement cela la "Unified Memory", et ça fait économiser plus de 1 Go au démarrage ton "marginal", même avec un écran 4K, ce qui avec 8 Go de base est bienvenu.
Donc Apple allouait plus d'1 Go de RAM au frame buffer sur les Mac Intel ? Ça m'étonne quand même, sachant que sur PC les options dans le BIOS pour l'allocation du framebuffer laissent rarement aller au-delà de 128 ou 256 Mo...

Laisse tomber SartMatt, iAPX se fait un film sur le "Unified Memory" juste parce qu'Apple a remplacé "shared" par "Unified". Apple aime bien changer les termes pour se donner un air différent. Et ça prend bien.

dry.gif
http://www.printscreenmac.com/apple-m1-wha...dedicated-vram/


--------------------
Les anciens ici vous le diront : ne jamais acheter un produit Apple, ne jamais mettre à jour le système vers une nouvelle version.
Go to the top of the page
 
+Quote Post
iAPX
posté 29 Nov 2020, 14:20
Message #48


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 15 384
Inscrit : 4 Jan 2006
Lieu : dtq
Membre no 52 877



Et en bonus, pas de transcodage de données (cf. https://youtu.be/5AwdkGKmZ0I?t=454 ), pas d'éviction ou de pollution de cache avec le SLC partagé par toutes les unités: ça donne des latences incroyablement faibles pour utiliser NPU ou GPU, ce qui les rend rentables pour des tâches relativement courtes, un avantage qui avait déjà été observé sur les iGPU par rapport aux dGPU, mais là c'est encore plus marqué.

Ça doit être présent sur les iPhone depuis un moment, au moins depuis le A12 puisque aussi présent dans le A12z, sans que Apple ne s'en soit vanté.

PS: pour moi le SLC est le composant clé du M1, permettant une intégration réussie, avec son cache L3 mais surtout une bande-passante qui semble énorme (et très difficile à mesurer!) pour alimenter GPU et NPU, qui sont pas mal gloutons.

Ce message a été modifié par iAPX - 29 Nov 2020, 14:45.


--------------------
Utilisateur de Mac depuis 1985 et possesseur de Mac depuis 2005. Utilisateur d'un PC Lenovo au travail, sous Windows, qui renforce ma passion pour les Mac!
Go to the top of the page
 
+Quote Post
zero
posté 29 Nov 2020, 14:25
Message #49


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 12 571
Inscrit : 25 Nov 2001
Membre no 1 397



Réveillez-vous, et arrêtez de gober les expliquations du service marketing sans réfléchir. Apple a juste intégré la RAM dans le M1 pour accéder y plus directement. C'est la seule différence avec ce qui se fait habituellement. Evidement, les accès à la RAM sont plus rapides comme ça et d'autant plus puisque c'est gravé en 5nm mais, en contre partie, il n'y a plus d'évolution possible. Il n'y a pas de quoi fantasmer.

PS: A mon avis, les puce M1 actuelles ont toutes 16Go de RAM mais Apple doit en désactiver la moitié pour les configs de 8Go.

Ce message a été modifié par zero - 29 Nov 2020, 14:29.
Go to the top of the page
 
+Quote Post
SartMatt
posté 29 Nov 2020, 15:08
Message #50


Macbidouilleur d'Or !
*****

Groupe : Rédacteurs
Messages : 32 187
Inscrit : 15 Nov 2005
Membre no 49 996



Citation (zero @ 29 Nov 2020, 15:25) *
Apple a juste intégré la RAM dans le M1 pour accéder y plus directement.
Non, elle n'est pas intégrée dans le M1. La mémoire reste dans des puces séparées, placées juste à côté sur le même package.

Cf le démontage par iFixit par exemple : https://d3nevzfk7ii3be.cloudfront.net/igi/FxeSiyYSpBwt6keG

Le gros rectangle gris, c'est le M1, visiblement recouvert par un heatspreader, les deux petits rectangles noirs à côté ce sont deux puces de RAM de 4 Go.

Citation (zero @ 29 Nov 2020, 15:25) *
PS: A mon avis, les puce M1 actuelles ont toutes 16Go de RAM mais Apple doit en désactiver la moitié pour les configs de 8Go.
Non. 2x4 Go sur la machine 8 Go démontée par iFixit.

Citation (zero @ 29 Nov 2020, 15:25) *
C'est la seule différence avec ce qui se fait habituellement.
Non, ce n'est pas la seule différence. Il n'y a plus une partie de la RAM qui est réservée au GPU (comme c'est le cas avec les IGP Intel) et le GPU peut accéder directement à l'intégralité de la RAM à pleine vitesse (l'IGP le peut, mais c'est de la RAM "lente" par rapport à la RAM des cartes graphiques, et les GPU sur carte graphique peuvent accéder à la RAM système, mais à travers le bus PCI-E, ce qui est encore plus lent).

Ce message a été modifié par SartMatt - 29 Nov 2020, 15:09.


--------------------

Go to the top of the page
 
+Quote Post
iAPX
posté 29 Nov 2020, 15:45
Message #51


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 15 384
Inscrit : 4 Jan 2006
Lieu : dtq
Membre no 52 877



Et pour terminer sur le sujet, qui a vraiment glissé...

La technologie vient des iPhone (et iPad, et PommeMontre, ...), où elle a été développée pour fournir la meilleure interaction possible, avec des latences extrêmement faibles, et où donc les architectures logicielles et matérielles sont conçues autour de la diminution des latences, car la plupart de nos usages sur nos smartphone sont triviaux pour ne pas dire plus, mais un manque de réactivité ou des saccades lors d'animations sont vécus très négativement même si l'appareil a une grosse puissance de traitement (voir de manière affective!).

Le SoC M1 est très puissant, son prédécesseur A12z pour le Mac Mini DTK n'était qu'au niveau des puces Intel de l'époque, mais dans les deux cas il y a une caractéristique unique et qui vient du monde des smartphone: la réactivité.
Les Mac avec Apple Silicon sont très réactifs, même sur de très fortes charges, les rendant très agréables à utiliser au quotidien (ça créé un rapport affectif que je n'ai pas avec mes fermes sur AWS!).

Pour résumer, les nouveaux Mac ont appris des iPhone et iPad, et c'est -aussi- pour cela qu'ils sont meilleurs qu'avant!

PS: je ne suis pas amateur de Kool-Aid, faut d'ailleurs que je parle des batteries sur mes appareils pommés, où la durée de vie semble bien paumée pour le coup!

Ce message a été modifié par iAPX - 29 Nov 2020, 16:24.


--------------------
Utilisateur de Mac depuis 1985 et possesseur de Mac depuis 2005. Utilisateur d'un PC Lenovo au travail, sous Windows, qui renforce ma passion pour les Mac!
Go to the top of the page
 
+Quote Post
vlady
posté 29 Nov 2020, 17:43
Message #52


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 2 627
Inscrit : 26 Jun 2010
Lieu : Paris
Membre no 155 873



Citation (iAPX @ 29 Nov 2020, 14:20) *
Et en bonus, pas de transcodage de données (cf. https://youtu.be/5AwdkGKmZ0I?t=454 ), pas d'éviction ou de pollution de cache avec le SLC partagé par toutes les unités: ça donne des latences incroyablement faibles pour utiliser NPU ou GPU, ce qui les rend rentables pour des tâches relativement courtes, un avantage qui avait déjà été observé sur les iGPU par rapport aux dGPU, mais là c'est encore plus marqué.

Ça doit être présent sur les iPhone depuis un moment, au moins depuis le A12 puisque aussi présent dans le A12z, sans que Apple ne s'en soit vanté.

PS: pour moi le SLC est le composant clé du M1, permettant une intégration réussie, avec son cache L3 mais surtout une bande-passante qui semble énorme (et très difficile à mesurer!) pour alimenter GPU et NPU, qui sont pas mal gloutons.


Dans la vie réelle c'est plus compliqué que ça. On peut pas modifier les données qui peuvent être utilisées au même moment par un shader, il faut donc élaborer des tactiques de coordination entre les "fournisseurs" (pipeline de préparation données pour les frames à venir) et "consommateurs" de données (shaders, ...) et ça mène presque toujours à une certaine redondance et surconsommation de mémoire. Bref, même si la mémoire est partagée ça ne veut pas forcement dire que t'en utiliseras moins.

Ce message a été modifié par vlady - 29 Nov 2020, 17:44.


--------------------
Macbook 16" M1 Pro 32GB/1TB + Studio Display, Dell Precision 3640 i7-10700K/32GB, Fedora 36 Linux, Casque Sony WH-1000XM4, iPhone 6s 64GB
Go to the top of the page
 
+Quote Post
iAPX
posté 29 Nov 2020, 17:59
Message #53


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 15 384
Inscrit : 4 Jan 2006
Lieu : dtq
Membre no 52 877



Citation (vlady @ 29 Nov 2020, 11:43) *
Citation (iAPX @ 29 Nov 2020, 14:20) *
Et en bonus, pas de transcodage de données (cf. https://youtu.be/5AwdkGKmZ0I?t=454 ), pas d'éviction ou de pollution de cache avec le SLC partagé par toutes les unités: ça donne des latences incroyablement faibles pour utiliser NPU ou GPU, ce qui les rend rentables pour des tâches relativement courtes, un avantage qui avait déjà été observé sur les iGPU par rapport aux dGPU, mais là c'est encore plus marqué.

Ça doit être présent sur les iPhone depuis un moment, au moins depuis le A12 puisque aussi présent dans le A12z, sans que Apple ne s'en soit vanté.

PS: pour moi le SLC est le composant clé du M1, permettant une intégration réussie, avec son cache L3 mais surtout une bande-passante qui semble énorme (et très difficile à mesurer!) pour alimenter GPU et NPU, qui sont pas mal gloutons.


Dans la vie réelle c'est plus compliqué que ça. On peut pas modifier les données qui peuvent être utilisées au même moment par un shader, il faut donc élaborer des tactiques de coordination entre les "fournisseurs" (pipeline de préparation données pour les frames à venir) et "consommateurs" de données (shaders, ...) et ça mène presque toujours à une certaine redondance et surconsommation de mémoire. Bref, même si la mémoire est partagée ça ne veut pas forcement dire que t'en utiliseras moins.

TL;DR Apple parie sur l'inférence (l'IA si on préfère) et son architecture est basée autour de son usage

Là tu parles de génération d'images 3D avec des shaders, et même si c'est aussi une partie de l'expérience sur laquelle il faut revenir, car justement l'iGPU est créée pour Metal expliquant ses sous-performances avec OpenCL, quand une autre GPU sous-performe sous Metal mais est plus performante en OpenCL, idem avec les autres API qui sont traduites, ça n'est pas le seul but de l'iGPU du SoC M1.

L'iGPU du M1 fait complètement partie de la stratégie d'Apple d'intégrer de l'inférence à tous les niveaux.
Elle fait aussi des images 3D avec Metal, du compute avec le sous-ensemble de Metal adéquat, mais je pense que la priorité a été donné à l'inférence.

Pour le reste (la 3D), si on regarde l'intégration, et l'incroyable pression mémoire amenée par les textures sur les jeux modernes, là aussi l'idée est de les charger en mémoire centrale (RAM) et de ne pas les copier dans une mémoire dédiée à la vidéo, pour être directement exploitée par l'iGPU.
Là aussi un avantage de l'intégration et du "Unified Memory Architecture" par rapport au partitionnement connu avant.

Ce message a été modifié par iAPX - 29 Nov 2020, 18:00.


--------------------
Utilisateur de Mac depuis 1985 et possesseur de Mac depuis 2005. Utilisateur d'un PC Lenovo au travail, sous Windows, qui renforce ma passion pour les Mac!
Go to the top of the page
 
+Quote Post
vlady
posté 29 Nov 2020, 18:47
Message #54


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 2 627
Inscrit : 26 Jun 2010
Lieu : Paris
Membre no 155 873



Citation (iAPX @ 29 Nov 2020, 17:59) *
Citation (vlady @ 29 Nov 2020, 11:43) *
Citation (iAPX @ 29 Nov 2020, 14:20) *
Et en bonus, pas de transcodage de données (cf. https://youtu.be/5AwdkGKmZ0I?t=454 ), pas d'éviction ou de pollution de cache avec le SLC partagé par toutes les unités: ça donne des latences incroyablement faibles pour utiliser NPU ou GPU, ce qui les rend rentables pour des tâches relativement courtes, un avantage qui avait déjà été observé sur les iGPU par rapport aux dGPU, mais là c'est encore plus marqué.

Ça doit être présent sur les iPhone depuis un moment, au moins depuis le A12 puisque aussi présent dans le A12z, sans que Apple ne s'en soit vanté.

PS: pour moi le SLC est le composant clé du M1, permettant une intégration réussie, avec son cache L3 mais surtout une bande-passante qui semble énorme (et très difficile à mesurer!) pour alimenter GPU et NPU, qui sont pas mal gloutons.


Dans la vie réelle c'est plus compliqué que ça. On peut pas modifier les données qui peuvent être utilisées au même moment par un shader, il faut donc élaborer des tactiques de coordination entre les "fournisseurs" (pipeline de préparation données pour les frames à venir) et "consommateurs" de données (shaders, ...) et ça mène presque toujours à une certaine redondance et surconsommation de mémoire. Bref, même si la mémoire est partagée ça ne veut pas forcement dire que t'en utiliseras moins.

TL;DR Apple parie sur l'inférence (l'IA si on préfère) et son architecture est basée autour de son usage

Là tu parles de génération d'images 3D avec des shaders, et même si c'est aussi une partie de l'expérience sur laquelle il faut revenir, car justement l'iGPU est créée pour Metal expliquant ses sous-performances avec OpenCL, quand une autre GPU sous-performe sous Metal mais est plus performante en OpenCL, idem avec les autres API qui sont traduites, ça n'est pas le seul but de l'iGPU du SoC M1.

L'iGPU du M1 fait complètement partie de la stratégie d'Apple d'intégrer de l'inférence à tous les niveaux.
Elle fait aussi des images 3D avec Metal, du compute avec le sous-ensemble de Metal adéquat, mais je pense que la priorité a été donné à l'inférence.

Pour le reste (la 3D), si on regarde l'intégration, et l'incroyable pression mémoire amenée par les textures sur les jeux modernes, là aussi l'idée est de les charger en mémoire centrale (RAM) et de ne pas les copier dans une mémoire dédiée à la vidéo, pour être directement exploitée par l'iGPU.
Là aussi un avantage de l'intégration et du "Unified Memory Architecture" par rapport au partitionnement connu avant.


Pour moi la question est dans l'économie de mémoire et pas dans le performances (c'est un autre débat). Et tu peut charger ta texture directement dans la mémoire de GPU (sans passer par la mémoire centrale) si tu veux. Et je ne vois pas toujours la différence flagrante que la "unitfied memory" peut apporter, surtout par rapport aux GPU intégrés d'Intel. Les console modernes utilisent aussi la "unified memory" mais personne ne vient de s'extasier dessus pour masquer le manque de scaling (en taille de mémoire).

Je suis très curieux de voir de quelle manière Apple va couper le "le cordon ombilical" avec l'archi iPhone/iPad pour ses futures "vrais" desktops, sinon l'embellie sera de courte durée.

Ce message a été modifié par vlady - 29 Nov 2020, 18:51.


--------------------
Macbook 16" M1 Pro 32GB/1TB + Studio Display, Dell Precision 3640 i7-10700K/32GB, Fedora 36 Linux, Casque Sony WH-1000XM4, iPhone 6s 64GB
Go to the top of the page
 
+Quote Post
iAPX
posté 29 Nov 2020, 19:17
Message #55


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 15 384
Inscrit : 4 Jan 2006
Lieu : dtq
Membre no 52 877



Citation (vlady @ 29 Nov 2020, 12:47) *
...
Et tu peut charger ta texture directement dans la mémoire de GPU (sans passer par la mémoire centrale) si tu veux.
...

Euhhhhh tu peux nous expliquer là?!? J'ai hâte de lire ça, surtout pour une iGPU!

TL;DR c'est parce que le M1 vient des iPhone qu'il est incroyablement performant, pas un défaut, une qualité!

Pour le reste, et "couper le cordon ombilical avec l'archi iPhone/iPad" je ne vois pas en quoi ça serait un bénéfice.
Sauf à répéter à tue-tête que le "M1 est un SoC d'appareil mobile" (donc sous-entendu indigne de nos Mac), ou pire, une CPU de téléphone.
Quand personne ne dit que les Xeon Intel sont des CPU de IoT, pour s'en gausser, puisque Intel a -aussi- développé du x86 pour IoT, avec l'insuccès que l'on connait.
La réactivité des iPad Pro (et iPhone) se retrouve maintenant dans nos Mac Apple Silicon, ça se voit, c'est un véritable progrès.

Le M1 dérive fortement du A14 des derniers iPhone.
Et c'est pour ça qu'il est excellent à tout point-de-vue, car issu d'une architecture frugale qui doit en faire un max sans rien consommer, ce que Intel n'a JAMAIS su faire par lui-même (ok il y a les XScale, mais bon on est 20ans plus tard).
Et oui, un iPhone 12 avec une puce A14 écrase littéralement la plupart des PC existant sur les tâches monothread courtes. En fait tous, sans exception.

On peut toujours juger les technologies et les gens (ça va ensemble), sur leur arbre de famille, un vieux réflexe patriarchique ou oligarchique.
Mais les chiffres ne mentent pas.
On ne doit pas choisir les technologies (ou les gens) sur les réussites ou échecs des générations précédentes.

Ce message a été modifié par iAPX - 29 Nov 2020, 19:25.


--------------------
Utilisateur de Mac depuis 1985 et possesseur de Mac depuis 2005. Utilisateur d'un PC Lenovo au travail, sous Windows, qui renforce ma passion pour les Mac!
Go to the top of the page
 
+Quote Post
vlady
posté 29 Nov 2020, 19:44
Message #56


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 2 627
Inscrit : 26 Jun 2010
Lieu : Paris
Membre no 155 873



Citation (iAPX @ 29 Nov 2020, 19:17) *
Citation (vlady @ 29 Nov 2020, 12:47) *
...
Et tu peut charger ta texture directement dans la mémoire de GPU (sans passer par la mémoire centrale) si tu veux.
...

Euhhhhh tu peux nous expliquer là?!? J'ai hâte de lire ça, surtout pour une iGPU!

TL;DR c'est parce que le M1 vient des iPhone qu'il est incroyablement performant, pas un défaut, une qualité!

Pour le reste, et "couper le cordon ombilical avec l'archi iPhone/iPad" je ne vois pas en quoi ça serait un bénéfice.
Sauf à répéter à tue-tête que le "M1 est un SoC d'appareil mobile" (donc sous-entendu indigne de nos Mac), ou pire, une CPU de téléphone.
Quand personne ne dit que les Xeon Intel sont des CPU de IoT, pour s'en gausser, puisque Intel a -aussi- développé du x86 pour IoT, avec l'insuccès que l'on connait.
La réactivité des iPad Pro (et iPhone) se retrouve maintenant dans nos Mac Apple Silicon, ça se voit, c'est un véritable progrès.

Le M1 dérive fortement du A14 des derniers iPhone.
Et c'est pour ça qu'il est excellent à tout point-de-vue, car issu d'une architecture frugale qui doit en faire un max sans rien consommer, ce que Intel n'a JAMAIS su faire par lui-même (ok il y a les XScale, mais bon on est 20ans plus tard).
Et oui, un iPhone 12 avec une puce A14 écrase littéralement la plupart des PC existant sur les tâches monothread courtes. En fait tous, sans exception.

On peut toujours juger les technologies et les gens (ça va ensemble), sur leur arbre de famille, un vieux réflexe patriarchique ou oligarchique.
Mais les chiffres ne mentent pas.
On ne doit pas choisir les technologies (ou les gens) sur les réussites ou échecs des générations précédentes.


https://zeux.io/2020/02/27/writing-an-effic...ulkan-renderer/

regarde "Memory heap selection".

Ce message a été modifié par vlady - 29 Nov 2020, 19:44.


--------------------
Macbook 16" M1 Pro 32GB/1TB + Studio Display, Dell Precision 3640 i7-10700K/32GB, Fedora 36 Linux, Casque Sony WH-1000XM4, iPhone 6s 64GB
Go to the top of the page
 
+Quote Post
iAPX
posté 29 Nov 2020, 23:13
Message #57


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 15 384
Inscrit : 4 Jan 2006
Lieu : dtq
Membre no 52 877



Intéressant, puisque dans le cas des textures la doc indique qu'il faut préférablement les placer dans une ressource de type VK_MEMORY_PROPERTY_DEVICE_LOCAL_BIT, qui n'est pas directement accessible par la CPU, et en revanche les lire dans la mémoire de la CPU, allouée comme VK_MEMORY_PROPERTY_HOST_VISIBLE_BIT, pour peupler l'autre type de mémoire.

Donc lire dans un type de ressource, puis copier dans un autre, avec donc doublon, pollution du cache et éviction. La totale en terme d'inefficacité.
Relis la doc, elle est claire!

Cette API a été créée pour des dGPU et utilisée pour des iGPU, qui partitionnement l'usage de la mémoire centrale, avec une grande inefficacité.
Le bon fonctionnement est de lire les textures et de simplement indiquer à la GPU où elles se trouvent dans toute la mémoire centrale, sans partitionnement, sans copie, sans transcodage, et laisser celle-ci s'en débrouiller.

C'est un changement de paradigme intéressant puisque posant problème pour créer des unités séparées (au travers du bus PCI-Express), qui sont rares aujourd'hui dans le grand-public, mais simplifiant et accélérant énormément les choses pour les ordinateurs que la majorité utilise.
Ça créé un mur, une limite, mais où est-elle située?!?

Ce message a été modifié par iAPX - 29 Nov 2020, 23:23.


--------------------
Utilisateur de Mac depuis 1985 et possesseur de Mac depuis 2005. Utilisateur d'un PC Lenovo au travail, sous Windows, qui renforce ma passion pour les Mac!
Go to the top of the page
 
+Quote Post
vlady
posté 30 Nov 2020, 02:17
Message #58


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 2 627
Inscrit : 26 Jun 2010
Lieu : Paris
Membre no 155 873



Citation (iAPX @ 29 Nov 2020, 23:13) *
Intéressant, puisque dans le cas des textures la doc indique qu'il faut préférablement les placer dans une ressource de type VK_MEMORY_PROPERTY_DEVICE_LOCAL_BIT, qui n'est pas directement accessible par la CPU, et en revanche les lire dans la mémoire de la CPU, allouée comme VK_MEMORY_PROPERTY_HOST_VISIBLE_BIT, pour peupler l'autre type de mémoire.

Donc lire dans un type de ressource, puis copier dans un autre, avec donc doublon, pollution du cache et éviction. La totale en terme d'inefficacité.
Relis la doc, elle est claire!

Cette API a été créée pour des dGPU et utilisée pour des iGPU, qui partitionnement l'usage de la mémoire centrale, avec une grande inefficacité.
Le bon fonctionnement est de lire les textures et de simplement indiquer à la GPU où elles se trouvent dans toute la mémoire centrale, sans partitionnement, sans copie, sans transcodage, et laisser celle-ci s'en débrouiller.

C'est un changement de paradigme intéressant puisque posant problème pour créer des unités séparées (au travers du bus PCI-Express), qui sont rares aujourd'hui dans le grand-public, mais simplifiant et accélérant énormément les choses pour les ordinateurs que la majorité utilise.
Ça créé un mur, une limite, mais où est-elle située?!?


Les textures ne viennent pas de nul part. Il sont lus d'un device de stockage. Il faut que je me renseigne (je poserai la question à mes amis du moteur 3D), mais je ne serais pas étonné que tu puisse lire une texture (via un async IO ?) directement dans la mémoire du GPU, si tous les ressources sont déjà compilés dans un format moteur 3D, je ne vois pas pourquoi le processeur doit voir quoi que ce soit. Mais je peux me tromper, bien sûr...

Ce message a été modifié par vlady - 30 Nov 2020, 02:20.


--------------------
Macbook 16" M1 Pro 32GB/1TB + Studio Display, Dell Precision 3640 i7-10700K/32GB, Fedora 36 Linux, Casque Sony WH-1000XM4, iPhone 6s 64GB
Go to the top of the page
 
+Quote Post
otto87
posté 30 Nov 2020, 03:54
Message #59


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 2 228
Inscrit : 12 Jun 2009
Membre no 137 508



Citation (iAPX @ 29 Nov 2020, 15:20) *
Et en bonus, pas de transcodage de données (cf. https://youtu.be/5AwdkGKmZ0I?t=454 ), pas d'éviction ou de pollution de cache avec le SLC partagé par toutes les unités: ça donne des latences incroyablement faibles pour utiliser NPU ou GPU, ce qui les rend rentables pour des tâches relativement courtes, un avantage qui avait déjà été observé sur les iGPU par rapport aux dGPU, mais là c'est encore plus marqué.

Ça doit être présent sur les iPhone depuis un moment, au moins depuis le A12 puisque aussi présent dans le A12z, sans que Apple ne s'en soit vanté.

PS: pour moi le SLC est le composant clé du M1, permettant une intégration réussie, avec son cache L3 mais surtout une bande-passante qui semble énorme (et très difficile à mesurer!) pour alimenter GPU et NPU, qui sont pas mal gloutons.


Il commence à y avoir des viédos qui se montrent plus critiques, visiblement des moments ou la gestion de la RAM part en couille!
Problème de débit sur l'USB sur les SSD externe...
Affichage qui part en couille, aka l'écran de la machine m1 qui ne réveille pas
Le 60 Hertz sur écran externe qui part en sucette genre 30 fps max dés que la résolution augmente...
Et des freeze de plusieurs minutes avec FCP...
Bref, hors les démos de youtubeurs incompétents qui s'imaginent doués en info, c'est pas si fabuleux que ça...
Pour un relativement basic user, en gros la cible d'apple, c'est parfait. J'en ferai bien une machine parfaite pour la MAO wink.gif et l'utilisation quotidienne!
Les perfs de l'iGPU sont fantastiques pour du GPU intégré mais ça ne tient pas face à du vrai GPU...
Ton fill rate tu te le carres dans le bas du dos et profond avec la mémoire partagé comme avec intel avant même si c'est clairement mieux optimisé! Problème mis en abîme avec la volonté d'apple d'avoir de grosse résolution et du HDR par la suite
Bref ce que j'ai dis depuis le début....
Attendre la version 2 avant de se lancer dans un achat sauf si vous avez du pognon à jeter par la fenêtre!
Si les prochaines générations évoluent dans le bons sens, aka capable de gérer 2/3 écrans, un peu plus de connectique, plus de ram, ça me tenterais presque!
La norme c'est le 4k, les 8k arrivent (dans ma boite de cinoche) on bosse sur du red 12k, et là rip M1!
C'est pour moi des machines idéales pour de l'usage classique avancé, quelque niches, l'audio est plus que prometteur, et un peu de montage mais ça n'ira pas plus haut!
Et dans 3 ans vous aurez l'air malin avec vos 8Go de RAM!!!!

Lol un mac avec 2 ports usb et une sortie audio... en gros chargeur plus écran externe et c'est mort avec tes 256 Go de SSD!
Çà va très vite mais pas pour longtemps laugh.gif
Bref on continue dans la même direction en pire!
Gains de perf sympathique mais diminution drastique des possibilités d'extension.

Au final c'est ce que c'est, un iphone camouflé dans un mac....

Pardon j'oubliais qu'avec 300 ou 400 euros de plus tu gagnes un core de plus avec la version pro!

Ce message a été modifié par otto87 - 30 Nov 2020, 04:12.


--------------------
Ne vous plaignez pas, pour une fois notre gouvernement nous écoute SYSTEMATIQUEMENT!!!!!!
Niveau GPGPU je bosse sur un des 500 plus gros calculateur du monde....
Mac Plus, SE 30,SI,CI,LC 1,2,3,4,imac G3, G4 Tour,imac intel, mac book 13",Dell Precision
Go to the top of the page
 
+Quote Post
JayTouCon
posté 30 Nov 2020, 09:15
Message #60


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 5 113
Inscrit : 2 Sep 2010
Membre no 158 552



Citation (otto87 @ 30 Nov 2020, 03:54) *
Il commence à y avoir des viédos qui se montrent plus critiques, visiblement des moments ou la gestion de la RAM part en couille!
Problème de débit sur l'USB sur les SSD externe...
Affichage qui part en couille, aka l'écran de la machine m1 qui ne réveille pas
Le 60 Hertz sur écran externe qui part en sucette genre 30 fps max dés que la résolution augmente...
Et des freeze de plusieurs minutes avec FCP...
Bref, hors les démos de youtubeurs incompétents qui s'imaginent doués en info, c'est pas si fabuleux que ça...
Pour un relativement basic user, en gros la cible d'apple, c'est parfait.

Et dans 3 ans vous aurez l'air malin avec vos 8Go de RAM!!!!

Lol un mac avec 2 ports usb et une sortie audio... en gros chargeur plus écran externe et c'est mort avec tes 256 Go de SSD!

c'était un peu le sentiment que j'avais. arrivée en fanfare test youtubeur et puis dans les faits.. (en dehors d'un usage basique ou il a l'air très bien ce qui suffira à 80%)

les 2 ports TB sans port sd c'est vraiment beaucouuuuxuup trop juste dès lors que l'on veut l'utiliser 'un peu' cette machine si fabuleuse à 2140 (16go, 1TO) et même en ne prenant que 512go on est quand même à 1900.

on est obligé d'opter pour le 16' pour une utilisation pro tranquille avec 4 ports.
Go to the top of the page
 
+Quote Post

3 Pages V  < 1 2 3 >
Reply to this topicStart new topic
1 utilisateur(s) sur ce sujet (1 invité(s) et 0 utilisateur(s) anonyme(s))
0 membre(s) :

 



Nous sommes le : 27th April 2024 - 10:56