![]() |
Bienvenue invité ( Connexion | Inscription )
![]() |
![]()
Message
#1
|
|
![]() Macbidouilleur d'Or ! ![]() ![]() ![]() ![]() ![]() Groupe : Rédacteurs Messages : 1 619 Inscrit : 19 Nov 2020 Membre no 212 895 ![]() |
Besoin d’un Mac capable de faire tourner de gros modèles d’IA, de gérer des bases SQLite en RAM, et de bosser sans broncher jour et nuit ? Pas envie d’ajouter un troisième portable sur le bureau ? Voici pourquoi j’ai craqué pour un Mac mini M4, et pas n’importe lequel.
CPU, NPU, GPU… et un vrai budget J’avais besoin de muscle processeur, de la polyvalence côté NPU/GPU pour faire tourner des LLM (modèles de langage) de 14 voire 17 milliards de paramètres (en int4), et surtout beaucoup de RAM. Objectif : un Mac de bureau taillé pour bosser 24h/24. J’ai envisagé un PC sur mesure, mais au final, le Mac mini M4 l’a emporté : plus simple, plus propre, plus intégré… et en reconditionné, bien plus raisonnable niveau tarif. Le M4 est très proche des M1 Pro/M2 Pro côté perfs, sans faire exploser la facture. Certes, le M4 Pro envoie plus fort, mais il faut rajouter 410 € pour le privilège. À ce prix-là, si un jour j’ai besoin de plus, je me monterai un PC dédié IA. Le M4 est une base très saine pour le moment. 32 Go de RAM : choix stratégique J’ai opté pour 32 Go de RAM, ce qui me permet de charger des bases SQLite de 16 Go en mémoire vive sans broncher, ou de lancer mes modèles IA maison sans souffrir. Probablement le plus important dans ce Mac. Stockage : le piège à éviter Côté SSD, j’ai choisi la version 256 Go de base. Pourquoi ? Parce qu’Apple facture 400 € pour passer à 1 To, même sur le Refurb. Un foutage de gueule! À la place, j’ai acheté un SSD externe 1 To à 60 € (1 Go/s en USB-C, largement suffisant). Résultat : 1050 € pour l’ensemble, contre 1699 € si j’étais resté sur la config Apple 1 To hors reconditionné... Astuce : sur le Mac mini M4, le SSD interne est remplaçable, jusqu’à 2 To (et même 4 To sur le M4 Pro). Rien ne vous empêche d’upgrader plus tard, à prix moins indécent. Bonus : stockage malin sur MacBook Pro Si vous utilisez un MacBook Pro avec lecteur SD, pensez à une carte microSD pour stocker musique et vidéos. Ça ne coûte rien, ça évite d’encombrer le SSD, et en mode lecture seule, la durée de vie est excellente. Bilan : un Mac mini M4 32 Go/256 Go + 1 To Avec 32 Go de RAM, un SSD externe de 1 To et un Mac mini reconditionné, j’ai obtenu une machine idéale pour mes projets IA, avec un budget serré. Aucun lien d'affiliation dans ce sujet. Lien vers le billet original -------------------- La liberté d'expression c'est l'extrémisme. La censure c'est la liberté.
|
|
|
![]() |
![]()
Message
#2
|
|
![]() Macbidouilleur d'Or ! ![]() ![]() ![]() ![]() ![]() Groupe : Membres Messages : 6 622 Inscrit : 9 Feb 2002 Lieu : Cambodge Membre no 2 013 ![]() |
J'ai bien peur que le troll ait une érection spontanée au réveil en lisant tout ceci, même si je comprends parfaitement vos réactions.
Indirectement, il a atteint son but. Le troll a réussi à pourrir le post. @Paul Emploi As-tu eu le temps de faire des tests ? (j'essaie de recoller au sujet) -------------------- Mac Studio M4 Max (16C-40C) 64GB 1TB - Acasis 40Gbps M.2 NVMe 4 Bay Tb4 - Acasis 80Gbps M.2 NVMe SSD Enclosure Tb5 - ACASIS 40Gbps Dock Tb 4/3 Devices, USB 4, 13-in-1
Hackintosh Gigabyte X670 Gaming X AX - Ryzen™ 7 7700X - G-Skill GAMING TRIDEN Z5 RGB DDR5 5600MHz 2*16GB - Gigabyte RX 5700 XT - 2 Lexar NM710 M.2 PCIe 4.0 NVMe 1TB (Win 11, Linux et macOS) SSD Samsung 860 500Go (SuperDuper Sequoia), 2 SATAs 4To ASUS PA329CRV 32" 4K 3840*2160, 2 Mi Xiaomi 34" 3440*1440 Switch 4K KVM CMSTEDCD (3 écrans 2 Machines) OpenCore 1.0.4 Sequoia 15.5 (24F74) Sonoma 14.7.6 Ventura 13.7.6 Monterey 12.7.6 Big Sur 11.7.10, Parallels Desktop Leopard Server > Sequoia (Sur Asus 790) MacbookPro 14" 2021 Sequoia 15.5 Tahoe 26.0 beta 25A5295e - MacBook M3 15" 2024 Sequoia 15.5 - Synology DS1522+ - Raspberry PI 4 Retour d'expérience Installations d'OS X/macOS depuis OS X 10.5 Leopard jusqu'à macOS 12 Monterey Durex King Size XXL (boites de 12) - Lave Linge LG F1222QD5 - Aspirateur Honiture Q6 Pro - Machine Espresso DeLonghi Magnifica Evo - Réfrigérateur Samsung RT38FFAK |
|
|
![]()
Message
#3
|
|
![]() Macbidouilleur d'Or ! ![]() ![]() ![]() ![]() ![]() Groupe : Rédacteurs Messages : 1 619 Inscrit : 19 Nov 2020 Membre no 212 895 ![]() |
J'ai bien peur que le troll ait une érection spontanée au réveil en lisant tout ceci, même si je comprends parfaitement vos réactions. Indirectement, il a atteint son but. Le troll a réussi à pourrir le post. @Paul Emploi As-tu eu le temps de faire des tests ? (j'essaie de recoller au sujet) Je suis dans une grande fin-de-semaine là, avec la fête du Canada, j'ai énormément de tests à faire mais j'en ai déjà fait de très intéressant avec mon Mac de travail (M1 Pro 16Go RAM), ça va arriver la semaine prochaine. J'ai été surpris. En bien et en mal. -------------------- La liberté d'expression c'est l'extrémisme. La censure c'est la liberté.
|
|
|
![]()
Message
#4
|
|
Adepte de Macbidouille ![]() Groupe : Membres Messages : 106 Inscrit : 23 Apr 2025 Membre no 220 471 ![]() |
J'ai bien peur que le troll ait une érection spontanée au réveil en lisant tout ceci, même si je comprends parfaitement vos réactions. Indirectement, il a atteint son but. Le troll a réussi à pourrir le post. @Paul Emploi As-tu eu le temps de faire des tests ? (j'essaie de recoller au sujet) Je suis dans une grande fin-de-semaine là, avec la fête du Canada, j'ai énormément de tests à faire mais j'en ai déjà fait de très intéressant avec mon Mac de travail (M1 Pro 16Go RAM), ça va arriver la semaine prochaine. J'ai été surpris. En bien et en mal. Aïe. Ce n'est pas un progrès incontestable par rapport au M1 Pro? |
|
|
![]()
Message
#5
|
|
![]() Macbidouilleur d'Or ! ![]() ![]() ![]() ![]() ![]() Groupe : Rédacteurs Messages : 1 619 Inscrit : 19 Nov 2020 Membre no 212 895 ![]() |
J'ai bien peur que le troll ait une érection spontanée au réveil en lisant tout ceci, même si je comprends parfaitement vos réactions. Indirectement, il a atteint son but. Le troll a réussi à pourrir le post. @Paul Emploi As-tu eu le temps de faire des tests ? (j'essaie de recoller au sujet) Je suis dans une grande fin-de-semaine là, avec la fête du Canada, j'ai énormément de tests à faire mais j'en ai déjà fait de très intéressant avec mon Mac de travail (M1 Pro 16Go RAM), ça va arriver la semaine prochaine. J'ai été surpris. En bien et en mal. Aïe. Ce n'est pas un progrès incontestable par rapport au M1 Pro? Non non je ne parlais pas de matériel, et je me fous des performances dans l'absolu, les performances relatives sont plus intéressantes. Un Mac avec 16 Go est très limité en terme d'accès aux IA de type LLM génératif, par manque de mémoire disponible. Mais je l'ai utilisé juste pour déterminer ce que nombre d'entre nous pourront faire tourner sur leur Mac avec 16 Go de RAM, c'est plus intéressant que de me vanter de faire tourner un LLM de 30 milliards de paramètres (weights) ! Et pareil, il est aussi intéressant de trouver le modèle le plus rapide offrant des résultats suffisants pour certaines tâches. Suivant la tâche et le niveau d'exigence pour les résultats, c'est très variable, différents modèles et différentes tailles. Comme je l'écrivais: one-size-fit-all ne s'applique pas ici. Et sans gâcher la surprise, pour des tâches sur du code, j'ai trouvé des LLMs intéressantes avec seulement 3 milliards de paramètres (weights), qui tournent donc très bien avec 16 Go de RAM sur un Mac ARM. Mais ça ne sera pas nécessairement la même pour générer dur code, faire de l'analyse de risque, évaluer la lisibilité ou écrire des recommandations. -------------------- La liberté d'expression c'est l'extrémisme. La censure c'est la liberté.
|
|
|
![]()
Message
#6
|
|
![]() Macbidouilleur d'Or ! ![]() ![]() ![]() ![]() ![]() Groupe : Membres Messages : 2 559 Inscrit : 1 Nov 2021 Membre no 214 848 ![]() |
j'ai trouvé des LLMs intéressantes avec seulement 3 milliards de paramètres (weights), qui tournent donc très bien avec 16 Go de RAM sur un Mac ARM. Mais ça ne sera pas nécessairement la même pour générer dur code, faire de l'analyse de risque, évaluer la lisibilité ou écrire des recommandations. Juste une question par curiosité plus que par intérêt: tu parles bien d'une IA en local? Et elle s'entraîne comment?L'interête des IA centralisées n'est-il pas de mettre la connaissance en commun? -------------------- "Les gens douteront toujours de la vérité sur Internet car l'erreur est constamment prêchée autour de nous" Johann Wolfgang von Goethe
MBP 15" 2015 Retina ( Win11), Macbook Air 2015 (en voyage), iMac 2015 27" Retina (Win11), Macbook blanc 2008 (Mate), pour ne citer que les Macs. |
|
|
![]()
Message
#7
|
|
![]() Macbidouilleur d'Or ! ![]() ![]() ![]() ![]() ![]() Groupe : Membres Messages : 7 735 Inscrit : 24 Sep 2015 Lieu : Pays d'Aix Membre no 196 570 ![]() |
j'ai trouvé des LLMs intéressantes avec seulement 3 milliards de paramètres (weights), qui tournent donc très bien avec 16 Go de RAM sur un Mac ARM. Mais ça ne sera pas nécessairement la même pour générer dur code, faire de l'analyse de risque, évaluer la lisibilité ou écrire des recommandations. Juste une question par curiosité plus que par intérêt: tu parles bien d'une IA en local? Et elle s'entraîne comment?L'interête des IA centralisées n'est-il pas de mettre la connaissance en commun? Pour celles que je connais, que j’ai pu faire tourner, elles ont été entraînées ailleurs, en local, ça signifie que tu peux faire tourner l’inférence en local. Sur ces systèmes l’inférence coûte cher (quelques secondes de calculs) mais est ridicule par rapport au temps et au coût d’entraînement, plusieurs semaines… et d’ailleurs, un des trucs déterminants est le nombre de tokens qui constitue l’ensemble des mots que l’IA utilise pour inférer statiquement la suite… De ce que j’en ai compris … Amuse-toi à poser la question à une LLM généraliste : Citation Les LLM avec 3 milliards de paramètres sont-ils entraînés sur quelle infrastructure ? Le coût et le temps d’apprentissage ?
Ce message a été modifié par Hebus - 29 Jun 2025, 15:37. -------------------- Bobo du Pays d'Aix et Fanboy Apple/NeXT
Pas d'actions Apple ou de rémunération quelconque ! |
|
|
![]()
Message
#8
|
|
![]() Macbidouilleur d'Or ! ![]() ![]() ![]() ![]() ![]() Groupe : Membres Messages : 2 559 Inscrit : 1 Nov 2021 Membre no 214 848 ![]() |
Pour celles que je connais, que j’ai pu faire tourner, elles ont été entraînées ailleurs, en local, ça signifie que tu peux faire tourner l’inférence en local. Sur ces systèmes l’inférence coûte cher (quelques secondes de calculs) mais est ridicule par rapport au temps et au coût d’entraînement, plusieurs semaines… et d’ailleurs, un des trucs déterminants est le nombre de tokens qui constitue l’ensemble des mots que l’IA utilise pour inférer statiquement la suite… De ce que j’en ai compris … Mais entrainées à quoi au juste? Une grosse IA dans un centre de calcul peut être généraliste, mais pas sur un ordi dans ta cuisine? -------------------- "Les gens douteront toujours de la vérité sur Internet car l'erreur est constamment prêchée autour de nous" Johann Wolfgang von Goethe
MBP 15" 2015 Retina ( Win11), Macbook Air 2015 (en voyage), iMac 2015 27" Retina (Win11), Macbook blanc 2008 (Mate), pour ne citer que les Macs. |
|
|
![]() ![]() |
Nous sommes le : 18th July 2025 - 10:30 |