![]() |
Bienvenue invité ( Connexion | Inscription )
![]() |
![]()
Message
#1
|
|
![]() Macbidouilleur d'Or ! ![]() ![]() ![]() ![]() ![]() Groupe : Rédacteurs Messages : 1 619 Inscrit : 19 Nov 2020 Membre no 212 895 ![]() |
Besoin d’un Mac capable de faire tourner de gros modèles d’IA, de gérer des bases SQLite en RAM, et de bosser sans broncher jour et nuit ? Pas envie d’ajouter un troisième portable sur le bureau ? Voici pourquoi j’ai craqué pour un Mac mini M4, et pas n’importe lequel.
CPU, NPU, GPU… et un vrai budget J’avais besoin de muscle processeur, de la polyvalence côté NPU/GPU pour faire tourner des LLM (modèles de langage) de 14 voire 17 milliards de paramètres (en int4), et surtout beaucoup de RAM. Objectif : un Mac de bureau taillé pour bosser 24h/24. J’ai envisagé un PC sur mesure, mais au final, le Mac mini M4 l’a emporté : plus simple, plus propre, plus intégré… et en reconditionné, bien plus raisonnable niveau tarif. Le M4 est très proche des M1 Pro/M2 Pro côté perfs, sans faire exploser la facture. Certes, le M4 Pro envoie plus fort, mais il faut rajouter 410 € pour le privilège. À ce prix-là, si un jour j’ai besoin de plus, je me monterai un PC dédié IA. Le M4 est une base très saine pour le moment. 32 Go de RAM : choix stratégique J’ai opté pour 32 Go de RAM, ce qui me permet de charger des bases SQLite de 16 Go en mémoire vive sans broncher, ou de lancer mes modèles IA maison sans souffrir. Probablement le plus important dans ce Mac. Stockage : le piège à éviter Côté SSD, j’ai choisi la version 256 Go de base. Pourquoi ? Parce qu’Apple facture 400 € pour passer à 1 To, même sur le Refurb. Un foutage de gueule! À la place, j’ai acheté un SSD externe 1 To à 60 € (1 Go/s en USB-C, largement suffisant). Résultat : 1050 € pour l’ensemble, contre 1699 € si j’étais resté sur la config Apple 1 To hors reconditionné... Astuce : sur le Mac mini M4, le SSD interne est remplaçable, jusqu’à 2 To (et même 4 To sur le M4 Pro). Rien ne vous empêche d’upgrader plus tard, à prix moins indécent. Bonus : stockage malin sur MacBook Pro Si vous utilisez un MacBook Pro avec lecteur SD, pensez à une carte microSD pour stocker musique et vidéos. Ça ne coûte rien, ça évite d’encombrer le SSD, et en mode lecture seule, la durée de vie est excellente. Bilan : un Mac mini M4 32 Go/256 Go + 1 To Avec 32 Go de RAM, un SSD externe de 1 To et un Mac mini reconditionné, j’ai obtenu une machine idéale pour mes projets IA, avec un budget serré. Aucun lien d'affiliation dans ce sujet. Lien vers le billet original -------------------- La liberté d'expression c'est l'extrémisme. La censure c'est la liberté.
|
|
|
![]() |
![]()
Message
#2
|
|
![]() Macbidouilleur d'Or ! ![]() ![]() ![]() ![]() ![]() Groupe : Membres Messages : 7 735 Inscrit : 24 Sep 2015 Lieu : Pays d'Aix Membre no 196 570 ![]() |
Pour celles que je connais, que j’ai pu faire tourner, elles ont été entraînées ailleurs, en local, ça signifie que tu peux faire tourner l’inférence en local. Sur ces systèmes l’inférence coûte cher (quelques secondes de calculs) mais est ridicule par rapport au temps et au coût d’entraînement, plusieurs semaines… et d’ailleurs, un des trucs déterminants est le nombre de tokens qui constitue l’ensemble des mots que l’IA utilise pour inférer statiquement la suite… De ce que j’en ai compris … Mais entrainées à quoi au juste? Une grosse IA dans un centre de calcul peut être généraliste, mais pas sur un ordi dans ta cuisine? Entraîné… C’est vrai que c’est assez anthropomorphique… alors que ça signifie de faire un calcul d’optimisation dans un espace de fonctions, j’avoue que j’ai du mal à l’expliquer en quelques mots car ce n’est pas simple, en tous les cas pas encore suffisamment compris pour l’expliquer simplement. J’ai une analogie qui consiste à dire que l’on crée une sorte d’index sémantique du corpus initial, même si au bout l’index et le corpus sont en fait la fonction que l’on a trouvée, elle contient dans sa définition, qui est colossale, d’où le coût de l’inférence, le corpus et les liens qui relient les données du corpus… Mais le corpus en lui-même disparaît, ce qui est dans la fonction c’est l’essence même du corpus sous une forme de connaissance statistique des choses qui ont du sens ensemble. L’entraînement concrètement est construit en général en prenant le corpus par bloc à jouer en enlevant des mots, à voir quels mots sont devinés, leur précision et ainsi à cherche la fonction qui minimise l’erreur des devinettes ![]() Cette fonction permet ensuite, étant donné un prompt de calculer les mots les plus problables qui vont continuer le texte initial… Y a un côté magique, car le Big Data fait que la fonction résultante (le réseau de neurones avec ses coefficients calculés) contient de manière implicite la structure du langage… le contenu du corpus… et par ailleurs ce que je trouve incroyable que c’est grâce au fait que le corpus est bien préparé que l’on récupère des réponses structurées qui n’existent pas dans le corpus original… Mais y a les hallucinations… je crois que sur un LLM généraliste juste 2/3 des informations générées sont justes. Donc méfiance ! Désolé, je ne sais pas faire plus simple, ce n’est pas ma spécialité, y a un truc vertigineux là-dedans, c’est le fait que ça ne raisonne pas, mais ça en donne l’impression alors que comme un jeu d’échec électronique qui peut battre un grand champion, il n’y a pas de raisonnement, juste un modèle mathématique capable de restituer la cohérence d’un ensemble de règles et de les apliquer : jouer aux échec, ou produire du langage. Ce message a été modifié par Hebus - 30 Jun 2025, 06:36. -------------------- Bobo du Pays d'Aix et Fanboy Apple/NeXT
Pas d'actions Apple ou de rémunération quelconque ! |
|
|
![]()
Message
#3
|
|
![]() Macbidouilleur d'Or ! ![]() ![]() ![]() ![]() ![]() Groupe : Membres Messages : 2 559 Inscrit : 1 Nov 2021 Membre no 214 848 ![]() |
une sorte d’index sémantique du corpus initial, même si au bout l’index et le corpus sont en fait la fonction que l’on a trouvée, elle contient dans sa définition, qui est colossale, d’où le coût de l’ingérence, le corpus et les liens qui relient les données du corpus... Merci du charabia. Ce ne répond pas à ma question: On gros -très gros- centre de calcul peut avoir des données sur a peu près tous les domaines, mais en local il faut se limiter à un domaine: la génétique, l'histoire précolombienne, la physque quantique, la philosophie de Spinoza et la programmation en fuzzy logic c'est pas exactement les mémes bases de savoir. Comment ça se passe en pratique? -------------------- "Les gens douteront toujours de la vérité sur Internet car l'erreur est constamment prêchée autour de nous" Johann Wolfgang von Goethe
MBP 15" 2015 Retina ( Win11), Macbook Air 2015 (en voyage), iMac 2015 27" Retina (Win11), Macbook blanc 2008 (Mate), pour ne citer que les Macs. |
|
|
![]() ![]() |
Nous sommes le : 18th July 2025 - 10:53 |