![]() |
Bienvenue invité ( Connexion | Inscription )
![]() |
![]()
Message
#1
|
|
![]() Macbidouilleur d'Or ! ![]() ![]() ![]() ![]() ![]() Groupe : Rédacteurs Messages : 1 833 Inscrit : 19 Nov 2020 Membre no 212 895 ![]() |
[MàJ par Philippe]
À la question-piège "Que peut-on faire un week-end de vacances à Limoges", rien ne m'a été épargné par le nouvel GPT-OSS d'OpenAI dans sa version 20B (20 milliards de paramètres/weights) nécessitant déjà 24 Go de RAM sur un Mac ARM. La porcelaine ou les céramiques? Non. Les promenades le long de la Loire? Oui. La visite du chateau de Chambord? Oui, aussi! À cette échelle (20B) c'est la plus mauvaise IA que j'ai essayé! En bonus pour lui Oradour-sur-Glane se résume à une auberge! Si si! À la place il recommande le Parc Naturel du Morvan, ou le Parc d'attraction du Puy de Dôme. Il n'a pas vraiment le compas dans l'œil. [Article initial] OpenAI avait été originellement créé pour proposer des IA en libre-accès, et a depuis changé son fusil d'épaule, devenant un mammouth des IA payantes via abonnement ou accords avec des partenaires comme Apple et surtout Microsoft. Les différents ChatGPT. Le modèle GPT-OSS vient d'être proposé avec 20 milliards ou 120 milliards de paramètres (weights), et maintenant accessibles via LM Studio, ou téléchargeables séparément, en accès-libre. Néanmoins nombre d'entre nous auront une belle déconvenue, car si des sites indiquent que le plus petit modèles (20 milliards de paramètres/weights) tournerait sur un Mac récent avec 16 Go de RAM, ça n'est malheureusement pas possible. Pour faire tourner le plus petit modèle, il vous faut un Mac ARM avec 24 Go de RAM au minimum. Alternativement sur PC, une dGPU avec 16 Go de RAM comme l'excellente et abordable GeForce RTX 5060 Ti 16 Go. Le modèle avec 120 milliards de paramètre devrait tourner sur un Mac ARM avec 96 Go de RAM sans que je puisse le vérifier dans ce cas. Avec 128 Go de RAM ça passera large. Je vais lui faire passer mes petits "benchmarks" ce soir. Lien vers le billet original -------------------- La liberté d'expression c'est l'extrémisme. La censure c'est la liberté.
|
|
|
![]() |
![]()
Message
#2
|
|
Adepte de Macbidouille ![]() Groupe : Membres Messages : 151 Inscrit : 17 Nov 2010 Lieu : 21S,55.27E Membre no 161 382 ![]() |
J'entends bien l'argument, pertinent et consensuel au demeurant, sauf que si les réponses, méthodes, arguments, logiques, retournés ne sont pas fiable ou sont d'un très faible niveau cela ne sert à rien, et même s'avérer contre-productif. c'est de la fake IA.
Un Modèle "généraliste" local comme LLaMA 2 70B (70 Milliards de paramètres) sur une station "standard" quand bien même elle dispose de 128Go de RAM et une (ou deux) carte(s) graphique(s) de la mort qui tue ne vaut manifestement pas un clou ni à fortiori un cloud en terme de fiabilité des réponses obtenues. Bien qu'il faille rester attentif et critique et contrôler les réponses au moindre doute, les LLM en ligne sont infiniment supérieurs. GPT 4o est estimé à plus de 1 trillions de paramètres. La donne est sans doute un peu différente pour des modèles hyper-spécialisés pars conception et/ou training . Donc on peut continuer à "faire mumuse" sur LMStudio MAIS en toute confidentialité ! (D'ailleurs heureusement, le fait que touts les récits décrivent le cheval d'Henri IV comme étant rouge mérite de rester confidentiel.) |
|
|
![]() ![]() |
Nous sommes le : 1st September 2025 - 14:46 |