![]() |
Bienvenue invité ( Connexion | Inscription )
![]() |
![]()
Message
#1
|
|
![]() Macbidouilleur d'Or ! ![]() ![]() ![]() ![]() ![]() Groupe : Rédacteurs Messages : 1 655 Inscrit : 19 Nov 2020 Membre no 212 895 ![]() |
Apple explique qu'il faut un SoC Apple Silicon, des Gigaoctets de mémoire libre, et que ses IA ne peuvent pas tourner sur les Mac Intel, d'anciens iPhone, et c'est absolument faux.
Un contre-exemple est Llama-3.2-1B (1,2 milliards de paramètres en BF16). Voici l'échange que j'ai eu avec lui, il a tendance à bien halluciner quand-même, mais il est très utilisable: Deux points, la vitesse était correcte, un peu lent certes mais utilisable au quotidien. Mais je l'ai fait tourner sur un MacBook Pro 13" début-2013 (dual-core i7) avec 8Go de RAM sous macOS 15 Sequoia grâce à OpenCore Legacy Patcher. Ollama se télécharge ici, nécessite d'être au moins sur macOS 11 Big Sur, mais est vraiment compatible avec du matériel ancien et même très performant vu le peu de puissance du vieux MBP 13". Par défaut il charge LLama-3.2-1B mais vous pouvez bien sûr charger d'autres Modèles d'IA. Je crois en l'émergence d'IA plus légères, tournant plus facilement et plus rapidement, spécialisées dans des tâches précises, comme programmer ou rédiger un courrier, et surtout accessibles à tous. Llama-3.2-1B est un pas dans cette direction, mais aussi une base de travail pour avoir des versions spécialisées. Lien vers le billet original -------------------- La liberté d'expression c'est l'extrémisme. La censure c'est la liberté.
|
|
|
![]() |
![]()
Message
#2
|
|
Macbidouilleur d'Or ! ![]() ![]() ![]() ![]() ![]() Groupe : Membres Messages : 2 549 Inscrit : 5 Sep 2004 Membre no 23 103 ![]() |
J'ai testé LLama-3.2-1B. Le concept est intéressant, et effectivement c'est léger... mais c'est inutilisable pour mes usages de synthèse/réécriture.
Tu lui demandes une traduction, il change de langue au milieu. Tu lui demandes de reformuler, il te sort des bullet points. Tu lui demandes des bullet points, il sort des phrases en franglais. J'ai abandonné. -------------------- AMF: Ne possède pas d'actions Apple. Ne touche aucune rémunération, directe ou indirecte, d'Apple. Intervient ici depuis 20 ans à titre personnel. Ne partage pas son compte avec des tiers. N'a aucun lien avec les rédacteurs du blog MacBidouille.
Mes messages sont parfois édités par la modération dans le texte, et ce sans trace visible. Ce qui apparaît sous mon nom peut ne pas provenir de moi. |
|
|
![]()
Message
#3
|
|
![]() Macbidouilleur d'Or ! ![]() ![]() ![]() ![]() ![]() Groupe : Membres Messages : 7 735 Inscrit : 24 Sep 2015 Lieu : Pays d'Aix Membre no 196 570 ![]() |
J'ai testé LLama-3.2-1B. Le concept est intéressant, et effectivement c'est léger... mais c'est inutilisable pour mes usages de synthèse/réécriture. Tu lui demandes une traduction, il change de langue au milieu. Tu lui demandes de reformuler, il te sort des bullet points. Tu lui demandes des bullet points, il sort des phrases en franglais. J'ai abandonné. Une IA créative … révolutionnaire même … tu devrais apprécier ![]() -------------------- Bobo du Pays d'Aix et Fanboy Apple/NeXT
Pas d'actions Apple ou de rémunération quelconque ! |
|
|
![]() ![]() |
Nous sommes le : 31st July 2025 - 12:55 |