IPB

Bienvenue invité ( Connexion | Inscription )

> Llama-3.2-1B : une IA pour presque tous les Mac !, Réactions à la publication du 02/12/2024
Options
Paul Emploi
posté 2 Dec 2024, 20:21
Message #1


Macbidouilleur d'Or !
*****

Groupe : Rédacteurs
Messages : 1 651
Inscrit : 19 Nov 2020
Membre no 212 895



Apple explique qu'il faut un SoC Apple Silicon, des Gigaoctets de mémoire libre, et que ses IA ne peuvent pas tourner sur les Mac Intel, d'anciens iPhone, et c'est absolument faux.

Un contre-exemple est Llama-3.2-1B (1,2 milliards de paramètres en BF16).
Voici l'échange que j'ai eu avec lui, il a tendance à bien halluciner quand-même, mais il est très utilisable:

Deux points, la vitesse était correcte, un peu lent certes mais utilisable au quotidien.
Mais je l'ai fait tourner sur un MacBook Pro 13" début-2013 (dual-core i7) avec 8Go de RAM sous macOS 15 Sequoia grâce à OpenCore Legacy Patcher.

Ollama se télécharge ici, nécessite d'être au moins sur macOS 11 Big Sur, mais est vraiment compatible avec du matériel ancien et même très performant vu le peu de puissance du vieux MBP 13". Par défaut il charge LLama-3.2-1B mais vous pouvez bien sûr charger d'autres Modèles d'IA.

Je crois en l'émergence d'IA plus légères, tournant plus facilement et plus rapidement, spécialisées dans des tâches précises, comme programmer ou rédiger un courrier, et surtout accessibles à tous.
Llama-3.2-1B est un pas dans cette direction, mais aussi une base de travail pour avoir des versions spécialisées.

Lien vers le billet original



--------------------
La liberté d'expression c'est l'extrémisme. La censure c'est la liberté.
Go to the top of the page
 
+Quote Post
 
Start new topic
Réponse(s)
jmvr
posté 7 Dec 2024, 15:33
Message #2


Adepte de Macbidouille
*

Groupe : Membres
Messages : 121
Inscrit : 11 Sep 2002
Membre no 3 452



Citation (Paul Emploi @ 2 Dec 2024, 20:21) *
au moins sur macOS 11 Big Sur


Je viens d'installer sur un 10.14 Mojave la version 0.5 (celle présentée dans le billet était la 0.4.7 sauf erreur de ma part) avec Llama3.2 sur un MBP 2017 i7 un peu costaud (pour l'époque).
/show info
Model
architecture llama
parameters 3.2B
…/…

Il m'explique comment faire des stats sur des factures en PDF en les chargeant avec des librairies Python.
Je n'en suis qu'au début, mais pour l'instant, tout roule !
Je touche du bois (c'est un peu bluffant)…

Le lendemain :
Après avoir poussé l'expérience un peu plus loin, il y a des points positifs et d'autres non.
En négatif : les exemples de code m'ont été donnés avec des librairies qui sont pour certaines obsolètes et ils sont davantage théoriques que fonctionnels. Ils nécessitent d'être remaniés de manière assez conséquente, par exemple pour la fermeture prématurée d'un fichier qui se fait alors que les objets utilisés dans la suite du code ont encore besoin du fichier ouvert.
En positif : ça m'a bien mis le pied à l'étrier en partant d'une simple question en langage naturel et ça m'a sorti de ma zone de confort dans le sens positif du terme.

En résumé :
- Aucun pb de fonctionnement sur Mojave
- M'a un peu bluffé en début de projet
- M'a donné envie d'insister et de l'utiliser sur un vrai projet
- Il faut savoir coder pour embrayer sur ses propositions

Ce message a été modifié par jmvr - 8 Dec 2024, 12:41.


--------------------
Mac 128 et quelques autres…
Développeur indépendant & collectionneur
Go to the top of the page
 
+Quote Post
Paul Emploi
posté 14 Dec 2024, 23:38
Message #3


Macbidouilleur d'Or !
*****

Groupe : Rédacteurs
Messages : 1 651
Inscrit : 19 Nov 2020
Membre no 212 895



Citation (jmvr @ 7 Dec 2024, 16:33) *
- Il faut savoir coder pour embrayer sur ses propositions

Ce dernier point est vraiment essentiel, c'est celui que je retiendrais car j'utilise des IA comme ChatGPT, Codeium ou Copilot pour développer en retrouvant des langages que j'ai abandonné depuis longtemps (comme du code Borland C++ 3.1 d'il y a 30ans), ou en abordant des outils que je ne maîtrise pas comme Rust ou l'IA via Python (mais qui sert juste de support). J'ai 47 ans d'expérience en programmation et j'apprécie cette assistance que je convoque quand j'en ai besoin.

Ça va à l'inverse de l'angoisse qu'ont certains développeurs expérimentés: d'être virés pour être remplacés par des jeunes moins expérimentés mais surtout moins cher. Et du choix de certaines sociétés qui ont cru à cette utopie.

En revanche ça va rendre la phase d'apprentissage des jeunes rentrant sur le marché du travail bien plus compliquée, puisque si ils peuvent demander des conseils à une IA pour les assister, ils manqueront du bagage pour les exploiter efficacement et surtout risquent de produire du code de mauvaise qualité et potentiellement avec des failles de sécurité. Donc retoqué lors du Pull Request.

Une astuce que j'utilise avec la génération de code dans Visual Studio (mon préféré actuellement, marre de changer d'outil pour chaque plateforme!) :
dans une fonction ou méthode bien nommée, idem pour les paramètres et les variables, écrire un commentaire décrivant ce qui doit être fait.
Dans de nombreux cas la génération de code embraye, et produit un code présentable une fois qu'on y a changé un ou deux détails.
Ça accélère incroyablement l'écriture elle-même et on peut se focaliser sur la conception, contrats, responsabilités, interfaces, le nommage, ce qui est vraiment de la valeur ajoutée.


--------------------
La liberté d'expression c'est l'extrémisme. La censure c'est la liberté.
Go to the top of the page
 
+Quote Post

Les messages de ce sujet
- Paul Emploi   Llama-3.2-1B : une IA pour presque tous les Mac !   2 Dec 2024, 20:21
- - tchek   Excellent merci !   2 Dec 2024, 23:16
- - Paul Emploi   Il y a trois points: D'abord le code PHP est ...   2 Dec 2024, 23:30
- - tchek   Question bête : Existe t-il une IA via ce service...   2 Dec 2024, 23:34
|- - Paul Emploi   Citation (tchek @ 3 Dec 2024, 00:34) Ques...   2 Dec 2024, 23:55
|- - tchek   Citation (Paul Emploi @ 2 Dec 2024, 23:55...   3 Dec 2024, 13:38
|- - Paul Emploi   Citation (tchek @ 3 Dec 2024, 14:38) Cita...   3 Dec 2024, 13:50
|- - DiarOne   Citation (Paul Emploi @ 3 Dec 2024, 14:50...   3 Dec 2024, 14:20
|- - chianti's yogurt   Citation (DiarOne @ 3 Dec 2024, 15:20) No...   3 Dec 2024, 15:38
- - JayTouCon   Citation (Paul Emploi @ 2 Dec 2024, 20:21...   3 Dec 2024, 09:26
- - DiarOne   Intéressant comme article 👍   3 Dec 2024, 10:39
- - VerteCampagne   oui, enfin, on peut toujours bricoler, mais à ter...   3 Dec 2024, 14:49
|- - Paul Emploi   Citation (VerteCampagne @ 3 Dec 2024, 15...   3 Dec 2024, 15:54
- - marc_os   Citation Apple explique qu'il faut un SoC Appl...   3 Dec 2024, 15:33
|- - JayTouCon   Citation (marc_os @ 3 Dec 2024, 15:33) Ci...   3 Dec 2024, 16:45
|- - marc_os   Citation (JayTouCon @ 3 Dec 2024, 17:45) ...   4 Dec 2024, 15:16
|- - JayTouCon   Citation (marc_os @ 4 Dec 2024, 15:16) Co...   4 Dec 2024, 18:22
|- - VerteCampagne   Citation (JayTouCon @ 4 Dec 2024, 19:22) ...   5 Dec 2024, 15:41
- - VerteCampagne   et pendant ce temps là... Benoît Dupin à la co...   4 Dec 2024, 10:55
- - malloc   J'ai testé LLama-3.2-1B. Le concept est inté...   4 Dec 2024, 15:14
|- - Hebus   Citation (malloc @ 4 Dec 2024, 15:14) J...   5 Dec 2024, 18:20
|- - malloc   Citation (Hebus @ 5 Dec 2024, 18:20) Cita...   5 Dec 2024, 20:34
- - Paul Emploi   Pour les coupeurs de cheveux en 4 et autres amateu...   4 Dec 2024, 23:53
- - Paul Emploi   "il a tendance à bien halluciner quand-même...   5 Dec 2024, 22:19
- - jmvr   Citation (Paul Emploi @ 2 Dec 2024, 20:21...   7 Dec 2024, 15:33
- - Paul Emploi   Citation (jmvr @ 7 Dec 2024, 16:33) - Il ...   14 Dec 2024, 23:38


Reply to this topicStart new topic
3 utilisateur(s) sur ce sujet (3 invité(s) et 0 utilisateur(s) anonyme(s))
0 membre(s) :

 



Nous sommes le : 30th July 2025 - 16:24