![]() |
Bienvenue invité ( Connexion | Inscription )
![]() |
![]()
Message
#1
|
|
![]() Macbidouilleur d'Or ! ![]() ![]() ![]() ![]() ![]() Groupe : Rédacteurs Messages : 1 655 Inscrit : 19 Nov 2020 Membre no 212 895 ![]() |
Apple explique qu'il faut un SoC Apple Silicon, des Gigaoctets de mémoire libre, et que ses IA ne peuvent pas tourner sur les Mac Intel, d'anciens iPhone, et c'est absolument faux.
Un contre-exemple est Llama-3.2-1B (1,2 milliards de paramètres en BF16). Voici l'échange que j'ai eu avec lui, il a tendance à bien halluciner quand-même, mais il est très utilisable: Deux points, la vitesse était correcte, un peu lent certes mais utilisable au quotidien. Mais je l'ai fait tourner sur un MacBook Pro 13" début-2013 (dual-core i7) avec 8Go de RAM sous macOS 15 Sequoia grâce à OpenCore Legacy Patcher. Ollama se télécharge ici, nécessite d'être au moins sur macOS 11 Big Sur, mais est vraiment compatible avec du matériel ancien et même très performant vu le peu de puissance du vieux MBP 13". Par défaut il charge LLama-3.2-1B mais vous pouvez bien sûr charger d'autres Modèles d'IA. Je crois en l'émergence d'IA plus légères, tournant plus facilement et plus rapidement, spécialisées dans des tâches précises, comme programmer ou rédiger un courrier, et surtout accessibles à tous. Llama-3.2-1B est un pas dans cette direction, mais aussi une base de travail pour avoir des versions spécialisées. Lien vers le billet original -------------------- La liberté d'expression c'est l'extrémisme. La censure c'est la liberté.
|
|
|
![]() |
![]()
Message
#2
|
|
![]() Macbidouilleur d'Or ! ![]() ![]() ![]() ![]() ![]() Groupe : Membres Messages : 2 158 Inscrit : 12 Feb 2004 Lieu : ?/Know Universe/Milky Way/Solar System/Earth/private(?)/ Membre no 14 695 ![]() |
Question bête :
Existe t-il une IA via ce service qui ne soit pas que text only ? -------------------- macOS./* Clients & Serveurs Dépannages ACTC
kernel[0]: The Regents of the University of California. All rights reserved. mac Framework successfully initialized. (Was...) |
|
|
![]()
Message
#3
|
|
![]() Macbidouilleur d'Or ! ![]() ![]() ![]() ![]() ![]() Groupe : Rédacteurs Messages : 1 655 Inscrit : 19 Nov 2020 Membre no 212 895 ![]() |
Question bête : Existe t-il une IA via ce service qui ne soit pas que text only ? Oui via cette page de recherche de LLM, tu trouveras en cherchant "vision" qu'il y a des LLM qui traitent aussi la vision, les images en entrées. En revanche ça n'est pas un outil pour générer des images en local. Pour cela j'utilise Dall-E. Il y a d'autres outils locaux pour ça, mais les Modèles sont bien plus lourds! Et ça n'est pas un service, pas un service en-ligne, tout tourne en local dans le Mac. On peut lui confier ses secrets. Dans ma démo à ma moitié, j'ai désactivé le WiFi pour montrer que c'était dans le vieux mac de 11 ans! -------------------- La liberté d'expression c'est l'extrémisme. La censure c'est la liberté.
|
|
|
![]()
Message
#4
|
|
![]() Macbidouilleur d'Or ! ![]() ![]() ![]() ![]() ![]() Groupe : Membres Messages : 2 158 Inscrit : 12 Feb 2004 Lieu : ?/Know Universe/Milky Way/Solar System/Earth/private(?)/ Membre no 14 695 ![]() |
Question bête : Existe t-il une IA via ce service qui ne soit pas que text only ? Oui via cette page de recherche de LLM, tu trouveras en cherchant "vision" qu'il y a des LLM qui traitent aussi la vision, les images en entrées. En revanche ça n'est pas un outil pour générer des images en local. Pour cela j'utilise Dall-E. Il y a d'autres outils locaux pour ça, mais les Modèles sont bien plus lourds! Et ça n'est pas un service, pas un service en-ligne, tout tourne en local dans le Mac. On peut lui confier ses secrets. Dans ma démo à ma moitié, j'ai désactivé le WiFi pour montrer que c'était dans le vieux mac de 11 ans! Merci bien pour toutes ces précisions👍🏻🙏Mais Dall-E, tourne obligatoirement via Chat GPT ? Pardonne mon ignorance...Comment l'installe t-on en local ? Ce message a été modifié par tchek - 3 Dec 2024, 13:43. -------------------- macOS./* Clients & Serveurs Dépannages ACTC
kernel[0]: The Regents of the University of California. All rights reserved. mac Framework successfully initialized. (Was...) |
|
|
![]()
Message
#5
|
|
![]() Macbidouilleur d'Or ! ![]() ![]() ![]() ![]() ![]() Groupe : Rédacteurs Messages : 1 655 Inscrit : 19 Nov 2020 Membre no 212 895 ![]() |
Question bête : Existe t-il une IA via ce service qui ne soit pas que text only ? Oui via cette page de recherche de LLM, tu trouveras en cherchant "vision" qu'il y a des LLM qui traitent aussi la vision, les images en entrées. En revanche ça n'est pas un outil pour générer des images en local. Pour cela j'utilise Dall-E. Il y a d'autres outils locaux pour ça, mais les Modèles sont bien plus lourds! Et ça n'est pas un service, pas un service en-ligne, tout tourne en local dans le Mac. On peut lui confier ses secrets. Dans ma démo à ma moitié, j'ai désactivé le WiFi pour montrer que c'était dans le vieux mac de 11 ans! Merci bien pour toutes ces précisions👍🏻🙏Mais Dall-E, tourne obligatoirement via Chat GPT ? Pardonne mon ignorance...Comment l'installe t-on en local ? On n'installe pas Dall-E en local... En fait les modèles LLM pour la génération d'image sont énormes et nécessitent du matériel extrêmement coûteux! -------------------- La liberté d'expression c'est l'extrémisme. La censure c'est la liberté.
|
|
|
![]()
Message
#6
|
|
![]() Macbidouilleur d'argent ! ![]() ![]() ![]() Groupe : Membres Messages : 602 Inscrit : 9 Dec 2004 Lieu : Paris Membre no 28 517 ![]() |
Question bête : Existe t-il une IA via ce service qui ne soit pas que text only ? Oui via cette page de recherche de LLM, tu trouveras en cherchant "vision" qu'il y a des LLM qui traitent aussi la vision, les images en entrées. En revanche ça n'est pas un outil pour générer des images en local. Pour cela j'utilise Dall-E. Il y a d'autres outils locaux pour ça, mais les Modèles sont bien plus lourds! Et ça n'est pas un service, pas un service en-ligne, tout tourne en local dans le Mac. On peut lui confier ses secrets. Dans ma démo à ma moitié, j'ai désactivé le WiFi pour montrer que c'était dans le vieux mac de 11 ans! Merci bien pour toutes ces précisions👍🏻🙏Mais Dall-E, tourne obligatoirement via Chat GPT ? Pardonne mon ignorance...Comment l'installe t-on en local ? On n'installe pas Dall-E en local... En fait les modèles LLM pour la génération d'image sont énormes et nécessitent du matériel extrêmement coûteux! Nous sommes plusieurs illustrateurs sur ce site. Pour qlqs centaines d'euros (voir milliers) et un peu de temps, on peu faire office d'IA générative de dessins ![]() -------------------- Graphiste / illustrateur de profession et de passion
-------------------------------------------------------- Mac Studio M1M & M4M 64Go - 1 To, MBA 13 M2 -------------------------------------------------------- iPad Pro, iPhone 15 Pro max -------------------------------------------------------- PS4 Pro à 서울 (Séoul), PS5 à Paris |
|
|
![]() ![]() |
Nous sommes le : 31st July 2025 - 13:12 |