![]() |
Bienvenue invité ( Connexion | Inscription )
![]() |
![]()
Message
#1
|
|
![]() Macbidouilleur d'Or ! ![]() ![]() ![]() ![]() ![]() Groupe : Rédacteurs Messages : 1 833 Inscrit : 19 Nov 2020 Membre no 212 895 ![]() |
[MàJ par Philippe]
À la question-piège "Que peut-on faire un week-end de vacances à Limoges", rien ne m'a été épargné par le nouvel GPT-OSS d'OpenAI dans sa version 20B (20 milliards de paramètres/weights) nécessitant déjà 24 Go de RAM sur un Mac ARM. La porcelaine ou les céramiques? Non. Les promenades le long de la Loire? Oui. La visite du chateau de Chambord? Oui, aussi! À cette échelle (20B) c'est la plus mauvaise IA que j'ai essayé! En bonus pour lui Oradour-sur-Glane se résume à une auberge! Si si! À la place il recommande le Parc Naturel du Morvan, ou le Parc d'attraction du Puy de Dôme. Il n'a pas vraiment le compas dans l'œil. [Article initial] OpenAI avait été originellement créé pour proposer des IA en libre-accès, et a depuis changé son fusil d'épaule, devenant un mammouth des IA payantes via abonnement ou accords avec des partenaires comme Apple et surtout Microsoft. Les différents ChatGPT. Le modèle GPT-OSS vient d'être proposé avec 20 milliards ou 120 milliards de paramètres (weights), et maintenant accessibles via LM Studio, ou téléchargeables séparément, en accès-libre. Néanmoins nombre d'entre nous auront une belle déconvenue, car si des sites indiquent que le plus petit modèles (20 milliards de paramètres/weights) tournerait sur un Mac récent avec 16 Go de RAM, ça n'est malheureusement pas possible. Pour faire tourner le plus petit modèle, il vous faut un Mac ARM avec 24 Go de RAM au minimum. Alternativement sur PC, une dGPU avec 16 Go de RAM comme l'excellente et abordable GeForce RTX 5060 Ti 16 Go. Le modèle avec 120 milliards de paramètre devrait tourner sur un Mac ARM avec 96 Go de RAM sans que je puisse le vérifier dans ce cas. Avec 128 Go de RAM ça passera large. Je vais lui faire passer mes petits "benchmarks" ce soir. Lien vers le billet original -------------------- La liberté d'expression c'est l'extrémisme. La censure c'est la liberté.
|
|
|
![]() |
![]()
Message
#2
|
|
![]() Macbidouilleur d'Or ! ![]() ![]() ![]() ![]() ![]() Groupe : Rédacteurs Messages : 1 833 Inscrit : 19 Nov 2020 Membre no 212 895 ![]() |
L'IA libre d'accès de OpenAI est une catastrophe en version 20B (20 milliards de paramètres/weights).
Celle qui nécessite donc un Mac ARM avec 24 Go de RAM, ou une dGPU avec 16 Go de VRAM sur PC (et probablement au moins 32 Go de RAM si pas plus). Pour ma question d'un week-end à Limoges, elle ne m'a pas parlé de porcelaine, de musée de la porcelaine, de céramiques (on y a un pôle technologique), mais tenez-vous bien... De promenade sur les bords de Loire, du chateau de Chambord, et en général du grand n'importe quoi. Tout le reste est plus ou moins inventé, ou absolument oubliable, de la merde en boîte! -------------------- La liberté d'expression c'est l'extrémisme. La censure c'est la liberté.
|
|
|
![]()
Message
#3
|
|
Macbidouilleur de vermeil ! ![]() ![]() ![]() ![]() Groupe : Membres Messages : 1 415 Inscrit : 12 Jun 2005 Membre no 40 785 ![]() |
L'IA libre d'accès de OpenAI est une catastrophe en version 20B (20 milliards de paramètres/weights). Celle qui nécessite donc un Mac ARM avec 24 Go de RAM, ou une dGPU avec 16 Go de VRAM sur PC (et probablement au moins 32 Go de RAM si pas plus). Pour ma question d'un week-end à Limoges, elle ne m'a pas parlé de porcelaine, de musée de la porcelaine, de céramiques (on y a un pôle technologique), mais tenez-vous bien... De promenade sur les bords de Loire, du chateau de Chambord, et en général du grand n'importe quoi. Tout le reste est plus ou moins inventé, ou absolument oubliable, de la merde en boîte! Donc pour résumer....on n'est pas prêt de voir débarquer sur nos smartphones une IA fiable et qui tourne en locale...même avec du 16Go...ou alors une IA très spécialisée pour faire des résa en ligne comme semble apprécier le spécialiste JTC..lol...je n'irais pas jusqu'à dire 8Go ou 16Go même combat ..mais bof bof.. Même sur des choses simples, ça merde lamentablement .... https://www.youtube.com/shorts/SlyUvvbzRPc Citation Dr. Luc JULIA, directeur scientifique de #Renault et concepteur de l'assistant vocal #Siri, raconte comment il intervient dans les écoles pour apprendre aux élèves à bien utiliser l'IA et à vérifier les informations. Il était auditionné par la commission des #AffairesEconomiques Il aurait dû utiliser Perplexity....blague à part ...bientôt les sources d'information alimentées elles-mêmes par d'autres IA comme des virus qui détruisent et corrompent l'information Ce message a été modifié par joe75 - 7 Aug 2025, 09:18. |
|
|
![]()
Message
#4
|
|
![]() canoéiste trrrès imp(r)udent ![]() ![]() ![]() ![]() ![]() Groupe : Membres Messages : 6 366 Inscrit : 5 May 2003 Lieu : LA ROCHELLE (17) Membre no 7 431 ![]() |
blague à part ...bientôt les sources d'information alimentées elles-mêmes par d'autres IA comme des virus qui détruisent et corrompent l'information La consanguinité des IA est déjà en route ..... Les images générées par IA sont de plus en plus jaunes, et avec la « consanguinité » ça va s’aggraver Internet est inondé par un filtre jaunâtre aussi moche que drôle, mais ce n’est qu’un symptôme d’une crise de l’IA qui nous guette. https://fr.news.yahoo.com/images-g%C3%A9n%C...-050011855.html Ce message a été modifié par DOMY - 7 Aug 2025, 11:02. -------------------- iMac (21,5 pouces - Fin 2012) - Mac OS Sierra 10.12.6
LiveBox 6 |
|
|
![]() ![]() |
Nous sommes le : 1st September 2025 - 14:46 |