IPB

Bienvenue invité ( Connexion | Inscription )

3 Pages V  < 1 2 3  
Reply to this topicStart new topic
> Mon nouveau Mac : sa config et son prix, Réactions à la publication du 26/06/2025
Options
Laszlo Lebrun
posté 29 Jun 2025, 16:59
Message #61


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 2 541
Inscrit : 1 Nov 2021
Membre no 214 848



Citation (Hebus @ 29 Jun 2025, 16:35) *
Pour celles que je connais, que j’ai pu faire tourner, elles ont été entraînées ailleurs, en local, ça signifie que tu peux faire tourner l’inférence en local. Sur ces systèmes l’inférence coûte cher (quelques secondes de calculs) mais est ridicule par rapport au temps et au coût d’entraînement, plusieurs semaines… et d’ailleurs, un des trucs déterminants est le nombre de tokens qui constitue l’ensemble des mots que l’IA utilise pour inférer statiquement la suite… De ce que j’en ai compris …

Mais entrainées à quoi au juste?
Une grosse IA dans un centre de calcul peut être généraliste, mais pas sur un ordi dans ta cuisine?


--------------------
"Les gens douteront toujours de la vérité sur Internet car l'erreur est constamment prêchée autour de nous" Johann Wolfgang von Goethe
MBP 15" 2014 Retina ( Win11), Macbook Air 2013 (en voyage), iMac 2015 27" Retina (Win11), Macbook blanc 2008 (Mate), pour ne citer que les Macs.
Go to the top of the page
 
+Quote Post
Hebus
posté 29 Jun 2025, 18:46
Message #62


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 7 732
Inscrit : 24 Sep 2015
Lieu : Pays d'Aix
Membre no 196 570



Citation (Laszlo Lebrun @ 29 Jun 2025, 17:59) *
Citation (Hebus @ 29 Jun 2025, 16:35) *
Pour celles que je connais, que j’ai pu faire tourner, elles ont été entraînées ailleurs, en local, ça signifie que tu peux faire tourner l’inférence en local. Sur ces systèmes l’inférence coûte cher (quelques secondes de calculs) mais est ridicule par rapport au temps et au coût d’entraînement, plusieurs semaines… et d’ailleurs, un des trucs déterminants est le nombre de tokens qui constitue l’ensemble des mots que l’IA utilise pour inférer statiquement la suite… De ce que j’en ai compris …

Mais entrainées à quoi au juste?
Une grosse IA dans un centre de calcul peut être généraliste, mais pas sur un ordi dans ta cuisine?


Entraîné… C’est vrai que c’est assez anthropomorphique… alors que ça signifie de faire un calcul d’optimisation dans un espace de fonctions, j’avoue que j’ai du mal à l’expliquer en quelques mots car ce n’est pas simple, en tous les cas pas encore suffisamment compris pour l’expliquer simplement.

J’ai une analogie qui consiste à dire que l’on crée une sorte d’index sémantique du corpus initial, même si au bout l’index et le corpus sont en fait la fonction que l’on a trouvée, elle contient dans sa définition, qui est colossale, d’où le coût de l’inférence, le corpus et les liens qui relient les données du corpus… Mais le corpus en lui-même disparaît, ce qui est dans la fonction c’est l’essence même du corpus sous une forme de connaissance statistique des choses qui ont du sens ensemble.

L’entraînement concrètement est construit en général en prenant le corpus par bloc à jouer en enlevant des mots, à voir quels mots sont devinés, leur précision et ainsi à cherche la fonction qui minimise l’erreur des devinettes smile.gif

Cette fonction permet ensuite, étant donné un prompt de calculer les mots les plus problables qui vont continuer le texte initial… Y a un côté magique, car le Big Data fait que la fonction résultante (le réseau de neurones avec ses coefficients calculés) contient de manière implicite la structure du langage… le contenu du corpus… et par ailleurs ce que je trouve incroyable que c’est grâce au fait que le corpus est bien préparé que l’on récupère des réponses structurées qui n’existent pas dans le corpus original… Mais y a les hallucinations… je crois que sur un LLM généraliste juste 2/3 des informations générées sont justes. Donc méfiance !


Désolé, je ne sais pas faire plus simple, ce n’est pas ma spécialité, y a un truc vertigineux là-dedans, c’est le fait que ça ne raisonne pas, mais ça en donne l’impression alors que comme un jeu d’échec électronique qui peut battre un grand champion, il n’y a pas de raisonnement, juste un modèle mathématique capable de restituer la cohérence d’un ensemble de règles et de les apliquer : jouer aux échec, ou produire du langage.

Ce message a été modifié par Hebus - 30 Jun 2025, 06:36.


--------------------
Bobo du Pays d'Aix et Fanboy Apple/NeXT
Pas d'actions Apple ou de rémunération quelconque !
Go to the top of the page
 
+Quote Post
Laszlo Lebrun
posté 29 Jun 2025, 19:17
Message #63


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 2 541
Inscrit : 1 Nov 2021
Membre no 214 848



Citation (Hebus @ 29 Jun 2025, 19:46) *
une sorte d’index sémantique du corpus initial, même si au bout l’index et le corpus sont en fait la fonction que l’on a trouvée, elle contient dans sa définition, qui est colossale, d’où le coût de l’ingérence, le corpus et les liens qui relient les données du corpus...
Merci du charabia. Ce ne répond pas à ma question:
On gros -très gros- centre de calcul peut avoir des données sur a peu près tous les domaines, mais en local il faut se limiter à un domaine: la génétique, l'histoire précolombienne, la physque quantique, la philosophie de Spinoza et la programmation en fuzzy logic c'est pas exactement les mémes bases de savoir.
Comment ça se passe en pratique?


--------------------
"Les gens douteront toujours de la vérité sur Internet car l'erreur est constamment prêchée autour de nous" Johann Wolfgang von Goethe
MBP 15" 2014 Retina ( Win11), Macbook Air 2013 (en voyage), iMac 2015 27" Retina (Win11), Macbook blanc 2008 (Mate), pour ne citer que les Macs.
Go to the top of the page
 
+Quote Post
Hebus
posté 29 Jun 2025, 23:26
Message #64


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 7 732
Inscrit : 24 Sep 2015
Lieu : Pays d'Aix
Membre no 196 570



Je ne vais pas y passer des heures, la sur cette question, la réponse est évidente !

Le corpus est plus réduit, mais c’est le même principe, vu que le corpus est plus petit, le nombre de paramètres du système est bien plus réduit, donc coûte moins cher à entraîner, même si ça coûte cher quand même

Attention, un petit modèle en local, il n’y a pas la base de données, il y a le modèle mathématique, le réseau de neurones, obtenue lors de l’entraînement sur la base d’information spécialisée.

Mais il est facile d’obtenir des informations sur la question sur le web, ou grâce à un LLM

Ce message a été modifié par Hebus - 29 Jun 2025, 23:45.


--------------------
Bobo du Pays d'Aix et Fanboy Apple/NeXT
Pas d'actions Apple ou de rémunération quelconque !
Go to the top of the page
 
+Quote Post
Paul Emploi
posté 30 Jun 2025, 00:09
Message #65


Macbidouilleur d'Or !
*****

Groupe : Rédacteurs
Messages : 1 563
Inscrit : 19 Nov 2020
Membre no 212 895



Citation (Laszlo Lebrun @ 29 Jun 2025, 20:17) *
Citation (Hebus @ 29 Jun 2025, 19:46) *
une sorte d’index sémantique du corpus initial, même si au bout l’index et le corpus sont en fait la fonction que l’on a trouvée, elle contient dans sa définition, qui est colossale, d’où le coût de l’ingérence, le corpus et les liens qui relient les données du corpus...
Merci du charabia. Ce ne répond pas à ma question:
On gros -très gros- centre de calcul peut avoir des données sur a peu près tous les domaines, mais en local il faut se limiter à un domaine: la génétique, l'histoire précolombienne, la physque quantique, la philosophie de Spinoza et la programmation en fuzzy logic c'est pas exactement les mémes bases de savoir.
Comment ça se passe en pratique?

Tu n'as rien compris, peut-être par anthropomorphisme.
Les modèles avec moins de paramètres (weights) en savent déjà bien plus que nous sur tout cela. Sur plus de langues.


--------------------
La liberté d'expression c'est l'extrémisme. La censure c'est la liberté.
Go to the top of the page
 
+Quote Post
Hebus
posté 30 Jun 2025, 08:27
Message #66


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 7 732
Inscrit : 24 Sep 2015
Lieu : Pays d'Aix
Membre no 196 570



Citation (Laszlo Lebrun @ 29 Jun 2025, 20:17) *
Citation (Hebus @ 29 Jun 2025, 19:46) *
une sorte d’index sémantique du corpus initial, même si au bout l’index et le corpus sont en fait la fonction que l’on a trouvée, elle contient dans sa définition, qui est colossale, d’où le coût de l’ingérence, le corpus et les liens qui relient les données du corpus...
Merci du charabia. Ce ne répond pas à ma question:
On gros -très gros- centre de calcul peut avoir des données sur a peu près tous les domaines, mais en local il faut se limiter à un domaine: la génétique, l'histoire précolombienne, la physque quantique, la philosophie de Spinoza et la programmation en fuzzy logic c'est pas exactement les mémes bases de savoir.
Comment ça se passe en pratique?


Quand même, j’ai fais l’effort de te donner une explication de mon niveau de compréhension … vu la réaction, genre client roi … j’aurais du me passer de te répondre.

C’est dingue d’avoir un comportement pareil …


--------------------
Bobo du Pays d'Aix et Fanboy Apple/NeXT
Pas d'actions Apple ou de rémunération quelconque !
Go to the top of the page
 
+Quote Post
jeandemi
posté 30 Jun 2025, 08:48
Message #67


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 2 556
Inscrit : 20 Aug 2020
Lieu : Belgique
Membre no 212 269



J'avoue ne rien avoir compris à ton explication non-plus, le jargon utilisé est trop spécifique aux programmeurs.
Je ne sais déjà pas ce qu'est l'inférence

Et si je comprends bien la question de Lazlo, c'est "où est-ce que l'IA locale va chercher ses informations ?"
Pour un système en ligne, je comprends bien qu'il va sur le web, mais un système local ?

Merci d'éclaircir ce truc qui est on ne peut plus nébuleux pour moi (et pour beaucoup de gens je pense)


--------------------
Hack15: Asus Z10PA-U8 Xeon Broadwell E5-2690v4 (14c @2,6GHz) 2x16GB DDR4 ECC GF GT730/4G NVME Micron 512 Séquoia OC1.0.4 +OCLP
Hack 14: Asus Strix X99 Gaming Xeon Haswell E5-1660v3 (OVC à4,2) 4x8GB DDR4-2400 Gigabyte Vega56/8G, Monterey et Sonoma OC 1.0.4
Hack 13 "Photo": Asus Gryphon Z87 i7-4770K 2x8GB DDR3 XFX RX6800XT SSD SATA 4TB WD Red, MacOS 12.7.6 Monterey, Clover 5146
Hack 12: CM Qiyida E5-A99 (X9H9D) Xeon Haswell E5-2666v3 (10c/20th à 2,9GHz) 2x8GB DDR4, OC 0.9.3 Sonoma
Hack 9: Asus P8Z77-M i5-3450 0.8.3 Monterey Hack 10: Asus H81M-C i7-4770 16GB DDR3, MSI RX570/8GB OC 0.9.8 Monterey+Win10
Hackintosh 8 "dual2": Supermicro X9DAi Double Xeon E5-2670v2 (total 20c/40th@2,5GHz) 192GB (6x32GB) DDR3-13330RegECC, Sapphire Vega64/8G, USB3 FL1100, OC 0.7.9 Catalina et Ubuntu 20.04LTS
Hackintosh 7 "MP6" : JingSha X79-P3 Xeon E5-2667v2 (8c/16th@3,3GHz) 4x16GB DDR3-1866RegECC Gigabyte Vega64/8GB USB3 FL1100 PCI-E SSD500GB NVME 970Evo+ HDD500GB SATA Mojave Clover
Hack6 "Dual" : Kllisre Dual-X79 2x Xeon E5-2697v2 (total 24c/48th@2,7GHz) 8x16GB DDR3-1600ECC Asus GTX760/2GB SSD256GB Mac OS-X Mojave Clover
Hackintosh 2, 3, 4 et 5: Asus P5B/P5E-VM DO/P5KPL-VM, Q9550, 8/4GB DDR2-800, Quadro K600/8800GTX/8500GT, SSD+HDD SATA, Mac OS-X 10.9, 10.11, 10.12.6 et 10.13.6 (+ Snow Léopard incomplet en cours d'essais) Clover
Hackintosh1 "Photo" : Asus P7P55D i5-750 2x8GB DDR3 Gigabyte GTX770/4GB USB3 FL1100 SSD4TB SATA, Sierra Clover 5070
Hack 11: CM X79Server dual Xeon E5-2697v2 (total 24c/48th à 2,7GHz) pas réussi avec OC 0.9.2
Go to the top of the page
 
+Quote Post
Mac Arthur
posté 30 Jun 2025, 08:57
Message #68


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 6 534
Inscrit : 9 Feb 2002
Lieu : Cambodge
Membre no 2 013



Oui mais la grosse différence avec toi c'est qu'il y a des gens qui disent n'avoir pas compris, on va dire de façon normale, c'est à dire assez humblement, et puis il y en a qui te font comprendre que tu es quasiment "nul" simplement parce que tu n'as pas été capable de leur expliquer à eux. Tu n'es capable que de pondre du "charabia"!
C'est pour ça qu'il y a quelques personnes hautement indésirables ici, comme dans la vraie d'ailleurs...
Un de mes motos est de pardonner l'ignorance mais de fustiger l'arrogance et l'incompétence...
Je sais qu'il m'ignore, et c'est tant mieux, sauf que si on me cite, là il doit fermer les yeux smile.gif


--------------------
Mac Studio M4 Max (16C-40C) 64GB 1TB - Acasis 40Gbps M.2 NVMe 4 Bay Tb4 - Acasis 80Gbps M.2 NVMe SSD Enclosure Tb5 - ACASIS 40Gbps Dock Tb 4/3 Devices, USB 4, 13-in-1
Hackintosh Gigabyte X670 Gaming X AX - Ryzen™ 7 7700X - G-Skill GAMING TRIDEN Z5 RGB DDR5 5600MHz 2*16GB - Gigabyte RX 5700 XT - 2 Lexar NM710 M.2 PCIe 4.0 NVMe 1TB (Win 11, Linux et macOS) SSD Samsung 860 500Go (SuperDuper Sequoia), 2 SATAs 4To
ASUS PA329CRV 32" 4K 3840*2160, 2 Mi Xiaomi 34" 3440*1440
Switch 4K KVM CMSTEDCD (3 écrans 2 Machines) OpenCore 1.0.4 Sequoia 15.5 (24F74) Sonoma 14.7.6 Ventura 13.7.6 Monterey 12.7.6 Big Sur 11.7.10, Parallels Desktop Leopard Server > Sequoia (Sur Asus 790)
MacbookPro 14" 2021 Sequoia 15.5 Tahoe 26.0 beta 25A5295e - MacBook M3 15" 2024 Sequoia 15.5 - Synology DS1522+ - Raspberry PI 4

Retour d'expérience Installations d'OS X/macOS depuis OS X 10.5 Leopard jusqu'à macOS 12 Monterey

Durex King Size XXL (boites de 12) - Lave Linge LG F1222QD5 - Aspirateur Honiture Q6 Pro - Machine Espresso DeLonghi Magnifica Evo - Réfrigérateur Samsung RT38FFAK

Hackintosh Asus Z790 ProArt Creator WIFI - Intel™ i9 14900K
- G-Skill GAMING TRIDEN Z5 RGB DDR5 6000MHz 4*32GB - Gigabyte RX 6900 XT - 4 SSDs Adata Legend M.2 PCIe 4.0 NVMe 2TB
Macbook Pro early 2015 Power Mac G4, Power Mac G5, iMac 27, MacBook Air 13" Early 2014, , Mac Mini Intel Core 2 Duo Mid 2010 Apple MacBook Pro 2007 Hackintosh Gigabyte Z370 Aorus Ultra Gaming WIFI, Hackintosh Gigabyte Z490 VISION D
Go to the top of the page
 
+Quote Post
Laszlo Lebrun
posté 30 Jun 2025, 09:14
Message #69


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 2 541
Inscrit : 1 Nov 2021
Membre no 214 848



Citation (jeandemi @ 30 Jun 2025, 09:48) *
J'avoue ne rien avoir compris à ton explication non-plus, le jargon utilisé est trop spécifique aux programmeurs.
Je ne sais déjà pas ce qu'est l'inférence

Ça c'est encore le plus facile: une inference est un raisonnement basé sur des indices en soi incomplets, mais augmentés par l'expérience de beaucoup de cas similaires ou la connaissance était suffisante.
En gros "c'est en général toujours comme ça quand il y a les éléments 1,2, 3, 4, 5, donc quand il y a les éléments 1,2,4,5 il y a trois aussi"...
Citation
Et si je comprends bien la question de Lazlo, c'est "où est-ce que l'IA locale va chercher ses informations ?"
Pour un système en ligne, je comprends bien qu'il va sur le web, mais un système local ?
Merci d'éclaircir ce truc qui est on ne peut plus nébuleux pour moi (et pour beaucoup de gens je pense)

On peut imaginer qu'il puise par ex. dans Wikipédia-off-line? Le package anglais complet fait ~ 28GO en comprimé.

Ce message a été modifié par Laszlo Lebrun - 30 Jun 2025, 09:15.


--------------------
"Les gens douteront toujours de la vérité sur Internet car l'erreur est constamment prêchée autour de nous" Johann Wolfgang von Goethe
MBP 15" 2014 Retina ( Win11), Macbook Air 2013 (en voyage), iMac 2015 27" Retina (Win11), Macbook blanc 2008 (Mate), pour ne citer que les Macs.
Go to the top of the page
 
+Quote Post
MacAvantIOS
posté 30 Jun 2025, 09:21
Message #70


Adepte de Macbidouille
*

Groupe : Membres
Messages : 92
Inscrit : 23 Apr 2025
Membre no 220 471



Citation (jeandemi @ 30 Jun 2025, 08:48) *
J'avoue ne rien avoir compris à ton explication non-plus, le jargon utilisé est trop spécifique aux programmeurs.
Je ne sais déjà pas ce qu'est l'inférence

Et si je comprends bien la question de Lazlo, c'est "où est-ce que l'IA locale va chercher ses informations ?"
Pour un système en ligne, je comprends bien qu'il va sur le web, mais un système local ?

Merci d'éclaircir ce truc qui est on ne peut plus nébuleux pour moi (et pour beaucoup de gens je pense)


Quand c'est demandé poliment pas de problème!

La magie des gros modèles est qu'une fois la phase d'apprentissage passée, on finit avec le modèle, qui n'est jamais qu'une liste de probabilités qui lie les mots entre eux. Il faut voir ça comme un (très) gros fichier qui est une liste de coefficients.

Les LLM sont une sorte d'auto-correction sous stéroides, qui a des comportants émergents intéressants: la capacité à discuter, à jongler entre les langages et les concepts, et... à mémoriser des informations. Il ne va donc pas sur le web chercher de l'information, il a "retenu" des choses lors de son apprentissage. Avec des trous d'ailleurs, qu'il va combler sans même s'en rendre compte -- exactement comme les humains qui s'expriment sans trembler sur les sujets qu'ils ne maîtrisent pas wink.gif Cela donne les fameuses hallucinations.


C'est ce qui rend ce champ de recherche passionnant: en soi, un LLM ne réfléchit pas. Il n'a pas de vision du monde, ni de conscience. Un neurone animal non plus. Ce sont les comportements émergents qui sont intéressants.
Go to the top of the page
 
+Quote Post
Hebus
posté 30 Jun 2025, 09:54
Message #71


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 7 732
Inscrit : 24 Sep 2015
Lieu : Pays d'Aix
Membre no 196 570



Citation (jeandemi @ 30 Jun 2025, 09:48) *
J'avoue ne rien avoir compris à ton explication non-plus, le jargon utilisé est trop spécifique aux programmeurs.
Je ne sais déjà pas ce qu'est l'inférence

Et si je comprends bien la question de Lazlo, c'est "où est-ce que l'IA locale va chercher ses informations ?"
Pour un système en ligne, je comprends bien qu'il va sur le web, mais un système local ?

Merci d'éclaircir ce truc qui est on ne peut plus nébuleux pour moi (et pour beaucoup de gens je pense)


Alors on va prendre une analogie simple, le calcul d’une ligne droite qui passe au plus près de trois points non alignés.

Résoudre ce problème est un problème d’optimisation, on a des données en entrées et on cherche une fonction qui réduit au maximum une fonction d’erreur, ici la distance des points à la droite.

Donc on cherche une fonction F telle que la fonction d’erreur E soit un minimum des fonctions d’erreurs possibles, ici la fonction d’erreur appliquée à toutes les droites du plan.

Des points (Xi, Yi) avec i = 1 à 3… et on cherche les coefficients a et b de la fonction de la droite F(x)=a*x + b.

Chercher a et b c’est par analogie entraîner le système de solution, et inférer c’est exécuter la fonction sur x pour obtenir a*x+b.

Analogie intéressante sur 2 points …

- La fonction résultante ne contient pas les données de l’apprentissage, ici les couples (Xi,Yi).
- On peut poser la question x sans qu’il soit dans les données de départ et que la solution a*x+b ne soit pas non plus dans le corpus de départ.

Important à comprendre : a et b sont analogues aux poids/paramètres d’une LLM … le réseau Transformer définit un espace de fonctions, les poids/paramétres définissent une fonction dans cet espace : un point dans cet espace de dimension égal au nombre de paramètres.

Ce message a été modifié par Hebus - 1 Jul 2025, 09:33.


--------------------
Bobo du Pays d'Aix et Fanboy Apple/NeXT
Pas d'actions Apple ou de rémunération quelconque !
Go to the top of the page
 
+Quote Post
Laszlo Lebrun
posté 30 Jun 2025, 10:00
Message #72


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 2 541
Inscrit : 1 Nov 2021
Membre no 214 848



Citation (MacAvantIOS @ 30 Jun 2025, 10:21) *
La magie des gros modèles est qu'une fois la phase d'apprentissage passée, on finit avec le modèle, qui n'est jamais qu'une liste de probabilités qui lie les mots entre eux. Il faut voir ça comme un (très) gros fichier qui est une liste de coefficients.

Un peu comme la reconnaissance vocale qui ne comprend pas ce qu'elle écrit, mais travaille en probabilités?
Mais la question n'etait pas comment cela travaille, mais d'ou viennent les données.
Une fois le moteur en place, lui donne-ton des données par domaine de savoir? Genre Juridique Civil, juridiuqe Pénal, juridique Administratif, Musique du moyen-âge, programmation C++... ou est-ce un gros fichier généraliste?
Merci d'éclairer le sujet, qui devrait en interesser plus d'un.

Ce message a été modifié par Laszlo Lebrun - 30 Jun 2025, 10:03.


--------------------
"Les gens douteront toujours de la vérité sur Internet car l'erreur est constamment prêchée autour de nous" Johann Wolfgang von Goethe
MBP 15" 2014 Retina ( Win11), Macbook Air 2013 (en voyage), iMac 2015 27" Retina (Win11), Macbook blanc 2008 (Mate), pour ne citer que les Macs.
Go to the top of the page
 
+Quote Post
Hebus
posté 30 Jun 2025, 10:03
Message #73


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 7 732
Inscrit : 24 Sep 2015
Lieu : Pays d'Aix
Membre no 196 570



Citation (Mac Arthur @ 30 Jun 2025, 09:57) *
Oui mais la grosse différence avec toi c'est qu'il y a des gens qui disent n'avoir pas compris, on va dire de façon normale, c'est à dire assez humblement, et puis il y en a qui te font comprendre que tu es quasiment "nul" simplement parce que tu n'as pas été capable de leur expliquer à eux. Tu n'es capable que de pondre du "charabia"!
C'est pour ça qu'il y a quelques personnes hautement indésirables ici, comme dans la vraie d'ailleurs...
Un de mes motos est de pardonner l'ignorance mais de fustiger l'arrogance et l'incompétence...
Je sais qu'il m'ignore, et c'est tant mieux, sauf que si on me cite, là il doit fermer les yeux smile.gif


Sage décision !


--------------------
Bobo du Pays d'Aix et Fanboy Apple/NeXT
Pas d'actions Apple ou de rémunération quelconque !
Go to the top of the page
 
+Quote Post
Paul Emploi
posté 30 Jun 2025, 11:49
Message #74


Macbidouilleur d'Or !
*****

Groupe : Rédacteurs
Messages : 1 563
Inscrit : 19 Nov 2020
Membre no 212 895



Citation (Laszlo Lebrun @ 30 Jun 2025, 11:00) *
Citation (MacAvantIOS @ 30 Jun 2025, 10:21) *
La magie des gros modèles est qu'une fois la phase d'apprentissage passée, on finit avec le modèle, qui n'est jamais qu'une liste de probabilités qui lie les mots entre eux. Il faut voir ça comme un (très) gros fichier qui est une liste de coefficients.

Un peu comme la reconnaissance vocale qui ne comprend pas ce qu'elle écrit, mais travaille en probabilités?
Mais la question n'etait pas comment cela travaille, mais d'ou viennent les données.
Une fois le moteur en place, lui donne-ton des données par domaine de savoir? Genre Juridique Civil, juridiuqe Pénal, juridique Administratif, Musique du moyen-âge, programmation C++... ou est-ce un gros fichier généraliste?
Merci d'éclairer le sujet, qui devrait en interesser plus d'un.

Je pense comprendre ta question.

Un LLM est à la fois le moteur et les données, en fait on peut dire que la logique ce sont les données, ce qui inverse la proposition par rapport à de la programmation traditionnelle où on écrit du code (la logique) traitant des données.
Avec une phase d'apprentissage qu'on pourrait trouver similaire à une compression (avec pertes) d'une efficacité remarquable, et même comparer les hallucinations aux ersatz de compression (avec perte) dans l'audio ou les images.

La phase d'inférence ou d'exécution (je préfère le second terme), est une phase où on lui demande de compléter ce qui a précédé: initialement les prompts inclus dans le produit suivi du prompt de l'utilisateur. Tout cela sous forme de Tokens, comme "an" ou "to" ou "ken".
Le LLM génère alors la suite la plus probable de Tokens qui devraient suivre. Avec une astuce pour retrouver un peu du chaos de ce monde, ajouter un facteur aléatoire plus ou moins élevé.

C'est pour moi essentiellement un système de compression d'informations avec pertes et de restitution probabiliste de celles-ci.

Évidemment c'est plus compliqué, on peut distiller d'un LLM ou plusieurs vers un autre, élaguer pour avoir un LLM plus compact, faire différents types de fine-tuning pour spécialiser un LLM en vue de certaines tâches ou certains domaines de compétences, etc.


--------------------
La liberté d'expression c'est l'extrémisme. La censure c'est la liberté.
Go to the top of the page
 
+Quote Post
MacAvantIOS
posté 30 Jun 2025, 11:53
Message #75


Adepte de Macbidouille
*

Groupe : Membres
Messages : 92
Inscrit : 23 Apr 2025
Membre no 220 471



Citation (Laszlo Lebrun @ 30 Jun 2025, 10:00) *
Citation (MacAvantIOS @ 30 Jun 2025, 10:21) *
La magie des gros modèles est qu'une fois la phase d'apprentissage passée, on finit avec le modèle, qui n'est jamais qu'une liste de probabilités qui lie les mots entre eux. Il faut voir ça comme un (très) gros fichier qui est une liste de coefficients.

Un peu comme la reconnaissance vocale qui ne comprend pas ce qu'elle écrit, mais travaille en probabilités?
Mais la question n'etait pas comment cela travaille, mais d'ou viennent les données.
Une fois le moteur en place, lui donne-ton des données par domaine de savoir? Genre Juridique Civil, juridiuqe Pénal, juridique Administratif, Musique du moyen-âge, programmation C++... ou est-ce un gros fichier généraliste?
Merci d'éclairer le sujet, qui devrait en interesser plus d'un.


Le modèle ne contient pas les données, mais il est capable de ressortir ce qui ressemble à des données.

Par exemple, s'il produit la phrase "Jacques Chirac était un ..." le mot suivant sera probablement "homme politique" ou "président", plus que "footballer" ou "danseuse étoile".

Par phénomène émergent, on peut dire que le modèle "sait" quel métier avait Chirac. Il n'a pas besoin de consulter quoi que ce soit - et c'est vrai sur tous les domaines de compétences. Pendant l'apprentissage, les données viennent du corpus qui a été utilisé pour l'entrainement du model. Pendant l'utilisation, elles viennent des probabilités qui sont intégrées dans le modèle. Il n'y a pas de copie intégrale de wikipedia ou autre: le modèle a simplement été construit en prenant comme référence ce qui est écrit dans wikipedia, de manière globale.
Go to the top of the page
 
+Quote Post
Laszlo Lebrun
posté 30 Jun 2025, 13:12
Message #76


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 2 541
Inscrit : 1 Nov 2021
Membre no 214 848



En tout cas, en IA generative on peut s'amuser a des situations absurdes à souhait...
Un week end à Barcelone

Ce message a été modifié par Laszlo Lebrun - 30 Jun 2025, 13:14.


--------------------
"Les gens douteront toujours de la vérité sur Internet car l'erreur est constamment prêchée autour de nous" Johann Wolfgang von Goethe
MBP 15" 2014 Retina ( Win11), Macbook Air 2013 (en voyage), iMac 2015 27" Retina (Win11), Macbook blanc 2008 (Mate), pour ne citer que les Macs.
Go to the top of the page
 
+Quote Post
Mac Arthur
posté 30 Jun 2025, 13:50
Message #77


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 6 534
Inscrit : 9 Feb 2002
Lieu : Cambodge
Membre no 2 013



Citation (Laszlo Lebrun @ 30 Jun 2025, 19:12) *
En tout cas, en IA generative on peut s'amuser a des situations absurdes à souhait...
Un week end à Barcelone


Pas besoin d'IA pour ça smile.gif
Il suffit d'aller sur certaines parties du forum !


--------------------
Mac Studio M4 Max (16C-40C) 64GB 1TB - Acasis 40Gbps M.2 NVMe 4 Bay Tb4 - Acasis 80Gbps M.2 NVMe SSD Enclosure Tb5 - ACASIS 40Gbps Dock Tb 4/3 Devices, USB 4, 13-in-1
Hackintosh Gigabyte X670 Gaming X AX - Ryzen™ 7 7700X - G-Skill GAMING TRIDEN Z5 RGB DDR5 5600MHz 2*16GB - Gigabyte RX 5700 XT - 2 Lexar NM710 M.2 PCIe 4.0 NVMe 1TB (Win 11, Linux et macOS) SSD Samsung 860 500Go (SuperDuper Sequoia), 2 SATAs 4To
ASUS PA329CRV 32" 4K 3840*2160, 2 Mi Xiaomi 34" 3440*1440
Switch 4K KVM CMSTEDCD (3 écrans 2 Machines) OpenCore 1.0.4 Sequoia 15.5 (24F74) Sonoma 14.7.6 Ventura 13.7.6 Monterey 12.7.6 Big Sur 11.7.10, Parallels Desktop Leopard Server > Sequoia (Sur Asus 790)
MacbookPro 14" 2021 Sequoia 15.5 Tahoe 26.0 beta 25A5295e - MacBook M3 15" 2024 Sequoia 15.5 - Synology DS1522+ - Raspberry PI 4

Retour d'expérience Installations d'OS X/macOS depuis OS X 10.5 Leopard jusqu'à macOS 12 Monterey

Durex King Size XXL (boites de 12) - Lave Linge LG F1222QD5 - Aspirateur Honiture Q6 Pro - Machine Espresso DeLonghi Magnifica Evo - Réfrigérateur Samsung RT38FFAK

Hackintosh Asus Z790 ProArt Creator WIFI - Intel™ i9 14900K
- G-Skill GAMING TRIDEN Z5 RGB DDR5 6000MHz 4*32GB - Gigabyte RX 6900 XT - 4 SSDs Adata Legend M.2 PCIe 4.0 NVMe 2TB
Macbook Pro early 2015 Power Mac G4, Power Mac G5, iMac 27, MacBook Air 13" Early 2014, , Mac Mini Intel Core 2 Duo Mid 2010 Apple MacBook Pro 2007 Hackintosh Gigabyte Z370 Aorus Ultra Gaming WIFI, Hackintosh Gigabyte Z490 VISION D
Go to the top of the page
 
+Quote Post
Benzebut
posté 30 Jun 2025, 14:14
Message #78


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 5 465
Inscrit : 5 Mar 2003
Lieu : Ville de Notre-Dame
Membre no 6 523



Citation (jeandemi @ 30 Jun 2025, 09:48) *
Et si je comprends bien la question de Lazlo, c'est "où est-ce que l'IA locale va chercher ses informations ?"
Pour un système en ligne, je comprends bien qu'il va sur le web, mais un système local ?

Merci d'éclaircir ce truc qui est on ne peut plus nébuleux pour moi (et pour beaucoup de gens je pense)

L'information existe en local pour certaines fonctions et est complétée en ligne pour d'autres. Ce qui semble être justement le modèle pour Apple Intelligence.

Ainsi votre Mac connait qui est jeandemi, ses habitudes et ses données personnelles. Il accède à ces informations vous concernant ce qui va généré le "corpus jeandemi". Et cela sera un modèle simple avec peu de paramètres et de liens. En local, le système pourra vous fournir la réponse à la météo que vous allez avoir ce jour ou la date de votre prochain rendez-vous.

Maintenant, si vous souhaitez savoir quand Hebus sera en ligne pour fournir une brillante explication, il va falloir élargir la base de données pour collecter d'autres informations disponibles ailleurs ou localement l'intégrer dans le "corpus jeandemi". En maintenant les bons liens pour que cela reste exploitable, donc avec les bons paramètres. Et laisser du temps pour que tout soit indexé correctement par cette phase d'entrainement. Sachant qu'il y aura forcément des hallucinations qui sont des erreurs d'interprétations de type Laszlo Lebrun avec plus de données à traiter. Mais c'est inévitable avec de larges modèles...

Le modèle va contenir des probabilités et plus le "corpus jeandemi" sera enrichi avec les éléments MacAvantIOS,, puis Paul Emploi et consorts permettra de compléter les réponses. Localement ou en ayant des accès à distance en utilisant le "corpus Macbidouille" génératif si besoin.


--------------------
Sur iMac Pro (fin-2017) en Xeon 8 coeurs à 3.2 GHz / 32 Go Ram / Radeon Pro Vega 56 8 Go / 1 To SSD
Sous macOS 10.14.6 (Mojave) à jour et en réseau Wifi 6 avec une boite fibre 5 Gbit/s (fin de l'ADSL à la capitale)

Ayant été anobli depuis le 1er septembre de l'an de grâce 2024 avec le titre de Harceleur 1er par la Belle Province sur ces merveilleux forums...

Nostalgique de l'Apple IIgs ? Un petit émulateur : www.casags.net
Go to the top of the page
 
+Quote Post
Mac Arthur
posté 30 Jun 2025, 14:27
Message #79


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 6 534
Inscrit : 9 Feb 2002
Lieu : Cambodge
Membre no 2 013



You've made my day laugh.gif
On a les décors de Roger Hart, des costumes de Donald Cardwell et une pièce de Benzebut
J'ai également halluciné !
Merci. smile.gif

Ce message a été modifié par Mac Arthur - 30 Jun 2025, 14:31.


--------------------
Mac Studio M4 Max (16C-40C) 64GB 1TB - Acasis 40Gbps M.2 NVMe 4 Bay Tb4 - Acasis 80Gbps M.2 NVMe SSD Enclosure Tb5 - ACASIS 40Gbps Dock Tb 4/3 Devices, USB 4, 13-in-1
Hackintosh Gigabyte X670 Gaming X AX - Ryzen™ 7 7700X - G-Skill GAMING TRIDEN Z5 RGB DDR5 5600MHz 2*16GB - Gigabyte RX 5700 XT - 2 Lexar NM710 M.2 PCIe 4.0 NVMe 1TB (Win 11, Linux et macOS) SSD Samsung 860 500Go (SuperDuper Sequoia), 2 SATAs 4To
ASUS PA329CRV 32" 4K 3840*2160, 2 Mi Xiaomi 34" 3440*1440
Switch 4K KVM CMSTEDCD (3 écrans 2 Machines) OpenCore 1.0.4 Sequoia 15.5 (24F74) Sonoma 14.7.6 Ventura 13.7.6 Monterey 12.7.6 Big Sur 11.7.10, Parallels Desktop Leopard Server > Sequoia (Sur Asus 790)
MacbookPro 14" 2021 Sequoia 15.5 Tahoe 26.0 beta 25A5295e - MacBook M3 15" 2024 Sequoia 15.5 - Synology DS1522+ - Raspberry PI 4

Retour d'expérience Installations d'OS X/macOS depuis OS X 10.5 Leopard jusqu'à macOS 12 Monterey

Durex King Size XXL (boites de 12) - Lave Linge LG F1222QD5 - Aspirateur Honiture Q6 Pro - Machine Espresso DeLonghi Magnifica Evo - Réfrigérateur Samsung RT38FFAK

Hackintosh Asus Z790 ProArt Creator WIFI - Intel™ i9 14900K
- G-Skill GAMING TRIDEN Z5 RGB DDR5 6000MHz 4*32GB - Gigabyte RX 6900 XT - 4 SSDs Adata Legend M.2 PCIe 4.0 NVMe 2TB
Macbook Pro early 2015 Power Mac G4, Power Mac G5, iMac 27, MacBook Air 13" Early 2014, , Mac Mini Intel Core 2 Duo Mid 2010 Apple MacBook Pro 2007 Hackintosh Gigabyte Z370 Aorus Ultra Gaming WIFI, Hackintosh Gigabyte Z490 VISION D
Go to the top of the page
 
+Quote Post
Laszlo Lebrun
posté 30 Jun 2025, 14:59
Message #80


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 2 541
Inscrit : 1 Nov 2021
Membre no 214 848



Citation (Benzebut @ 30 Jun 2025, 15:14) *
L'information existe en local pour certaines fonctions et est complétée en ligne pour d'autres. Ce qui semble être justement le modèle pour Apple Intelligence.
Ainsi votre Mac connait qui est jeandemi, ses habitudes et ses données personnelles. Il accède à ces informations vous concernant ce qui va généré le "corpus jeandemi". Et cela sera un modèle simple avec peu de paramètres et de liens. En local, le système pourra vous fournir la réponse à la météo que vous allez avoir ce jour ou la date de votre prochain rendez-vous.
Maintenant, si vous souhaitez savoir quand Hebus sera en ligne pour fournir une brillante explication, il va falloir élargir la base de données pour collecter d'autres informations disponibles ailleurs ou localement l'intégrer dans le "corpus jeandemi". En maintenant les bons liens pour que cela reste exploitable, donc avec les bons paramètres. Et laisser du temps pour que tout soit indexé correctement par cette phase d'entrainement.

Et voilà ou je voulais en venir. En local, le contenu vient quand même d'une source on-line, et les propriétaires de la source sauront exactement où sont tes centres d'interêt. Héhé...
Et la requête météo en local ne fonctionnera pas non plus sans connection.
La seule difference sera qu'au bout d'un long entraînement une certaine autonomie sera possible, tant qu'on reste dans les clous...
C'est bien ça?

Ce message a été modifié par Laszlo Lebrun - 30 Jun 2025, 15:00.


--------------------
"Les gens douteront toujours de la vérité sur Internet car l'erreur est constamment prêchée autour de nous" Johann Wolfgang von Goethe
MBP 15" 2014 Retina ( Win11), Macbook Air 2013 (en voyage), iMac 2015 27" Retina (Win11), Macbook blanc 2008 (Mate), pour ne citer que les Macs.
Go to the top of the page
 
+Quote Post
Hebus
posté 30 Jun 2025, 16:56
Message #81


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 7 732
Inscrit : 24 Sep 2015
Lieu : Pays d'Aix
Membre no 196 570



Citation (Mac Arthur @ 30 Jun 2025, 15:27) *
You've made my day laugh.gif
On a les décors de Roger Hart, des costumes de Donald Cardwell et une pièce de Benzebut
J'ai également halluciné !
Merci. smile.gif


En effet y a du créatif là !!! biggrin.gif


--------------------
Bobo du Pays d'Aix et Fanboy Apple/NeXT
Pas d'actions Apple ou de rémunération quelconque !
Go to the top of the page
 
+Quote Post
Mac Arthur
posté 30 Jun 2025, 20:56
Message #82


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 6 534
Inscrit : 9 Feb 2002
Lieu : Cambodge
Membre no 2 013



Alors puisqu'on est dans une section où la modération est plus permissive, où les sujets partent souvent en sucette, où c'est "œil pour œil, dent pour dent", j'en profite pour dire à Benzebut toute l'admiration que j'ai pour lui en secret.
On se croise souvent sur des fils à problème, j'apporte ma petite contribution d'autodidacte que j'espère quand même éclairée (la contribution, pas moi…), mais lui, qui est sans doute informaticien de métier, rédige ses réponses exactement comme j'aurais aimé les rédiger.
Et toujours avec une sorte de flegme britannique que j'envie.
Voilà, c'est dit, pas besoin que ça fasse la prochaine couverture de Closer non plus, hein ! tongue.gif
Benzebut, si vous nous lisez, puisqu'avec lui le vouvoiement est de rigueur, encore merci !
Fin de l'entracte. Acte II.


--------------------
Mac Studio M4 Max (16C-40C) 64GB 1TB - Acasis 40Gbps M.2 NVMe 4 Bay Tb4 - Acasis 80Gbps M.2 NVMe SSD Enclosure Tb5 - ACASIS 40Gbps Dock Tb 4/3 Devices, USB 4, 13-in-1
Hackintosh Gigabyte X670 Gaming X AX - Ryzen™ 7 7700X - G-Skill GAMING TRIDEN Z5 RGB DDR5 5600MHz 2*16GB - Gigabyte RX 5700 XT - 2 Lexar NM710 M.2 PCIe 4.0 NVMe 1TB (Win 11, Linux et macOS) SSD Samsung 860 500Go (SuperDuper Sequoia), 2 SATAs 4To
ASUS PA329CRV 32" 4K 3840*2160, 2 Mi Xiaomi 34" 3440*1440
Switch 4K KVM CMSTEDCD (3 écrans 2 Machines) OpenCore 1.0.4 Sequoia 15.5 (24F74) Sonoma 14.7.6 Ventura 13.7.6 Monterey 12.7.6 Big Sur 11.7.10, Parallels Desktop Leopard Server > Sequoia (Sur Asus 790)
MacbookPro 14" 2021 Sequoia 15.5 Tahoe 26.0 beta 25A5295e - MacBook M3 15" 2024 Sequoia 15.5 - Synology DS1522+ - Raspberry PI 4

Retour d'expérience Installations d'OS X/macOS depuis OS X 10.5 Leopard jusqu'à macOS 12 Monterey

Durex King Size XXL (boites de 12) - Lave Linge LG F1222QD5 - Aspirateur Honiture Q6 Pro - Machine Espresso DeLonghi Magnifica Evo - Réfrigérateur Samsung RT38FFAK

Hackintosh Asus Z790 ProArt Creator WIFI - Intel™ i9 14900K
- G-Skill GAMING TRIDEN Z5 RGB DDR5 6000MHz 4*32GB - Gigabyte RX 6900 XT - 4 SSDs Adata Legend M.2 PCIe 4.0 NVMe 2TB
Macbook Pro early 2015 Power Mac G4, Power Mac G5, iMac 27, MacBook Air 13" Early 2014, , Mac Mini Intel Core 2 Duo Mid 2010 Apple MacBook Pro 2007 Hackintosh Gigabyte Z370 Aorus Ultra Gaming WIFI, Hackintosh Gigabyte Z490 VISION D
Go to the top of the page
 
+Quote Post
jeandemi
posté 30 Jun 2025, 22:50
Message #83


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 2 556
Inscrit : 20 Aug 2020
Lieu : Belgique
Membre no 212 269



Merci à tous pour toutes vos réponses. Je ne dirai pas que c'est clair pour moi, mais c'est déjà moins nébuleux, ce qui est pas mal du tout pour mon esprit limité whistle.gif laugh.gif
Je n'en vois pas trop l'utilité pour moi, mais je comprends que cela doit être passionnant d'entrevoir le futur ainsi

La dernière fois que j'ai été visiblement confronté à un délire de l'IA, c'est sur la page d'info de MSN avec des articles dont le résumé parlait d'une commande record de 500 avions Rafale par la Serbie !
La Serbie en a en fait commandé 12, ce qui porte le total de Rafale commandés à plus de 500, un record pour Dassaut, ce qui n'est pas exactement la même chose


--------------------
Hack15: Asus Z10PA-U8 Xeon Broadwell E5-2690v4 (14c @2,6GHz) 2x16GB DDR4 ECC GF GT730/4G NVME Micron 512 Séquoia OC1.0.4 +OCLP
Hack 14: Asus Strix X99 Gaming Xeon Haswell E5-1660v3 (OVC à4,2) 4x8GB DDR4-2400 Gigabyte Vega56/8G, Monterey et Sonoma OC 1.0.4
Hack 13 "Photo": Asus Gryphon Z87 i7-4770K 2x8GB DDR3 XFX RX6800XT SSD SATA 4TB WD Red, MacOS 12.7.6 Monterey, Clover 5146
Hack 12: CM Qiyida E5-A99 (X9H9D) Xeon Haswell E5-2666v3 (10c/20th à 2,9GHz) 2x8GB DDR4, OC 0.9.3 Sonoma
Hack 9: Asus P8Z77-M i5-3450 0.8.3 Monterey Hack 10: Asus H81M-C i7-4770 16GB DDR3, MSI RX570/8GB OC 0.9.8 Monterey+Win10
Hackintosh 8 "dual2": Supermicro X9DAi Double Xeon E5-2670v2 (total 20c/40th@2,5GHz) 192GB (6x32GB) DDR3-13330RegECC, Sapphire Vega64/8G, USB3 FL1100, OC 0.7.9 Catalina et Ubuntu 20.04LTS
Hackintosh 7 "MP6" : JingSha X79-P3 Xeon E5-2667v2 (8c/16th@3,3GHz) 4x16GB DDR3-1866RegECC Gigabyte Vega64/8GB USB3 FL1100 PCI-E SSD500GB NVME 970Evo+ HDD500GB SATA Mojave Clover
Hack6 "Dual" : Kllisre Dual-X79 2x Xeon E5-2697v2 (total 24c/48th@2,7GHz) 8x16GB DDR3-1600ECC Asus GTX760/2GB SSD256GB Mac OS-X Mojave Clover
Hackintosh 2, 3, 4 et 5: Asus P5B/P5E-VM DO/P5KPL-VM, Q9550, 8/4GB DDR2-800, Quadro K600/8800GTX/8500GT, SSD+HDD SATA, Mac OS-X 10.9, 10.11, 10.12.6 et 10.13.6 (+ Snow Léopard incomplet en cours d'essais) Clover
Hackintosh1 "Photo" : Asus P7P55D i5-750 2x8GB DDR3 Gigabyte GTX770/4GB USB3 FL1100 SSD4TB SATA, Sierra Clover 5070
Hack 11: CM X79Server dual Xeon E5-2697v2 (total 24c/48th à 2,7GHz) pas réussi avec OC 0.9.2
Go to the top of the page
 
+Quote Post
Benzebut
posté 1 Jul 2025, 13:54
Message #84


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 5 465
Inscrit : 5 Mar 2003
Lieu : Ville de Notre-Dame
Membre no 6 523



Citation (Mac Arthur @ 30 Jun 2025, 15:27) *
You've made my day laugh.gif
On a les décors de Roger Hart, des costumes de Donald Cardwell et une pièce de Benzebut
J'ai également halluciné !
Merci. smile.gif

Etre associé à ces deux grands hommes du spectacle est trop d'honneur pour une humble contribution à cette délicate question.
Puis dans le message suivant, être encore anobli par un de mes pairs dans les contributions faites lors de mes pauses repas, fait beaucoup pour ma petite personne. Surtout que je n'ai plus de place dans ma signature, donc il va falloir créer une nouvelle catégorie sous MacBidouille... tongue.gif

Citation (Laszlo Lebrun @ 30 Jun 2025, 15:59) *
Et voilà ou je voulais en venir. En local, le contenu vient quand même d'une source on-line, et les propriétaires de la source sauront exactement où sont tes centres d'interêt. Héhé...
Et la requête météo en local ne fonctionnera pas non plus sans connection.
La seule difference sera qu'au bout d'un long entraînement une certaine autonomie sera possible, tant qu'on reste dans les clous...
C'est bien ça?

En local, le contenu vient d'abord de ce que l'utilisateur fournit par ses usages. Puis peut être complété par des données distantes, voire complétement externalisé pour des traitements plus spécifiques.
Au bout d'un moment, l'apprentissage fera qu'un profil sera établi et permettra l'autonomie du "corpus". Qui pourra lui même abonder d'autres corpus plus larges. C'est l'approche Apple Intelligence.

Sur la théorie sous-jacente, du moment que vous êtes en ligne, vous produisez de l'information pour autrui. Ce qui est donné et comment cela est traité est une tout autre question, mais qui n'est pas lié à l'intelligence artificielle ni aux larges langages. Votre banque sait déjà exactement où et quand vous faites des opérations financières et peut même déceler des hallucinations... wink.gif

Ce message a été modifié par Benzebut - Hier, 13:58.


--------------------
Sur iMac Pro (fin-2017) en Xeon 8 coeurs à 3.2 GHz / 32 Go Ram / Radeon Pro Vega 56 8 Go / 1 To SSD
Sous macOS 10.14.6 (Mojave) à jour et en réseau Wifi 6 avec une boite fibre 5 Gbit/s (fin de l'ADSL à la capitale)

Ayant été anobli depuis le 1er septembre de l'an de grâce 2024 avec le titre de Harceleur 1er par la Belle Province sur ces merveilleux forums...

Nostalgique de l'Apple IIgs ? Un petit émulateur : www.casags.net
Go to the top of the page
 
+Quote Post
Mac Arthur
posté 1 Jul 2025, 13:57
Message #85


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 6 534
Inscrit : 9 Feb 2002
Lieu : Cambodge
Membre no 2 013



Je resterai sur ce post pour ce soir. Il est déjà tard ici.
Il y a parfois tellement d'ondes négatives qui circulent que ta contribution sera "the ice on the pudding" et non pas "the cherry on the cake", ce qui fait exploser de rire nos amis britanniques. "You're so Frenchie."
Ne change rien, Benzebut, tu inspires le calme et la tranquillité… wink.gif

Ce message a été modifié par Mac Arthur - 1 Jul 2025, 14:04.


--------------------
Mac Studio M4 Max (16C-40C) 64GB 1TB - Acasis 40Gbps M.2 NVMe 4 Bay Tb4 - Acasis 80Gbps M.2 NVMe SSD Enclosure Tb5 - ACASIS 40Gbps Dock Tb 4/3 Devices, USB 4, 13-in-1
Hackintosh Gigabyte X670 Gaming X AX - Ryzen™ 7 7700X - G-Skill GAMING TRIDEN Z5 RGB DDR5 5600MHz 2*16GB - Gigabyte RX 5700 XT - 2 Lexar NM710 M.2 PCIe 4.0 NVMe 1TB (Win 11, Linux et macOS) SSD Samsung 860 500Go (SuperDuper Sequoia), 2 SATAs 4To
ASUS PA329CRV 32" 4K 3840*2160, 2 Mi Xiaomi 34" 3440*1440
Switch 4K KVM CMSTEDCD (3 écrans 2 Machines) OpenCore 1.0.4 Sequoia 15.5 (24F74) Sonoma 14.7.6 Ventura 13.7.6 Monterey 12.7.6 Big Sur 11.7.10, Parallels Desktop Leopard Server > Sequoia (Sur Asus 790)
MacbookPro 14" 2021 Sequoia 15.5 Tahoe 26.0 beta 25A5295e - MacBook M3 15" 2024 Sequoia 15.5 - Synology DS1522+ - Raspberry PI 4

Retour d'expérience Installations d'OS X/macOS depuis OS X 10.5 Leopard jusqu'à macOS 12 Monterey

Durex King Size XXL (boites de 12) - Lave Linge LG F1222QD5 - Aspirateur Honiture Q6 Pro - Machine Espresso DeLonghi Magnifica Evo - Réfrigérateur Samsung RT38FFAK

Hackintosh Asus Z790 ProArt Creator WIFI - Intel™ i9 14900K
- G-Skill GAMING TRIDEN Z5 RGB DDR5 6000MHz 4*32GB - Gigabyte RX 6900 XT - 4 SSDs Adata Legend M.2 PCIe 4.0 NVMe 2TB
Macbook Pro early 2015 Power Mac G4, Power Mac G5, iMac 27, MacBook Air 13" Early 2014, , Mac Mini Intel Core 2 Duo Mid 2010 Apple MacBook Pro 2007 Hackintosh Gigabyte Z370 Aorus Ultra Gaming WIFI, Hackintosh Gigabyte Z490 VISION D
Go to the top of the page
 
+Quote Post
Laszlo Lebrun
posté Hier, 08:08
Message #86


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 2 541
Inscrit : 1 Nov 2021
Membre no 214 848



Citation (Laszlo Lebrun @ 29 Jun 2025, 06:49) *
Moi aussi, j'ai un nouveau Mac:
biggrin.gif
Voilà sa config:
Macbook Pro 2015 15,5"

P.S: Par contre GROS bemol par rapport au Macbook 2014: le MBP 2015 a une puce graphique AMD Radeon au lieu de NVida.
La différence?: son pilote Boot Camp ne peut aparemment pas avoir un facteur d'agrandissement différent pour le moniteur externe.
Si on a 200% sur l'écran Rétina one aura aussi 200% sur l'écran externe, c'est vraiment con...
À moins que quelqu'un connaisse une ficelle pour passer outre?


--------------------
"Les gens douteront toujours de la vérité sur Internet car l'erreur est constamment prêchée autour de nous" Johann Wolfgang von Goethe
MBP 15" 2014 Retina ( Win11), Macbook Air 2013 (en voyage), iMac 2015 27" Retina (Win11), Macbook blanc 2008 (Mate), pour ne citer que les Macs.
Go to the top of the page
 
+Quote Post
Mac Arthur
posté Hier, 08:57
Message #87


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 6 534
Inscrit : 9 Feb 2002
Lieu : Cambodge
Membre no 2 013



Oui, moi. tongue.gif
Mais comme tu m'as mis en "ignoré", tu ne verras pas ce message. rolleyes.gif


--------------------
Mac Studio M4 Max (16C-40C) 64GB 1TB - Acasis 40Gbps M.2 NVMe 4 Bay Tb4 - Acasis 80Gbps M.2 NVMe SSD Enclosure Tb5 - ACASIS 40Gbps Dock Tb 4/3 Devices, USB 4, 13-in-1
Hackintosh Gigabyte X670 Gaming X AX - Ryzen™ 7 7700X - G-Skill GAMING TRIDEN Z5 RGB DDR5 5600MHz 2*16GB - Gigabyte RX 5700 XT - 2 Lexar NM710 M.2 PCIe 4.0 NVMe 1TB (Win 11, Linux et macOS) SSD Samsung 860 500Go (SuperDuper Sequoia), 2 SATAs 4To
ASUS PA329CRV 32" 4K 3840*2160, 2 Mi Xiaomi 34" 3440*1440
Switch 4K KVM CMSTEDCD (3 écrans 2 Machines) OpenCore 1.0.4 Sequoia 15.5 (24F74) Sonoma 14.7.6 Ventura 13.7.6 Monterey 12.7.6 Big Sur 11.7.10, Parallels Desktop Leopard Server > Sequoia (Sur Asus 790)
MacbookPro 14" 2021 Sequoia 15.5 Tahoe 26.0 beta 25A5295e - MacBook M3 15" 2024 Sequoia 15.5 - Synology DS1522+ - Raspberry PI 4

Retour d'expérience Installations d'OS X/macOS depuis OS X 10.5 Leopard jusqu'à macOS 12 Monterey

Durex King Size XXL (boites de 12) - Lave Linge LG F1222QD5 - Aspirateur Honiture Q6 Pro - Machine Espresso DeLonghi Magnifica Evo - Réfrigérateur Samsung RT38FFAK

Hackintosh Asus Z790 ProArt Creator WIFI - Intel™ i9 14900K
- G-Skill GAMING TRIDEN Z5 RGB DDR5 6000MHz 4*32GB - Gigabyte RX 6900 XT - 4 SSDs Adata Legend M.2 PCIe 4.0 NVMe 2TB
Macbook Pro early 2015 Power Mac G4, Power Mac G5, iMac 27, MacBook Air 13" Early 2014, , Mac Mini Intel Core 2 Duo Mid 2010 Apple MacBook Pro 2007 Hackintosh Gigabyte Z370 Aorus Ultra Gaming WIFI, Hackintosh Gigabyte Z490 VISION D
Go to the top of the page
 
+Quote Post

3 Pages V  < 1 2 3
Reply to this topicStart new topic
1 utilisateur(s) sur ce sujet (1 invité(s) et 0 utilisateur(s) anonyme(s))
0 membre(s) :

 



Nous sommes le : 3rd July 2025 - 03:47