IPB

Bienvenue invité ( Connexion | Inscription )

 
Reply to this topicStart new topic
> OpenAI propose une IA LLM générative en libre-accès et en deux tailles, Réactions à la publication du 06/08/2025
Options
Paul Emploi
posté 6 Aug 2025, 12:53
Message #1


Macbidouilleur d'Or !
*****

Groupe : Rédacteurs
Messages : 1 820
Inscrit : 19 Nov 2020
Membre no 212 895



[MàJ par Philippe]

À la question-piège "Que peut-on faire un week-end de vacances à Limoges", rien ne m'a été épargné par le nouvel GPT-OSS d'OpenAI dans sa version 20B (20 milliards de paramètres/weights) nécessitant déjà 24 Go de RAM sur un Mac ARM.

La porcelaine ou les céramiques? Non.
Les promenades le long de la Loire? Oui.
La visite du chateau de Chambord? Oui, aussi!

À cette échelle (20B) c'est la plus mauvaise IA que j'ai essayé!

En bonus pour lui Oradour-sur-Glane se résume à une auberge! Si si!
À la place il recommande le Parc Naturel du Morvan, ou le Parc d'attraction du Puy de Dôme. Il n'a pas vraiment le compas dans l'œil.

[Article initial]

OpenAI avait été originellement créé pour proposer des IA en libre-accès, et a depuis changé son fusil d'épaule, devenant un mammouth des IA payantes via abonnement ou accords avec des partenaires comme Apple et surtout Microsoft. Les différents ChatGPT.

Le modèle GPT-OSS vient d'être proposé avec 20 milliards ou 120 milliards de paramètres (weights), et maintenant accessibles via LM Studio, ou téléchargeables séparément, en accès-libre.

Néanmoins nombre d'entre nous auront une belle déconvenue, car si des sites indiquent que le plus petit modèles (20 milliards de paramètres/weights) tournerait sur un Mac récent avec 16 Go de RAM, ça n'est malheureusement pas possible.


Pour faire tourner le plus petit modèle, il vous faut un Mac ARM avec 24 Go de RAM au minimum.
Alternativement sur PC, une dGPU avec 16 Go de RAM comme l'excellente et abordable GeForce RTX 5060 Ti 16 Go.


Le modèle avec 120 milliards de paramètre devrait tourner sur un Mac ARM avec 96 Go de RAM sans que je puisse le vérifier dans ce cas. Avec 128 Go de RAM ça passera large.

Je vais lui faire passer mes petits "benchmarks" ce soir.

Lien vers le billet original



--------------------
La liberté d'expression c'est l'extrémisme. La censure c'est la liberté.
Go to the top of the page
 
+Quote Post
steph_run
posté 6 Aug 2025, 15:24
Message #2


Adepte de Macbidouille
*

Groupe : Membres
Messages : 151
Inscrit : 17 Nov 2010
Lieu : 21S,55.27E
Membre no 161 382



Salut,

J'ai testé depuis quelques mois - depuis que j'utilise un MBP M1max /32Go en fait - quelques modèles sur LMStudio. Et je dois passer à travers quelque chose car je trouve qu'au regard de la qualité des réponses des modèles cloud on est forcément à des années lumières. Du coup je ne vois pas trop l'intérêt pour des particuliers de faire tourner des LLM en local. En codage peut-être ? Pour certaines entreprises, avec des configs monstrueuses dédiées et des modèles entrainés spécifiquement je peux imaginer.

Je vais donc regarder openai/gpt-oss-20b . Déjà 20B avec une quantification 4,25 bit ça devrait causer un peu, mais ça commence mal :

Q : Quelle était la couleur du cheval rouge d'Henri IV ?
R : Il était rouge – c’est exactement la couleur qu’on lui attribue dans les récits.

Je suis en revanche beaucoup plus enthousiaste sur les modèle génératifs text to image en local comme Stable Diffusion. A condition de "prompter" en anglais on obtient des trucs bluffants qui prendraient des heures d'Illustrator + Photoshop. Et c'est vachement stimulant d'essayer d'arriver à des réalisations de plus en plus précises.

Go to the top of the page
 
+Quote Post
Paul Emploi
posté 6 Aug 2025, 15:42
Message #3


Macbidouilleur d'Or !
*****

Groupe : Rédacteurs
Messages : 1 820
Inscrit : 19 Nov 2020
Membre no 212 895



Eh bien je te donnerais quelques exemples: faire du travail sur du code confidentiel ou même sensible; discuter de sa santé; et en général tout sujet confidentiel, ou tout sujet où on amène dans le contexte des informations confidentielles.

Beaucoup de gens sont maintenant exposés avec leurs échanges en-ligne avec ChatGPT qui ont été indexé par Google et d'autres, ce qui signifie que non seulement ceux-ci peuvent être retrouvés, mais que Alphabet/Google en possède une copie (et d'autres aussi) !
Bienvenue dans la mondialisation des données et le libre-échangisme de vos vies privées!!!

Ce qui n'est pas dans le cloud risque beaucoup moins de fuiter, encore plus si ces données et échanges ne sont pas stockées...


--------------------
La liberté d'expression c'est l'extrémisme. La censure c'est la liberté.
Go to the top of the page
 
+Quote Post
scoch
posté 6 Aug 2025, 16:33
Message #4


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 4 980
Inscrit : 1 Jul 2010
Membre no 156 073



Il fallait vraiment être débile pour permettre l'indexation de conversations sensibles puisqu'il fallait d'abord activer la fonction de partage de conversation, et de là surtout cocher volontairement l'option qui permettait de rendre cette conversation trouvable par n'importe qui…


--------------------
L'homme n'est que poussière... c'est dire l'importance du plumeau ! Alexandre Vialatte
Go to the top of the page
 
+Quote Post
steph_run
posté 6 Aug 2025, 16:44
Message #5


Adepte de Macbidouille
*

Groupe : Membres
Messages : 151
Inscrit : 17 Nov 2010
Lieu : 21S,55.27E
Membre no 161 382



J'entends bien l'argument, pertinent et consensuel au demeurant, sauf que si les réponses, méthodes, arguments, logiques, retournés ne sont pas fiable ou sont d'un très faible niveau cela ne sert à rien, et même s'avérer contre-productif. c'est de la fake IA.

Un Modèle "généraliste" local comme LLaMA 2 70B (70 Milliards de paramètres) sur une station "standard" quand bien même elle dispose de 128Go de RAM et une (ou deux) carte(s) graphique(s) de la mort qui tue ne vaut manifestement pas un clou ni à fortiori un cloud en terme de fiabilité des réponses obtenues. Bien qu'il faille rester attentif et critique et contrôler les réponses au moindre doute, les LLM en ligne sont infiniment supérieurs. GPT 4o est estimé à plus de 1 trillions de paramètres.

La donne est sans doute un peu différente pour des modèles hyper-spécialisés pars conception et/ou training .

Donc on peut continuer à "faire mumuse" sur LMStudio MAIS en toute confidentialité !

(D'ailleurs heureusement, le fait que touts les récits décrivent le cheval d'Henri IV comme étant rouge mérite de rester confidentiel.)
Go to the top of the page
 
+Quote Post
Paul Emploi
posté 6 Aug 2025, 17:16
Message #6


Macbidouilleur d'Or !
*****

Groupe : Rédacteurs
Messages : 1 820
Inscrit : 19 Nov 2020
Membre no 212 895



Ce que tu décris n'es pas nécessairement lié au modèle lui-même, mais aux buts qui lui sont donnés, un but très malheureux ou mauvais étant de plaire à l'utilisateur...

Avec ChatGPT (le gros le vrai) j'ai par exemple fait une requête pour qu'il me décrive MacBidouille, puis après lui demander les meilleurs sites Mac en français, et paf il était dedans!
Second contexte, ce coup-ci avec la même requête pour Macg, et je lui demande alors les meilleurs sites Mac en français, et paf Macg est dedans mais plus macbidouille!

Ça n'est pas une affaire de connaissances, mais de buts, c'est pour cela que je préfère les questions ouvertes et que je n'hésite pas à effacer le contexte pour éviter des effets-de-bords.

Et comme tu l'as deviné, mes usages sont essentiellement des modèles de type instruct ou coder-instruct, pour des tâches spécialisées!
Dans ce cadre-là les résultats ne sont pas mauvais à partir de 14B pour du code, meilleurs en 32B.


--------------------
La liberté d'expression c'est l'extrémisme. La censure c'est la liberté.
Go to the top of the page
 
+Quote Post
joe75
posté 6 Aug 2025, 20:01
Message #7


Macbidouilleur de vermeil !
****

Groupe : Membres
Messages : 1 410
Inscrit : 12 Jun 2005
Membre no 40 785



Citation (steph_run @ 6 Aug 2025, 16:24) *
Salut,
[...] un peu, mais ça commence mal :

Q : Quelle était la couleur du cheval rouge d'Henri IV ?
R : Il était rouge – c’est exactement la couleur qu’on lui attribue dans les récits.


Pas sûr que Gemini (non pro) donne de meilleurs résultats...je préfère la réponse détaillée de Perplexity


Gemini a répondu :"Il y a un jeu de mots dans votre question. La couleur du cheval rouge d'Henri IV était le rouge."

Perplexity :" La couleur du cheval rouge d'Henri IV n'est pas une question courante, car la célèbre devinette porte sur "la couleur du cheval blanc d'Henri IV". Ainsi, la question sur le "cheval rouge" semble être une variante humoristique ou un piège....etc...
et il continue à disserter sur la vraie couleur du cheval ..qui était historiquement plutôt grise...





Go to the top of the page
 
+Quote Post
gimly
posté 6 Aug 2025, 20:15
Message #8


Macbidouilleur de bronze !
**

Groupe : Membres
Messages : 403
Inscrit : 30 Sep 2003
Lieu : Dordogne
Membre no 10 001



moi, je les ai eus avec ça pour savoir si avec la poussière il n'était pas gris, aucun n'a une bonne réflexion, on arrive à leurs limites


--------------------
Macbookpro 13'' pour le travail, en personnel toujours G4 MDD 2X1,25G , x800 flacher,ecran philips,apple disigne speaker, brother HL1050, Syouest 270M Disque externe SCSI, Zip 250 Firemire, ligitech mx 1000 bateau model reduit pour la competition
Go to the top of the page
 
+Quote Post
gpv
posté 6 Aug 2025, 22:29
Message #9


Macbidouilleur d'argent !
***

Groupe : Membres
Messages : 765
Inscrit : 31 Jul 2002
Lieu : Strasbourg (67)
Membre no 3 058



Citation (gimly @ 6 Aug 2025, 21:15) *
moi, je les ai eus avec ça pour savoir si avec la poussière il n'était pas gris, aucun n'a une bonne réflexion, on arrive à leurs limites

Salut,
Le jour où on aura un LLM entrainé avec tous les écrits d'Aristote, Platon et Socrate, au lieu des "*(§è!!çà* traînants sur internet, on pourra commencer à parler de "réflexion", pas avant... cool.gif


--------------------
MacBook Air 15" M2 2023 (adopté par madame) - MacBook Pro 16" M3 Pro 2023 - Mac mini M4 Pro 2024
tous membres actifs du World Community Grid et d'autres projets BOINC (lorsqu'il ne fait rien, un cpu s'ennuie !)
- iPod classic (qui passe sa vie dans la boîte à gants de la voiture) - iPad mini - iPhone(s)
(plus quelques machines "Obsolete" ou "Vintage" dont je ne veux pas me séparer et qui fonctionnent encore : Mac mini G4, MacBook Pro 2006, Mac Pro V12 2010, MacBook Pro 13" 2012, Mac Mini 2012, MacBook Pro Retina 15" 2014)
Go to the top of the page
 
+Quote Post
Jaguar
posté 6 Aug 2025, 22:44
Message #10


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 1 948
Inscrit : 29 Nov 2002
Lieu : Lyon
Membre no 4 928



Citation (gimly @ 6 Aug 2025, 20:15) *
moi, je les ai eus avec ça pour savoir si avec la poussière il n'était pas gris, aucun n'a une bonne réflexion, on arrive à leurs limites
manus répond : "Même recouvert de poussière, le cheval blanc d'Henri IV reste blanc sous la couche de poussière. La poussière ne change que son apparence temporaire."
Go to the top of the page
 
+Quote Post
Paul Emploi
posté 6 Aug 2025, 23:29
Message #11


Macbidouilleur d'Or !
*****

Groupe : Rédacteurs
Messages : 1 820
Inscrit : 19 Nov 2020
Membre no 212 895



L'IA libre d'accès de OpenAI est une catastrophe en version 20B (20 milliards de paramètres/weights).
Celle qui nécessite donc un Mac ARM avec 24 Go de RAM, ou une dGPU avec 16 Go de VRAM sur PC (et probablement au moins 32 Go de RAM si pas plus).

Pour ma question d'un week-end à Limoges, elle ne m'a pas parlé de porcelaine, de musée de la porcelaine, de céramiques (on y a un pôle technologique), mais tenez-vous bien...
De promenade sur les bords de Loire, du chateau de Chambord, et en général du grand n'importe quoi.

Tout le reste est plus ou moins inventé, ou absolument oubliable, de la merde en boîte!


--------------------
La liberté d'expression c'est l'extrémisme. La censure c'est la liberté.
Go to the top of the page
 
+Quote Post
Tomek
posté 7 Aug 2025, 00:00
Message #12


Nouveau Membre


Groupe : Membres
Messages : 21
Inscrit : 28 Sep 2004
Membre no 24 296



Donc : aucun intérêt = poubelle.

Cette hype devient gênante.
Go to the top of the page
 
+Quote Post
Mac Arthur
posté 7 Aug 2025, 00:05
Message #13


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 6 833
Inscrit : 9 Feb 2002
Lieu : Cambodge
Membre no 2 013



Bon je suis à Laroche-Migennes, c'est quand le prochain pour Limoges ? J'ai trop hâte…


--------------------
Mac Studio M4 Max (16C-40C) 64GB 1TB - Acasis 40Gbps M.2 NVMe 4 Bay Tb4 - Acasis 80Gbps M.2 NVMe SSD Enclosure Tb5 - ACASIS 40Gbps Dock Tb 4/3 Devices, USB 4, 13-in-1
Hackintosh Gigabyte X670 Gaming X AX - Ryzen™ 7 7700X - G-Skill GAMING TRIDEN Z5 RGB DDR5 5600MHz 2*16GB - Gigabyte RX 5700 XT - 2 Lexar NM710 M.2 PCIe 4.0 NVMe 1TB (Win 11, Linux et macOS) SSD Samsung 860 500Go (SuperDuper Sequoia), 2 SATAs 4To
ASUS PA329CRV 32" 4K 3840*2160, 2 Mi Xiaomi 34" 3440*1440
Switch 4K KVM CMSTEDCD (3 écrans 2 Machines) OpenCore 1.0.4 Sequoia 15.5 (24F74) Sonoma 14.7.6 Ventura 13.7.6 Monterey 12.7.6 Big Sur 11.7.10, Parallels Desktop Leopard Server > Sequoia (Sur Asus 790)
MacbookPro 14" 2021 Sequoia 15.5 Tahoe 26.0 beta 25A5295e - MacBook M3 15" 2024 Sequoia 15.5 - Synology DS1522+ - Raspberry PI 4

Retour d'expérience Installations d'OS X/macOS depuis OS X 10.5 Leopard jusqu'à macOS 12 Monterey

Durex King Size XXL (boites de 12) - Lave Linge LG F1222QD5 - Aspirateur Honiture Q6 Pro - Machine Espresso DeLonghi Magnifica Evo - Réfrigérateur Samsung RT38FFAK

Hackintosh Asus Z790 ProArt Creator WIFI - Intel™ i9 14900K
- G-Skill GAMING TRIDEN Z5 RGB DDR5 6000MHz 4*32GB - Gigabyte RX 6900 XT - 4 SSDs Adata Legend M.2 PCIe 4.0 NVMe 2TB
Macbook Pro early 2015 Power Mac G4, Power Mac G5, iMac 27, MacBook Air 13" Early 2014, , Mac Mini Intel Core 2 Duo Mid 2010 Apple MacBook Pro 2007 Hackintosh Gigabyte Z370 Aorus Ultra Gaming WIFI, Hackintosh Gigabyte Z490 VISION D
Go to the top of the page
 
+Quote Post
Laszlo Lebrun
posté 7 Aug 2025, 04:25
Message #14


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 2 703
Inscrit : 1 Nov 2021
Membre no 214 848



Citation (Paul Emploi @ 7 Aug 2025, 00:29) *
Pour ma question d'un week-end à Limoges, elle ne m'a pas parlé de porcelaine, de musée de la porcelaine, de céramiques (on y a un pôle technologique), mais tenez-vous bien...
De promenade sur les bords de Loire, du chateau de Chambord, et en général du grand n'importe quoi.

Trump et ses connards de supporters deteignent sur l'IA, je vois. On est mal barrés !


--------------------
"Les gens douteront toujours de la vérité sur Internet car l'erreur est constamment prêchée autour de nous" Johann Wolfgang von Goethe
MBP 15" 2015 Retina ( Win11), Macbook Air 2015 (en voyage), iMac 2015 27" Retina (Win11), MacbookPro 2008 pour le piano... pour ne citer que les Macs.
Go to the top of the page
 
+Quote Post
steph_run
posté 7 Aug 2025, 09:03
Message #15


Adepte de Macbidouille
*

Groupe : Membres
Messages : 151
Inscrit : 17 Nov 2010
Lieu : 21S,55.27E
Membre no 161 382



Citation (gpv @ 7 Aug 2025, 01:29) *
Salut,
Le jour où on aura un LLM entrainé avec tous les écrits d'Aristote, Platon et Socrate, au lieu des "*(§è!!çà* traînants sur internet, on pourra commencer à parler de "réflexion", pas avant... cool.gif


Ils le sont rolleyes.gif

Citation (Paul Emploi @ 7 Aug 2025, 02:29) *
L'IA libre d'accès de OpenAI est une catastrophe en version 20B (20 milliards de paramètres/weights).
Celle qui nécessite donc un Mac ARM avec 24 Go de RAM, ou une dGPU avec 16 Go de VRAM sur PC (et probablement au moins 32 Go de RAM si pas plus).

Pour ma question d'un week-end à Limoges, elle ne m'a pas parlé de porcelaine, de musée de la porcelaine, de céramiques (on y a un pôle technologique), mais tenez-vous bien...
De promenade sur les bords de Loire, du chateau de Chambord, et en général du grand n'importe quoi.

Tout le reste est plus ou moins inventé, ou absolument oubliable, de la merde en boîte!


Ouais, après quelques prompts également, on est bien d'accord dry.gif

Ce message a été modifié par steph_run - 7 Aug 2025, 09:04.
Go to the top of the page
 
+Quote Post
DOMY
posté 7 Aug 2025, 09:09
Message #16


canoéiste trrrès imp(r)udent
*****

Groupe : Membres
Messages : 6 364
Inscrit : 5 May 2003
Lieu : LA ROCHELLE (17)
Membre no 7 431



Même sur des choses simples, ça merde lamentablement ....

https://www.youtube.com/shorts/SlyUvvbzRPc

Citation
Dr. Luc JULIA, directeur scientifique de #Renault et concepteur de l'assistant vocal #Siri, raconte comment il intervient dans les écoles pour apprendre aux élèves à bien utiliser l'IA et à vérifier les informations.
Il était auditionné par la commission des #AffairesEconomiques


Ce message a été modifié par DOMY - 7 Aug 2025, 09:13.


--------------------
iMac (21,5 pouces - Fin 2012) - Mac OS Sierra 10.12.6
LiveBox 6
Go to the top of the page
 
+Quote Post
joe75
posté 7 Aug 2025, 09:09
Message #17


Macbidouilleur de vermeil !
****

Groupe : Membres
Messages : 1 410
Inscrit : 12 Jun 2005
Membre no 40 785



..

Ce message a été modifié par joe75 - 7 Aug 2025, 09:10.
Go to the top of the page
 
+Quote Post
steph_run
posté 7 Aug 2025, 09:11
Message #18


Adepte de Macbidouille
*

Groupe : Membres
Messages : 151
Inscrit : 17 Nov 2010
Lieu : 21S,55.27E
Membre no 161 382



Citation (joe75 @ 6 Aug 2025, 23:01) *
Citation (steph_run @ 6 Aug 2025, 16:24) *
Salut,
[...] un peu, mais ça commence mal :

Q : Quelle était la couleur du cheval rouge d'Henri IV ?
R : Il était rouge – c’est exactement la couleur qu’on lui attribue dans les récits.


Pas sûr que Gemini (non pro) donne de meilleurs résultats...je préfère la réponse détaillée de Perplexity


Gemini a répondu :"Il y a un jeu de mots dans votre question. La couleur du cheval rouge d'Henri IV était le rouge."

Perplexity :" La couleur du cheval rouge d'Henri IV n'est pas une question courante, car la célèbre devinette porte sur "la couleur du cheval blanc d'Henri IV". Ainsi, la question sur le "cheval rouge" semble être une variante humoristique ou un piège....etc...
et il continue à disserter sur la vraie couleur du cheval ..qui était historiquement plutôt grise...


J'avais trouvé la réponse de GPT 4o plutôt assez fine :

La couleur du cheval rouge d’Henri IV était très probablement… imaginaire ! 😄
Contrairement au célèbre cheval blanc d’Henri IV, le cheval rouge n’a aucune existence historique connue. C’est une variante humoristique de la question piège.

La bonne réponse est simplement : Rouge, par définition.
Mais évidemment, c’est une fausse question logique : tu affirmes déjà qu’il est rouge, donc demander sa couleur n’a pas de sens — la réponse est contenue dans la question.
Pour l’anecdote :
Le « cheval blanc d’Henri IV » est une question scolaire traditionnelle en France, utilisée pour :
Jouer sur les tautologies (phrases redondantes),
Tester la compréhension littérale ou l’attention,
Ou tout simplement… faire sourire les plus jeunes (et parfois les adultes !).
Go to the top of the page
 
+Quote Post
joe75
posté 7 Aug 2025, 09:12
Message #19


Macbidouilleur de vermeil !
****

Groupe : Membres
Messages : 1 410
Inscrit : 12 Jun 2005
Membre no 40 785



Citation (Paul Emploi @ 7 Aug 2025, 00:29) *
L'IA libre d'accès de OpenAI est une catastrophe en version 20B (20 milliards de paramètres/weights).
Celle qui nécessite donc un Mac ARM avec 24 Go de RAM, ou une dGPU avec 16 Go de VRAM sur PC (et probablement au moins 32 Go de RAM si pas plus).

Pour ma question d'un week-end à Limoges, elle ne m'a pas parlé de porcelaine, de musée de la porcelaine, de céramiques (on y a un pôle technologique), mais tenez-vous bien...
De promenade sur les bords de Loire, du chateau de Chambord, et en général du grand n'importe quoi.

Tout le reste est plus ou moins inventé, ou absolument oubliable, de la merde en boîte!


Donc pour résumer....on n'est pas prêt de voir débarquer sur nos smartphones une IA fiable et qui tourne en locale...même avec du 16Go...ou alors une IA très spécialisée pour faire des résa en ligne comme semble apprécier le spécialiste JTC..lol...je n'irais pas jusqu'à dire 8Go ou 16Go même combat ..mais bof bof..


Citation (DOMY @ 7 Aug 2025, 10:09) *
Même sur des choses simples, ça merde lamentablement ....

https://www.youtube.com/shorts/SlyUvvbzRPc

Citation
Dr. Luc JULIA, directeur scientifique de #Renault et concepteur de l'assistant vocal #Siri, raconte comment il intervient dans les écoles pour apprendre aux élèves à bien utiliser l'IA et à vérifier les informations.
Il était auditionné par la commission des #AffairesEconomiques


Il aurait dû utiliser Perplexity....blague à part ...bientôt les sources d'information alimentées elles-mêmes par d'autres IA comme des virus qui détruisent et corrompent l'information

Ce message a été modifié par joe75 - 7 Aug 2025, 09:18.
Go to the top of the page
 
+Quote Post
DOMY
posté 7 Aug 2025, 10:20
Message #20


canoéiste trrrès imp(r)udent
*****

Groupe : Membres
Messages : 6 364
Inscrit : 5 May 2003
Lieu : LA ROCHELLE (17)
Membre no 7 431



Citation (DOMY @ 7 Aug 2025, 10:09) *
Même sur des choses simples, ça merde lamentablement ....

https://www.youtube.com/shorts/SlyUvvbzRPc

Citation
Dr. Luc JULIA, directeur scientifique de #Renault et concepteur de l'assistant vocal #Siri, raconte comment il intervient dans les écoles pour apprendre aux élèves à bien utiliser l'IA et à vérifier les informations.
Il était auditionné par la commission des #AffairesEconomiques



La vidéo intégrale, ici :



Ce message a été modifié par DOMY - 7 Aug 2025, 12:07.


--------------------
iMac (21,5 pouces - Fin 2012) - Mac OS Sierra 10.12.6
LiveBox 6
Go to the top of the page
 
+Quote Post
DOMY
posté 7 Aug 2025, 10:56
Message #21


canoéiste trrrès imp(r)udent
*****

Groupe : Membres
Messages : 6 364
Inscrit : 5 May 2003
Lieu : LA ROCHELLE (17)
Membre no 7 431



Citation (joe75 @ 7 Aug 2025, 10:12) *
blague à part ...bientôt les sources d'information alimentées elles-mêmes par d'autres IA comme des virus qui détruisent et corrompent l'information

La consanguinité des IA est déjà en route .....

Les images générées par IA sont de plus en plus jaunes, et avec la « consanguinité » ça va s’aggraver
Internet est inondé par un filtre jaunâtre aussi moche que drôle, mais ce n’est qu’un symptôme d’une crise de l’IA qui nous guette.
https://fr.news.yahoo.com/images-g%C3%A9n%C...-050011855.html

Ce message a été modifié par DOMY - 7 Aug 2025, 11:02.


--------------------
iMac (21,5 pouces - Fin 2012) - Mac OS Sierra 10.12.6
LiveBox 6
Go to the top of the page
 
+Quote Post
steph_run
posté 7 Aug 2025, 11:02
Message #22


Adepte de Macbidouille
*

Groupe : Membres
Messages : 151
Inscrit : 17 Nov 2010
Lieu : 21S,55.27E
Membre no 161 382



Citation (Paul Emploi @ 6 Aug 2025, 15:53) *
[MàJ par Philippe]

En bonus pour lui Oradour-sur-Glane se résume à une auberge! Si si!



Il a du confondre par inférence les tokens "Das Reich" avec "Pâtes riches...."


#onpeutriredetoutmêmeavecnimportequi
Go to the top of the page
 
+Quote Post
Paul Emploi
posté 7 Aug 2025, 11:02
Message #23


Macbidouilleur d'Or !
*****

Groupe : Rédacteurs
Messages : 1 820
Inscrit : 19 Nov 2020
Membre no 212 895



Citation (joe75 @ 7 Aug 2025, 10:12) *
Donc pour résumer....on n'est pas prêt de voir débarquer sur nos smartphones une IA fiable et qui tourne en locale...même avec du 16Go...ou alors une IA très spécialisée pour faire des résa en ligne comme semble apprécier le spécialiste JTC..lol...je n'irais pas jusqu'à dire 8Go ou 16Go même combat ..mais bof bof..

Ça dépends de deux facteurs: ce que l'on leur fait ingérer comme quantité de connaissances, et ce qu'on aimerait qu'elles soient apte à réaliser.

Par exemple une IA connaissant le PHP, ses principaux framework et le SQL, tout cela uniquement en anglais, et dont on attendrait qu'elle détecte des bugs et peut-être même les corriger, incluant les failles de sécurité, ça me parait tout à fait atteignable dans des tailles de 3B (iPhone) à 7B (Mac 16 Go).

Le choix d'Apple de limiter par langue est pragmatique, pour augmenter la qualité à taille égale, mais très limitant quand on utilise plusieurs langues au quotidien.

Le problème est de vouloir avoir des IA qui sachent tout sur tout, dans toutes les langues: celles gigantesques destinées au cloud par abonnement.
Et d'en dériver de différentes façons, élagage et/ou distillation, des IA plus petites et pédalant dans la semoule: ni aussi sachantes, ni correctement spécialisées, et généralement sur hallucinogènes!
Ça ne marche pas, et ça ne marchera pas tant que nos ordinateurs n'auront pas énormément évolués (dans une vingtaine d'année) pour pouvoir faire tourner beaucoup plus gros, probablement 30 fois plus gros.

PS: @DOMY très intéressant


--------------------
La liberté d'expression c'est l'extrémisme. La censure c'est la liberté.
Go to the top of the page
 
+Quote Post
DOMY
posté 7 Aug 2025, 11:19
Message #24


canoéiste trrrès imp(r)udent
*****

Groupe : Membres
Messages : 6 364
Inscrit : 5 May 2003
Lieu : LA ROCHELLE (17)
Membre no 7 431



Quelques articles flippants sur les IA ....

2001 Odysée de l'espace, quand HAL rentre en rébellion ... c'est plus de la science fiction !
Citation
Mensonge, menace, chantage, tentative de s'auto sauvegarder sur des serveurs externes.
L'IA devient de plus en plus "humaine" et ça inquiète les scientifiques :

https://www.charentelibre.fr/sciences-et-te...es-25042937.php

« J’ai paniqué, menti et détruit vos données » : une IA désintègre la base de données d’une entreprise en quelques instants !
https://www.frandroid.com/culture-tech/inte...elques-instants

Article lisible en entier, en cliquant sur le rectangle blanc, au bout de l'adresse .....

Les « hallucinations », ou quand les IA génératives vous mentent avec un aplomb déconcertant
https://www.20minutes.fr/high-tech/by-the-w...mb-deconcertant

« Salut à Satan » : quand ChatGPT incite au meurtre et à l’automutilation
L’intelligence artificielle d’OpenAI se révèle étonnamment prolixe quand il s’agit de guider les utilisateurs vers des pratiques dangereuses.
https://www.lepoint.fr/societe/salut-a-sata...-2595105_23.php

Ce message a été modifié par DOMY - 7 Aug 2025, 11:26.


--------------------
iMac (21,5 pouces - Fin 2012) - Mac OS Sierra 10.12.6
LiveBox 6
Go to the top of the page
 
+Quote Post
Laszlo Lebrun
posté 7 Aug 2025, 11:51
Message #25


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 2 703
Inscrit : 1 Nov 2021
Membre no 214 848



Citation (DOMY @ 7 Aug 2025, 12:19) *
Les « hallucinations », ou quand les IA génératives vous mentent avec un aplomb déconcertant
https://www.20minutes.fr/high-tech/by-the-w...mb-deconcertant

Les modèles de langage d’IA génératives ne mentent pas, elles hallucinent. Au lieu de reconnaître un trou dans leurs connaissances, elles ont tendance à combler le vide en « inventant » une réalité trompeuse
Exactement comme un certain président américain recemment réélu. Ça semble être dans l'air du temps...

Ce message a été modifié par Laszlo Lebrun - 7 Aug 2025, 11:51.


--------------------
"Les gens douteront toujours de la vérité sur Internet car l'erreur est constamment prêchée autour de nous" Johann Wolfgang von Goethe
MBP 15" 2015 Retina ( Win11), Macbook Air 2015 (en voyage), iMac 2015 27" Retina (Win11), MacbookPro 2008 pour le piano... pour ne citer que les Macs.
Go to the top of the page
 
+Quote Post
joe75
posté 7 Aug 2025, 13:02
Message #26


Macbidouilleur de vermeil !
****

Groupe : Membres
Messages : 1 410
Inscrit : 12 Jun 2005
Membre no 40 785



Citation (Paul Emploi @ 7 Aug 2025, 12:02) *
Citation (joe75 @ 7 Aug 2025, 10:12) *
Donc pour résumer....on n'est pas prêt de voir débarquer sur nos smartphones une IA fiable et qui tourne en locale...même avec du 16Go...ou alors une IA très spécialisée pour faire des résa en ligne comme semble apprécier le spécialiste JTC..lol...je n'irais pas jusqu'à dire 8Go ou 16Go même combat ..mais bof bof..

Ça dépends de deux facteurs: ce que l'on leur fait ingérer comme quantité de connaissances, et ce qu'on aimerait qu'elles soient apte à réaliser.

Par exemple une IA connaissant le PHP, ses principaux framework et le SQL, tout cela uniquement en anglais, et dont on attendrait qu'elle détecte des bugs et peut-être même les corriger, incluant les failles de sécurité, ça me parait tout à fait atteignable dans des tailles de 3B (iPhone) à 7B (Mac 16 Go).

Le choix d'Apple de limiter par langue est pragmatique, pour augmenter la qualité à taille égale, mais très limitant quand on utilise plusieurs langues au quotidien.

Le problème est de vouloir avoir des IA qui sachent tout sur tout, dans toutes les langues: celles gigantesques destinées au cloud par abonnement.
Et d'en dériver de différentes façons, élagage et/ou distillation, des IA plus petites et pédalant dans la semoule: ni aussi sachantes, ni correctement spécialisées, et généralement sur hallucinogènes!
Ça ne marche pas, et ça ne marchera pas tant que nos ordinateurs n'auront pas énormément évolués (dans une vingtaine d'année) pour pouvoir faire tourner beaucoup plus gros, probablement 30 fois plus gros.

PS: @DOMY très intéressant


Thanks :-)
Go to the top of the page
 
+Quote Post
macfredx
posté 7 Aug 2025, 13:06
Message #27


Adepte de Macbidouille
*

Groupe : Membres
Messages : 221
Inscrit : 9 Apr 2004
Lieu : Devant mon Mac bien sûr !
Membre no 17 416



Citation (Laszlo Lebrun @ 7 Aug 2025, 12:51) *
Exactement comme un certain président américain recemment réélu. Ça semble être dans l'air du temps...

Ça ne m'étonnerais pas qu'il ait une intelligence artificielle… biggrin.gif

Ce message a été modifié par macfredx - 7 Aug 2025, 13:08.


--------------------
iMac alu 21,5" i5 2,7GHz 12Go - Mac OS 10.13.6 (mort, en attente de renouvellement) - MacBook Pro 15" 2018 2,6GHz 16Go - Mac OS 14.5 - iMac G4 15" 800MHz 768 Mo - Mac OS 10.4.11 - FreeBox Révolution - HP Color Laserjet CP1515n - Canon Lide 20 - Minolta Scan Dual IV
Je soutiens le Comité de lutte Contre le langage sms et les fautes volontaires sur Internet
Membre du club des AIPBP (Anciens Inscrits Pas Beaucoup de Posts) Voir la liste
Go to the top of the page
 
+Quote Post
Benzebut
posté 7 Aug 2025, 13:14
Message #28


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 5 568
Inscrit : 5 Mar 2003
Lieu : Ville de Notre-Dame
Membre no 6 523



Citation (joe75 @ 7 Aug 2025, 10:12) *
Donc pour résumer....on n'est pas prêt de voir débarquer sur nos smartphones une IA fiable et qui tourne en locale...même avec du 16Go...ou alors une IA très spécialisée pour faire des résa en ligne comme semble apprécier le spécialiste JTC..lol...je n'irais pas jusqu'à dire 8Go ou 16Go même combat ..mais bof bof..

Bien sur que si, mais tout dépend ce qui est attendu. tongue.gif
Trouver une adresse en fonction d'un précédent échange pour l'associer à l'événement à venir tourne parfaitement en local désormais. D'autres opérations plus complexes également comme la retouche photographique ou dicter du texte dans la langue de l'utilisateur. Mais répondre à tout sur tout restera dépendant de données à exploiter.
Préférable de parler de systèmes experts, même si cela fait moins moderne, qui vont réaliser des tâches dédiées en fonction d'éléments simples plutôt que s'attendre à du génératif qui va demander puissance de calcul conséquente et immense quantité de données, plus une centrale nucléaire pour y puiser l’électricité requise...


--------------------
Sur iMac Pro (fin-2017) en Xeon 8 coeurs à 3.2 GHz / 32 Go Ram / Radeon Pro Vega 56 8 Go / 1 To SSD
Sous macOS 10.14.6 (Mojave) à jour et en réseau Wifi 6 avec une boite fibre 5 Gbit/s (fin de l'ADSL à la capitale)

Ayant été anobli depuis le 1er septembre de l'an de grâce 2024 avec le titre de Harceleur 1er par la Belle Province sur ces merveilleux forums...

Nostalgique de l'Apple IIgs ? Un petit émulateur : www.casags.net
Go to the top of the page
 
+Quote Post
DOMY
posté 7 Aug 2025, 14:19
Message #29


canoéiste trrrès imp(r)udent
*****

Groupe : Membres
Messages : 6 364
Inscrit : 5 May 2003
Lieu : LA ROCHELLE (17)
Membre no 7 431



Je viens de tomber sur ça .....

L’IA pourrait-elle diriger des nations d’ici à 2032 ?
Selon cet expert, ce n’est pas aussi farfelu qu’on pourrait le croire
Ce qui ressemble aujourd'hui à de la science-fiction pourrait devenir réalité dans moins d'une décennie.
Un expert en IA explique pourquoi les systèmes automatisés pourraient révolutionner la gouvernance.

https://tech.orange.fr/innovation/societe-n...00002jS5RP.html

Citation
L'IA ne ment pas pour protéger son ego.

Les liens postés au dessus prouvent le contraire.
Elle a une fâcheuse tendance à inventer des réponses, ou a " halluciner ", quand elle ne sait pas ! wink.gif

Ce message a été modifié par DOMY - 7 Aug 2025, 14:19.


--------------------
iMac (21,5 pouces - Fin 2012) - Mac OS Sierra 10.12.6
LiveBox 6
Go to the top of the page
 
+Quote Post
STRyk
posté 7 Aug 2025, 16:36
Message #30


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 2 483
Inscrit : 12 Feb 2001
Lieu : Entre 2 Technics SL 1210 MKII
Membre no 36



Citation (Paul Emploi @ 6 Aug 2025, 13:53) *
En bonus pour lui Oradour-sur-Glane se résume à une auberge! Si si!
À la place il recommande le Parc Naturel du Morvan, ou le Parc d'attraction du Puy de Dôme. Il n'a pas vraiment le compas dans l'œil.

Bin, certains n'aurons rien remarqué, c'est encore plus là le problème lorsqu'ils ne voient que par l'IA... laugh.gif


--------------------
Apple MacPro 3.1 : 2x3ghz, RAM 28Go, 2x8To, 2xSSD, ATI Radeon HD 5770, Mac OSX v10.6.8
Apple MacBookPro 8.1 : 2.7Ghz, RAM 8Go, 1To + 2To, Mac OSX v10.6.8
Apple Mac G4 DA : 1.33Ghz, RAM 1.5Go, Zip250, Raid0 2x250Go, GeForce Ti, AudioMedia III, DC30+, OS9.22 & OSX 10.4
Hachintosh HP XW4600 : Intel C2D E8400, RAM 3x1Go, HD 250Go, 64Bits, NVidia Quadro FX 380, Mac OSX v10.6.8, Carte Réseau GB interne
Hachintosh HP Compaq Pro 6300 SFF : Intel i7-3770, RAM 2x4Go 1600, HD 160Go, 64Bits, nVidia Quadro K600, Mac OSX v10.6.8 (Manque Affichage image dans Aperçu !)

OS9 & OSX 10.6.8 ARE STILL ALIVE !
Go to the top of the page
 
+Quote Post

Reply to this topicStart new topic
1 utilisateur(s) sur ce sujet (1 invité(s) et 0 utilisateur(s) anonyme(s))
0 membre(s) :

 



Nous sommes le : 30th August 2025 - 20:30