IPB

Bienvenue invité ( Connexion | Inscription )

2 Pages V   1 2 >  
Reply to this topicStart new topic
> La gamme M4 : l'IA coté inférence/exécution, Réactions à la publication du 08/11/2024
Options
Paul Emploi
posté 8 Nov 2024, 16:06
Message #1


Macbidouilleur de vermeil !
****

Groupe : Rédacteurs
Messages : 928
Inscrit : 19 Nov 2020
Membre no 212 895




Anciens Mx en gris, M4 mesurés en bleu, estimé en bleu clair, la concurrence en rouge.


Les IA vont probablement changer nos façons de travailler, d'échanger, d'utiliser un ordinateur quelqu'en soit la forme. Je crois beaucoup aux IA locales spécialisées sur nos Mac, PC et smartphones, bien moins aux IA ultra-massives dans le cloud qui veulent tout faire.
Celles que proposent Microsoft avec Copilot+, Apple via Apple Intelligence version locale, Google, etc.

J'ai repris les résultats de tests Geekbench 6 AI (ex Geekbench 6 ML), et ils sont étonnants pour certains, comme le M2 Ultra ou mon estimé (au doigt mouillé!) du M4 Ultra, les Snapdragon X, ou même les nVidia RTX 4000 que je n'ai pas intégrées.

Je me suis focalisé sur les tests Quantized (Quantifiés) qui sont plus représentatifs d'un usage local avec une empreinte mémoire limitée sur une mini ou micro IA.
On ne parle pas là de la phase d'apprentissage qui nécessite des matériels spécialisés ou pour le moins coûteux (M2 Ultra 128Go, RTX 4090 24 Go et autres joyeusetés).

Apple Silicon M4

C'est simple, quand Qualcomm et Microsoft se vantaient d'avoir créé les meilleurs PC pour exécuter localement une IA, c'était en fait Apple 2 ans auparavant avec les M2 non-égalés par les PC ARM de 2024, et les M4 sont au-dessus de la mêlée.

Les performances en cas d'usage pratique sont excellentes, les 38 Tops promis effectivement utilisables, contrairement à ...

On notera que le M4 Ultra est estimé comme les autres bien qu'ayant 2 NPU et donc en théorie deux fois les performances des autres M4: la génération M2 a montré que macOS via CoreML n'utilise pas les deux NPU mais juste une seule, même sur les dernières versions de l'OS.

C'est ballot!

Qualcomm Snapdragon X

75 Tops pour l'exécution d'IA, l'annonce a été fracassante, avec une seconde unité probablement plus polyvalente de 45 Tops, le support de Microsoft via Copilot+ et surtout en ne supportant pas les concurrents comme les dGPU nVidia ou AMD.

Dans les faits, ces SoC qui devaient être deux fois plus rapides pour l'IA que les M4 sont deux fois plus lents, avec des contre-performances remarquables sur certains tests, tant en terme de vitesse qu'en terme de précision des résultats.
Le test Machine Translation (traduction automatique) est catastrophique avec moins de 40% de précision tout en étant cacochyme!

Ces SoC ont deux ans de retard sur les Apple M2 plus performants en pratique mais théoriquement moins puissants!
Je pensais honnêtement que Qualcomm avait réussi son coup sur cet aspect, pour se projeter en avant et marquer une belle différence, les performances CPU étant médiocres en 2024 et leurs GPU pourries...

Ça reste très probablement de bons PC pour l'IA si on ne joue pas et si on imprime pas!

Intel Core Ultra 9 R285K

24 cœurs et 285W, un monstre!

Et plus lent qu'un M1 de 2020 dès qu'il s'agit d'IA.
En prétendant délivrer 36 Tops soit le double, sur sa fiche technique Intel. Intel!

Apple est certes en retard avec Apple Intelligence, mais là Intel semble aux abonnés absents, et pire se vante de performances qui ne sont pas là, et mérite que AMD et surtout Qualcomm lui prenne des parts de marché.

nVidia RTX 4000

Je n'ai pas intégré les scores des nVidia RTX 4000, qui sont proches des M2 quelque-soit le M2 ou la dGPU puisque chaque gamme utilise respectivement une seule et même NPU quelque soit le modèle considéré.

C'est amplement suffisant pour les usages demandés en exécution d'IA locales, au-dessus des Snapdragon X, et Microsoft ne semble pas décidé à les intégrer dans Copilot+, ce qui est une honte absolue!

La force des RTX n'est pas cette unité, c'est leur puissance de feu en fp32 où les hauts-de-gamme calculent bien plus vite en flottant fp16 et même fp32 via la GPU qu'en entier via la NPU intégrée!
C'est ce que je conseillerais pour créer ou améliorer une micro ou mini IA de quelques milliards de weights (poids). C'est accessible aux amateurs et aux PME.

Conclusion

Apple avait surpris en indiquant que Apple Intelligence serait supporté sur tous les Mac ARM, depuis le premier M1 équipant le MacBook Air 13" il y a 4 ans.
On aurait pu se dire que ces machines étaient largués, avec leur NPU bien moins puissantes qu'aujourd'hui, quand en fait en usages réels répliqués par Geekbench 6 IA elles sont plus lentes mais pas si loin que ce qui était présenté il y a 2 mois comme les meilleurs PC pour l'IA!

Il y a eu des évolutions matérielles pour rendre plus efficace les NPU des Mx sur les M2 puis M3, à performances théoriques identiques, pour dépasser dès le M2 d'il y a 2 ans les performances de ceux présentés aujourd'hui comme les meilleurs PC Copilot+!
La génération M4 enfonce le clou, avec de meilleures performances théoriques mais aussi pratiques, en étant sur ce point deux fois plus performant que les Snapdragon X!

Nos Mac Apple Silicon sont d'excellentes machines pour utiliser une IA en local, parmi les meilleures existantes et-ce dès la génération M2!

Lien vers le billet original



--------------------
Restons dans le sujet, merci!
Go to the top of the page
 
+Quote Post
kikistan
posté 8 Nov 2024, 16:36
Message #2


Adepte de Macbidouille
*

Groupe : Membres
Messages : 56
Inscrit : 27 Apr 2006
Membre no 60 126



pour avoir recu mon Mac Min M4 Pro je confirme

j'utilise ollama compatible metal
les perfs sur des petites modele 3B est temps reel
les modeles 27b tournent aussi tres bien

Bref du bonheur (et acheté un peu pour ça. Headless avec VNC et RDP server)
Go to the top of the page
 
+Quote Post
gimly
posté 8 Nov 2024, 19:14
Message #3


Macbidouilleur de bronze !
**

Groupe : Membres
Messages : 393
Inscrit : 30 Sep 2003
Lieu : Dordogne
Membre no 10 001



sur le gros M1 Max de l'époque , avec 32 g de ram , je fait un peut plus que le M1 de base 16 000

https://browser.geekbench.com/ai/v1/100522


--------------------
Macbookpro 13'' pour le travail, en personnel toujours G4 MDD 2X1,25G , x800 flacher,ecran philips,apple disigne speaker, brother HL1050, Syouest 270M Disque externe SCSI, Zip 250 Firemire, ligitech mx 1000 bateau model reduit pour la competition
Go to the top of the page
 
+Quote Post
Jaguar
posté 8 Nov 2024, 20:17
Message #4


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 1 942
Inscrit : 29 Nov 2002
Lieu : Lyon
Membre no 4 928



Oui, je confirme tout ça. Après de nombreux tests, nous avions choisi des Mac mini M2 Pro pour des clusters IA et les suivants seront des Mac mini M4 Pro (nous recevons les premiers le 29...).
L'objectif est de remplacer chaque grappe de 10 M2 (2 Mac mini M2 par 1U) par 12 M4 (3 Mac mini M4 par 1,25U). Un x2 sur les perfs entrainerait un x2,4 par espace utilisé.

Je rigole bien quand j'entends qu'Apple est en retard sur l'IA alors qu'ils intègrent des Neural Engine dans les iPhone depuis 7 ans ! biggrin.gif

Citation (kikistan @ 8 Nov 2024, 16:36) *
pour avoir recu mon Mac Min M4 Pro je confirme
En quelle configuration ?

Ce message a été modifié par Jaguar - 8 Nov 2024, 20:18.
Go to the top of the page
 
+Quote Post
joe75
posté 8 Nov 2024, 21:59
Message #5


Macbidouilleur de vermeil !
****

Groupe : Membres
Messages : 1 146
Inscrit : 12 Jun 2005
Membre no 40 785



Citation (Jaguar @ 8 Nov 2024, 21:17) *
Oui, je confirme tout ça. Après de nombreux tests, nous avions choisi des Mac mini M2 Pro pour des clusters IA et les suivants seront des Mac mini M4 Pro (nous recevons les premiers le 29...).
L'objectif est de remplacer chaque grappe de 10 M2 (2 Mac mini M2 par 1U) par 12 M4 (3 Mac mini M4 par 1,25U). Un x2 sur les perfs entrainerait un x2,4 par espace utilisé.

Je rigole bien quand j'entends qu'Apple est en retard sur l'IA alors qu'ils intègrent des Neural Engine dans les iPhone depuis 7 ans ! biggrin.gif

Citation (kikistan @ 8 Nov 2024, 16:36) *
pour avoir recu mon Mac Min M4 Pro je confirme
En quelle configuration ?


Opinion partagé par moi aussi qui suis pourtant sur PC...et chez Apple on aura probablement une belle intégration
MacOs et iOs/iPadOs alors que sur PC je devrais probablement jongler entre Windows et Android...
Je ne vois vraiment pas où se situe le retard si Apple.sort un produit mature et agréable à l'usage...
Enfin pour l'instant côté Android/PC Copilot+ ...je serais curieux de savoir ce qui tourne vraiment en local sans doute pas grand chose....
Go to the top of the page
 
+Quote Post
Paul Emploi
posté 8 Nov 2024, 22:07
Message #6


Macbidouilleur de vermeil !
****

Groupe : Rédacteurs
Messages : 928
Inscrit : 19 Nov 2020
Membre no 212 895



Il y a quand-même des points de détail, sur PC et sur Mac.

Mettons que sur Mac ARM et pour simplifier, une mini ou micro-IA quantifiée tournera bien avec Core ML et la cible Neural Engine, sauf si vous faites du fp32 où là il faut privilégier la cible GPU (toujours avec Core ML). C'est plus compliqué sur les Mac Intel...
Sur PC, ONNX bien sûr, mais le backend varie grandement, par exemple QNN avec les Snapdragon, DirectML pour les RTX.
Et coté CPU Intel, OpenVINO avec backend CPU semble privilégié au lieu de ONNX.

Ça compliquera la vie des développeurs PC, que ONNX avait bien facilité par le passé, y-compris son portage sur Mac que j'avais utilisé ici!
Je pense que la solution sera d'avoir un fallback ONNX, en testant lors de chaque changement matériel les performances des différentes options présentes, et qui peuvent varier de Layer en Layer d'ailleurs suivant le support matériel et des drivers, pour sélectionner le ou les plus performants.

Comme on le découvre, sur certaines opérations il vaut mieux une NPU plus polyvalente voire une GPU, qu'une NPU trop spécialisée avec un jeu d'instruction trop limité mais bien plus performante en théorie (les fameux Tops), qui fait du fallback sur la CPU pour certains Layers!
Je pense que c'est la force des NPU Apple, leur polyvalence en int8 et int16.

Un dernier truc à noter, les performances de la NPU du M1 étaient donnés en int16, probablement par absence de support natif de int8, alors que les fameux Tops des M4 sont donnés en int8. Mais les Tops n'ont aucune valeur en usage réel comme on le voit avec les Snapdragon X.


--------------------
Restons dans le sujet, merci!
Go to the top of the page
 
+Quote Post
JayTouCon
posté 9 Nov 2024, 09:30
Message #7


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 5 267
Inscrit : 2 Sep 2010
Membre no 158 552



mais on s'en fiche pas mal d'avoir le M4 ou le M12 ultra super puissant. c'est très bien, tout le monde est content pour ceux qui peuvent s'en offrir des super machines en mode AH AH les PC c'est pourri c'est nul regarde mes jolis benchs. super. ces macs sont très bons, très chers mais ..

le mais c'est qu'il n'y a rien, Nada. il va y avoir . quoi ? chatGPT ?

ca me fait penser à l'iPad pro : il est puissant il surpasse tout concurrent mais pour quoi faire ?? il n'y a quasiment rien de pro. ce n'est pas par ce que l'on annonce des logiciels pro dessus que par magie ca devient un usage pro (cf logic, PS etc)

on va donc avoir des machines totalement hors de prix comme les MBP où la RAM, qui semble quand désormais le nerf de la guerre bien plus que la puce M, M2, M35 etc, est vendue à un prix hors sol mais pour l'instant avec quoi ? rien.

bientôt, l'année prochaine, dans 6 mois pour le téléphone. on spécule sur ce que cela va nous apporter sans en avoir vu la couleur.

c'est assez amusant de voir les fanboys s'enthousiasmer ( @Joe75 dans son rôle favori ' c'est dommage que je n'ai pas ces produits qui sont fantastiques par rapport au mien') alors que pour le moment ce que l'on a vu chez la pomme dans des présentations est ce qui existe depuis 1an et demi chez google et samsung. d'ailleurs cher @joe75 tu trouvais dans un de tes posts que ca ne servait à rien. en attendant ca fonctionne et c'est 'gratuit' et contrairement a tes affirmations fallacieuses, ce n'est pas 20 euros par mois chez google quand on achète un pixel 9. chez samsung meme sur un 23 d'occase les fonctions sont pour le moment offertes. ce sont les premices, la préhistoire de l'IA mais c'est toujours mieux que de se trimballer un 15 qui n'en bénéficiera jamais.

je l'avais déjà dit, ici, de part son retard et ce n'est pas nouveau, la pomme annonce en fanfare des fonctions qui vont être formidables,amailleuuuudzing sur lesquelles fantasment (et c'est entretenu par la pomme) ses admirateurs vu le flou des annonces, spéculent et puis il n'y a ..rien ou si peu.

on l'a vu avec le bide du vision pro, ce prototype cache misère du retard de la pomme : on nous promet de l'IA en local, tant mieux, les machines sont désormais prêtes, c'est le minimum syndical vu les tarifs, mais mais concretement.. Tim Cook propose des aides auditives sur ses AirPods Pro.

c'est comme pour le 16 pro max. petite camera quasi semi pro, au dessus de la concurrence sur cette fonction mais.. qui dès qu'il fait plus de 25 degré voit son écran ressembler à une brique noire.

alors, la ficelle du 'méchante Europe ' qui enous empêche d'avoir de l'IA n'a pas vraiment pris, vu que les concurrents en propose en Europe, et que cette façon de gagner du temps est pénible : rattraper le retard OK mais annoncer des fonctions que proposent google et samsung 2 ans après (avril 2025) c'est se moquer du monde. si certains ne voient pas que le problème est Cook et sa cour, je ne peux rien pour vous.

Go to the top of the page
 
+Quote Post
Sethy
posté 9 Nov 2024, 09:49
Message #8


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 2 229
Inscrit : 12 Jul 2011
Membre no 168 767



Citation (Paul Emploi @ 8 Nov 2024, 16:06) *
J'ai repris les résultats de tests Geekbench 6 AI (ex Geekbench 6 ML), et ils sont étonnants pour certains, comme le M2 Ultra ou mon estimé (au doigt mouillé!) du M4 Ultra, les Snapdragon X, ou même les nVidia RTX 4000 que je n'ai pas intégrées.


J'ai fait pas mal de tests avec GeekBench ML depuis sa sortie (version 0.6 je crois, 1.0 et maintenant 1.1) et à ce stade, les résultats me semblent toujours très incohérents.

Si je pense qu'il est possible de comparer deux matériels de même type (les M entre eux par exemple), la comparaison entre materiels de type différent me parait très bancale.

J'édite pour légèrement modifier mon propos. Ici, ce que tu écris à propos des RTX 4000 est une preuve de ce que j'avance. Pourquoi un Bench d'IA ne permet-il pas de quantifier cette puissance de calcul qui peut-être mobilisée pour faire de l'IA ?

Citation de l'article : "La force des RTX n'est pas cette unité, c'est leur puissance de feu en fp32 où les hauts-de-gamme calculent bien plus vite en flottant fp16 et même fp32 via la GPU qu'en entier via la NPU intégrée!".

Pour le reste, je rappellerai juste qu'il est toujours possible d'adjoindre aux processeurs Intel, un GPU discrete. Ce qui n'est possible dans aucune des autres configurations présentes dans le graphique.

Ce message a été modifié par Sethy - 9 Nov 2024, 09:58.


--------------------
iMac 21,5" mid 2011 - core i7 - 24 GB - HD 6970M - Maverick
MacBook Air 2014 - core i3 - 8 GB - 128 GB - Maverick
iPad mini 1- 64 GB - iOS 7
Hack X99 - 970 GTX 2015 - Gigabyte X99-UD4 - i7 5830K - Yosemite - Unibeast Lien
DS-918+ - Syno Primary - DS-412+ - Syno Back-up

Go to the top of the page
 
+Quote Post
jeandemi
posté 9 Nov 2024, 11:38
Message #9


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 2 231
Inscrit : 20 Aug 2020
Lieu : Belgique
Membre no 212 269



Citation (Paul Emploi @ 8 Nov 2024, 17:06) *
Intel Core Ultra 9 R285K

24 cœurs et 285W, un monstre!

Et plus lent qu'un M1 de 2020 dès qu'il s'agit d'IA.
En prétendant délivrer 36 Tops soit le double, sur sa fiche technique Intel. Intel!

Intel prétend arriver aux 36 Tops en utilisant la totalité du CPU, pas uniquement l'unité dédiée IA
Go to the top of the page
 
+Quote Post
zoso2k1
posté 9 Nov 2024, 12:04
Message #10


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 2 271
Inscrit : 2 Jul 2001
Membre no 449



Apple va faire joujou avec de l'IA pour monsieur tout le mode pendant que Nvidia propose des solutions comme la carte H100

NVIDIA H100
Processeur de calcul
NVIDIA H100 Tensor Core
80 Go HBM3
PCI Express 5.0

Mise en œuvre d'une IA transformationnelle
Inférences Deep Learning en temps réel
Calcul haute performance Exascale
Accélération de l'analyse de données
Conçu pour une utilisation en entreprise
Calcul confidentiel intégré

Système d'exploitation requis
Red Hat Enterprise Linux 9.0, SUSE Linux Enterprise Server 15 SP3, SUSE Linux Enterprise Server 15 SP4, Ubuntu 20.04, Microsoft Windows Server 2022

Et on peut en coupler 256 grâce à NVidia NVLink.

C'est des solutions à plus de 30K€ la carte certes mais il faut noter l'absence totale d'Apple dans ce marché.

On fera joujou avec l'IA en avril 2025 d'ici là où en seront les autres ?

Ce message a été modifié par zoso2k1 - 9 Nov 2024, 12:05.


--------------------
9600@G4/1000, ATI 7000 Panther et 9.1, 896 Mo, 500 Go IDE, DVD-RW, M-Audio IMac G4/1,25 20" Leopard, 2 Go, 320 Go + 320 Go FW.
i7 3770K@4,5 GHz Mountain Lion 16 Go RAID 0 SSD 2*512 Go, 10 To RAID 5, Nvidia 670 2Go, Blu-ray, Ecran 27" HP 2560*1600
i5 2500K@4 GHz Snow Leopoard, 16 Go, 10 To RAID 5, ATI 5770 1 Go
iPod 5 Go première génération iPod U2 40 Go première génération iPod 40 Go troisième génération

« La théorie, c'est quand on sait tout et que rien ne fonctionne.
La pratique, c'est quand tout fonctionne et que personne ne sait pourquoi.
Ici, nous avons réuni théorie et pratique : Rien ne fonctionne... et personne ne sait pourquoi ! »

Albert Einstein

Le jour où le Mac fonctionnera de la même manière que l'iPhone, je passerai à Windows.
Lionel. Macbidouille. 25 juin 2010.
Go to the top of the page
 
+Quote Post
Paul Emploi
posté 9 Nov 2024, 12:06
Message #11


Macbidouilleur de vermeil !
****

Groupe : Rédacteurs
Messages : 928
Inscrit : 19 Nov 2020
Membre no 212 895



Citation (Sethy @ 9 Nov 2024, 10:49) *
J'édite pour légèrement modifier mon propos. Ici, ce que tu écris à propos des RTX 4000 est une preuve de ce que j'avance. Pourquoi un Bench d'IA ne permet-il pas de quantifier cette puissance de calcul qui peut-être mobilisée pour faire de l'IA ?

Citation de l'article : "La force des RTX n'est pas cette unité, c'est leur puissance de feu en fp32 où les hauts-de-gamme calculent bien plus vite en flottant fp16 et même fp32 via la GPU qu'en entier via la NPU intégrée!".

Parce que "Je me suis focalisé sur les tests Quantized (Quantifiés) qui sont plus représentatifs d'un usage local avec une empreinte mémoire limitée sur une mini ou micro IA", et j'ai rajouté "On ne parle pas là de la phase d'apprentissage qui nécessite des matériels spécialisés ou pour le moins coûteux (M2 Ultra 128Go, RTX 4090 24 Go et autres joyeusetés)".

Geekbench 6 IA fonctionne correctement pour moi, avec l'atout de pondérer les performances via la précision ou plutôt l'imprécision de certains résultats.
Un mélange de différentes fonctions qui sont apportées par de l'IA avec une moyenne logarithmique.
Les plus grosses variations observées sont dues aux cibles choisies, j'ai volontairement sélectionné les meilleurs résultats, et j'ai fait un récap des cibles dans un message précédent ici.

Citation (jeandemi @ 9 Nov 2024, 12:38) *
Citation (Paul Emploi @ 8 Nov 2024, 17:06) *
Intel Core Ultra 9 R285K

24 cœurs et 285W, un monstre!

Et plus lent qu'un M1 de 2020 dès qu'il s'agit d'IA.
En prétendant délivrer 36 Tops soit le double, sur sa fiche technique Intel. Intel!

Intel prétend arriver aux 36 Tops en utilisant la totalité du CPU, pas uniquement l'unité dédiée IA

Intel prétend délivrer 36 Tops avec le Core Ultra 9 285K, et ils ne sont pas là du tout, ce chiffre est une escroquerie en soi.
Ça ne le serait pas si Intel avait un driver permettant d'exploiter simultanément les différentes unités (CPU + NPU + GPU) de manière transparente, via ONNX.
Déjà que les Tops ne veulent pas dire grand-chose, ou plutôt des choses différentes chez les uns et les autres, si en plus on laisse passer un chiffre théorique grotesque qui pourrait laisser croire à ce que cette CPU soit dans la course pour Copilot+...


--------------------
Restons dans le sujet, merci!
Go to the top of the page
 
+Quote Post
JayTouCon
posté 9 Nov 2024, 12:31
Message #12


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 5 267
Inscrit : 2 Sep 2010
Membre no 158 552



Citation (zoso2k1 @ 9 Nov 2024, 13:04) *
On fera joujou avec l'IA en avril 2025 d'ici là où en seront les autres ?

en avril 2025 tu auras chez la pomme ce qui existe ailleurs depuis au moins un an... et des keynote tout aussi lunaires avec Federighi qui fera des cascades dans l'escalier à défaut d'innover.

Et chez google & co, ils ne se passent pas du rouge à ongle en regardant les benchs.

on aura probablement plus une idée de là ou veut aller la pomme avec le 17 (et le 18) qui lui sera vraiment le 1er téléphone pommé pensé pour l'IA et non des produits augmentés en RAM pour ne pas passer à coté et se rattraper aux branches.
Go to the top of the page
 
+Quote Post
joe75
posté 9 Nov 2024, 14:33
Message #13


Macbidouilleur de vermeil !
****

Groupe : Membres
Messages : 1 146
Inscrit : 12 Jun 2005
Membre no 40 785



Citation (JayTouCon @ 9 Nov 2024, 10:30) *
mais on s'en fiche pas mal d'avoir le M4 ou le M12 ultra super puissant. c'est très bien, tout le monde est content pour ceux qui peuvent s'en offrir des super machines en mode AH AH les PC c'est pourri c'est nul regarde mes jolis benchs. super. ces macs sont très bons, très chers mais ..

le mais c'est qu'il n'y a rien, Nada. il va y avoir . quoi ? chatGPT ?

ca me fait penser à l'iPad pro : il est puissant il surpasse tout concurrent mais pour quoi faire ?? il n'y a quasiment rien de pro. ce n'est pas par ce que l'on annonce des logiciels pro dessus que par magie ca devient un usage pro (cf logic, PS etc)

on va donc avoir des machines totalement hors de prix comme les MBP où la RAM, qui semble quand désormais le nerf de la guerre bien plus que la puce M, M2, M35 etc, est vendue à un prix hors sol mais pour l'instant avec quoi ? rien.

bientôt, l'année prochaine, dans 6 mois pour le téléphone. on spécule sur ce que cela va nous apporter sans en avoir vu la couleur.

c'est assez amusant de voir les fanboys s'enthousiasmer ( @Joe75 dans son rôle favori ' c'est dommage que je n'ai pas ces produits qui sont fantastiques par rapport au mien') alors que pour le moment ce que l'on a vu chez la pomme dans des présentations est ce qui existe depuis 1an et demi chez google et samsung. d'ailleurs cher @joe75 tu trouvais dans un de tes posts que ca ne servait à rien. en attendant ca fonctionne et c'est 'gratuit' et contrairement a tes affirmations fallacieuses, ce n'est pas 20 euros par mois chez google quand on achète un pixel 9. chez samsung meme sur un 23 d'occase les fonctions sont pour le moment offertes. ce sont les premices, la préhistoire de l'IA mais c'est toujours mieux que de se trimballer un 15 qui n'en bénéficiera jamais.

je l'avais déjà dit, ici, de part son retard et ce n'est pas nouveau, la pomme annonce en fanfare des fonctions qui vont être formidables,amailleuuuudzing sur lesquelles fantasment (et c'est entretenu par la pomme) ses admirateurs vu le flou des annonces, spéculent et puis il n'y a ..rien ou si peu.

on l'a vu avec le bide du vision pro, ce prototype cache misère du retard de la pomme : on nous promet de l'IA en local, tant mieux, les machines sont désormais prêtes, c'est le minimum syndical vu les tarifs, mais mais concretement.. Tim Cook propose des aides auditives sur ses AirPods Pro.

c'est comme pour le 16 pro max. petite camera quasi semi pro, au dessus de la concurrence sur cette fonction mais.. qui dès qu'il fait plus de 25 degré voit son écran ressembler à une brique noire.

alors, la ficelle du 'méchante Europe ' qui enous empêche d'avoir de l'IA n'a pas vraiment pris, vu que les concurrents en propose en Europe, et que cette façon de gagner du temps est pénible : rattraper le retard OK mais annoncer des fonctions que proposent google et samsung 2 ans après (avril 2025) c'est se moquer du monde. si certains ne voient pas que le problème est Cook et sa cour, je ne peux rien pour vous.

Puisque tu me cites encore, c'est plus fort que toi je sais !
Arrête donc de déformer mes propos,.à aucun moment je n'ai dit que les produits Apple étaient supérieurs aux miens...Objectivement ce serait plutôt le contraire ,car moi je ne travaille pas non plus avec des benchmarksb, je ne n'en ai pas besoin )...la seule exception mais j'espère que cela va changer vite en 2025, ce serait l'Apple Vision pro qui reste assez unique..comme casque VR.
Et puis il faudrait savoir ce tu appelles machine hors de prix...par rapport à quoi...il me semble que le mac mini est plutôt abordable...
Et pour l' IA rien ne permet d'affirmer qu'Apple est en retard....Si on lit cet article on a presque l impression qu'il vaut mieux avoir un macbook M1 qu'un PC estampillé Copilot+ de 2024.
Je dis simplement pour que tu imprimes, qu'aujourd'hui personne ne peut dire précisément si l'IA d'Apple fera mieux ou moins bien que ce qui existe et qui est encore â un stade embryonnaire ...car oui pour l'instant même sur smartphone Galaxy je cherche encore l'intégration IA et principalement basée sur le cloud ). .ça changera peut-être avec Android 15 qui lui est repoussé à 2025


Signé la brigade anti troll

Ce message a été modifié par joe75 - 10 Nov 2024, 13:38.
Go to the top of the page
 
+Quote Post
macfredx
posté 9 Nov 2024, 14:56
Message #14


Adepte de Macbidouille
*

Groupe : Membres
Messages : 147
Inscrit : 9 Apr 2004
Lieu : Devant mon Mac bien sûr !
Membre no 17 416



Citation (joe75 @ 9 Nov 2024, 15:33) *
(…)

Signé la brigade anti troll

Mais pourquoi répondre à ce troll ?
La meilleure méthode, pour moi, est de l'ignorer.
Et de ne surtout pas citer ses interventions.


--------------------
iMac alu 21,5" i5 2,7GHz 12Go - Mac OS 10.13.6 (mort, en attente de renouvellement) - MacBook Pro 15" 2018 2,6GHz 16Go - Mac OS 14.5 - iMac G4 15" 800MHz 768 Mo - Mac OS 10.4.11 - FreeBox Révolution - HP Color Laserjet CP1515n - Canon Lide 20 - Minolta Scan Dual IV
Je soutiens le Comité de lutte Contre le langage sms et les fautes volontaires sur Internet
Membre du club des AIPBP (Anciens Inscrits Pas Beaucoup de Posts) Voir la liste
Go to the top of the page
 
+Quote Post
Paul Emploi
posté 9 Nov 2024, 15:39
Message #15


Macbidouilleur de vermeil !
****

Groupe : Rédacteurs
Messages : 928
Inscrit : 19 Nov 2020
Membre no 212 895



Oui, Apple Intelligence est en retard, mais pas le matériel Apple, au contraire!

En fait je m'attend à l'émergence d'App mobiles intégrant des micro-IA spécialisées et très capables dans un domaine restreint et défini, ainsi que des applications "desktop" que ça soit pour Mac ou pour PC.
Mais là où sur Mac il y a déjà des capacités depuis 4 ans, beaucoup de PC n'en ont pas même encore aujourd'hui, donc leurs usagers devront s'abonner à un ou des services cloud pour y avoir accès!

Je pense que Apple Intelligence va être intéressant, même si il y a déjà des couacs comme l'abonnement proposée à OpenAI pour avoir accès à une meilleure IA pour Siri, dans le sens où ses différentes parts vont établir le seuil à franchir pour les développeurs tiers.
Apple Intelligence devrait devenir le maître-étalon sur Mac et iPhone, et probablement sur PC Windows et Android.

Est-ce que les éditeurs privilégieront l'option abonnement, ils en seront très tentés financièrement?
Ou l'intégration d'abonnements tiers qui ne leur rapportent rien?
Est-ce qu'ils travailleront pour créer leurs propres IA pour les faire exécuter localement quand c'est possible, pour moi la meilleure option?


--------------------
Restons dans le sujet, merci!
Go to the top of the page
 
+Quote Post
Jaguar
posté 9 Nov 2024, 16:10
Message #16


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 1 942
Inscrit : 29 Nov 2002
Lieu : Lyon
Membre no 4 928



Citation (macfredx @ 9 Nov 2024, 14:56) *
Citation (joe75 @ 9 Nov 2024, 15:33) *
(…)Signé la brigade anti troll
Mais pourquoi répondre à ce troll ?
La meilleure méthode, pour moi, est de l'ignorer.
Et de ne surtout pas citer ses interventions.
Tu as raison. Mais ces verbiages sont tellement pénibles et tristes aussi, autant pour l'auteur que pour MacBidouille qui se bat pour survivre et se retrouve pollué. Je ne comprends pas que les modérateurs ne prennent pas la mesure de ces nuisances qui, à la longue, ont fait fuir toutes les personnes qui avaient des choses intéressantes à apporter ici.
Go to the top of the page
 
+Quote Post
JayTouCon
posté 9 Nov 2024, 16:21
Message #17


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 5 267
Inscrit : 2 Sep 2010
Membre no 158 552



mais je n'ai aucun problème pour dire que les machines pommées sont puissantes, bien au contraire, mais pour quoi faire ? ' pour l'IA ' mais il n'y a RIEN. c'est totalement ri-di-cu-le . on avait une super puce formidable génialissime meilleure que jamais vu sur le téléphone N°15.ok. résultat 6 mois après il est obsolète par ce qu'il n'est pas prêt pour l'IA (chapeau la roadmap Tim Cook qui trace clairement une voie étape après étape qui s'appelle... le brouillard total)

quand je cite l'iPad pro c'est notamment sur ce point : personne d'honnête ne peut dire que l'on a besoin de la puce M2, ni même n'est arrivé à mettre à genoux la puce M1 sur un iPad Pro. et pour cause c'est IOS dessus. . une puce M4 est totalement ridicule . et le discours 'ah mais oui mais pour le futur ' c'est du pipeau : l'iPad sera mort avant (d'usure ou d'obsolescence logicielle). même un iPad M s'il n'a pas 1ou 2 TO sera obsolète par ce que la RAM

un MBP à 3.000 balles est prêt pour l'avenir super, c'est bien. mais lequel ? 'vous allez voir ce que vous allez voir' ok mais quoi ? 'vous allez voir faites nous confiance' (comme pour le 15 ?)
l' AI sur le téléphone 16 c'est croquignolesque (configuré en anglais, VPN etc) et ca ne pouvait pas fonctionner sur un 15 ? mais c'est du foutage de gueule total de croire que le 16 est paré pour l'IA. ce ne sera que l'IA gratis (faut acheter le téléphone) que l'on trouve sur androïd. à 1500 boules .. déjà la touche magique que l'on doit actionner pour la photo et qui serait pour l'IA reçoit un accueil 'mitigé' si l'on dépend de la pomme pour recevoir du matériel ou glacial si on l'achète

le MBP ou le téléphone sont bons mais ce n'est pas le problème . le 15 était aussi un bon téléphone mais du jour au lendemain ' désolé '. dans 4 ans ils seront pourris les MBP de 2028 en vente ou ils auront progressé ? tout le monde comprend que ces machines de 2028 auront été construites dans ce but, avec cette IA et non en catastrophe comme je l'indiquais en rajoutant de la Ram par ce que bon il faut de la ram pour l'IA signe en bas, wé wé t'inquiétes c'est bon, merci, tu verras c'est bon. allez, ouais, allllllezzzz, ouais c'est ça, alleeez je dois y aller

ahhh cool y' a @jaguar . l'objectivité faite homme. tu as toujours ta ferme de Mac mini ? et commenter les commentaires ca t'a passé ?


bisous @macfredX . en général quand il y a un X dans un pseudo c'est un joli fanboy. bisous et coeur avec les doigts et merci de ta participation sur le fond puisque tu.. ah non rien, tu ne dis strictement rien, tu commentes les commentaires .. c'est aussi à ça que l'on vous reconnait.

Ce message a été modifié par JayTouCon - 9 Nov 2024, 16:23.
Go to the top of the page
 
+Quote Post
Jaguar
posté 9 Nov 2024, 16:25
Message #18


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 1 942
Inscrit : 29 Nov 2002
Lieu : Lyon
Membre no 4 928



Citation (Paul Emploi @ 9 Nov 2024, 15:39) *
Oui, Apple Intelligence est en retard, mais pas le matériel Apple, au contraire!
C'est un bon résumé à nuancer sur deux points :
Core ML existe depuis 2017 et est documenté, utilisé et connu par des milliers de développeurs.
ChatGPT est tellement à la rue sur de nombreux points (en particulier son taux d'hallucinations beaucoup trop élevé) qu'Apple Intelligence pourrait très vite le dépasser.
Go to the top of the page
 
+Quote Post
JayTouCon
posté 9 Nov 2024, 16:37
Message #19


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 5 267
Inscrit : 2 Sep 2010
Membre no 158 552



Citation (Jaguar @ 9 Nov 2024, 17:25) *
Citation (Paul Emploi @ 9 Nov 2024, 15:39) *
Oui, Apple Intelligence est en retard, mais pas le matériel Apple, au contraire!
C'est un bon résumé à nuancer sur deux points :
Core ML existe depuis 2017 et est documenté, utilisé et connu par des milliers de développeurs.
ChatGPT est tellement à la rue sur de nombreux points (en particulier son taux d'hallucinations beaucoup trop élevé) qu'Apple Intelligence pourrait très vite le dépasser.

il est tellement à la rue que ta sainte pomme en fait un argument pour vendre son IA.
https://www.iphon.fr/post/apple-introduit-c...ipad-et-les-mac

si seulement tu pouvais un jour être crédible...
Go to the top of the page
 
+Quote Post
Sethy
posté 9 Nov 2024, 19:03
Message #20


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 2 229
Inscrit : 12 Jul 2011
Membre no 168 767



Code
GeekBench-ML ONNX CPU    Single P        2461
GeekBench-ML ONNX CPU    Half P        980
GeekBench-ML ONNX CPU    Quantized        3352
GeekBench-ML ONNX DirectML    Single P        2993
GeekBench-ML ONNX DirectML    Half P        6788
GeekBench-ML ONNX DirectML    Quantized        2308
GeekBench-ML OpenVino CPU    Single P        2715
GeekBench-ML OpenVino CPU    Half P        2584
GeekBench-ML OpenVino CPU    Quantized        7031
GeekBench-ML OpenVino DirectML    Single P        7117
GeekBench-ML OpenVino DirectML    Half P        10735
GeekBench-ML OpenVino DirectML    Quantized        15628


Ici les résultats de GeekBench ML 1.1 sur un Core Ultra 155H (i7, Arc graphics), soit un PC Intel "1ère génération" (à comparer au 285K qui comme le premier chiffre l'indique est lui de deuxième génération).

J'obtiens 15628 en Quantized, ce qui est quand même significativement plus que les 11500 ? du 285K (pas facile d'être plus précis puisque je suis parti du diagramme de la news).

Ce serait quand même bizarre qu'un i7 gen 1 dépasse un i9 gen 2 de 36%.



--------------------
iMac 21,5" mid 2011 - core i7 - 24 GB - HD 6970M - Maverick
MacBook Air 2014 - core i3 - 8 GB - 128 GB - Maverick
iPad mini 1- 64 GB - iOS 7
Hack X99 - 970 GTX 2015 - Gigabyte X99-UD4 - i7 5830K - Yosemite - Unibeast Lien
DS-918+ - Syno Primary - DS-412+ - Syno Back-up

Go to the top of the page
 
+Quote Post
Paul Emploi
posté 9 Nov 2024, 20:32
Message #21


Macbidouilleur de vermeil !
****

Groupe : Rédacteurs
Messages : 928
Inscrit : 19 Nov 2020
Membre no 212 895



Citation (Sethy @ 9 Nov 2024, 20:03) *
Ce serait quand même bizarre qu'un i7 gen 1 dépasse un i9 gen 2 de 36%.

Tout dépends des unités réellement employées, la cible est une préférence mais il y a du fallback quand des opérations n'y sont pas supportées.
Dans cet exemple le Core Ultra 155H a une iGPU quasiment deux fois plus rapide que celle du Core Ultra 9 285K, et c'est probablement l'explication, avec VINNO passant sur la dGPU quand ONNX fait très probablement un fallback complet donc sur la CPU!


--------------------
Restons dans le sujet, merci!
Go to the top of the page
 
+Quote Post
Sethy
posté 9 Nov 2024, 21:27
Message #22


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 2 229
Inscrit : 12 Jul 2011
Membre no 168 767



Sur la pièce jointe, les charges (selon le Task Manager) au cours des 4 tests :

(1) : ONNX CPU - Intel Core Ultra i7 155H
(2) : ONNX DIRECTML - Intel Arc Graphics
(3) : OpenVino CPU - Intel Core Ultra i7 155H
(4) : OpenVino GPU - Intel Arc Graphics

Les désignations sont celles données par GeekBench ML

Que remarque-t-on ?
a/ Il est probable que la partie NPU (Compute 0) soit encore en bêta chez MS sur Windows 10
b/ que le CPU est bel bien sollicité pour les tests CPU (1 et 3)
c/ que le test 2 bench bien le GPU
d/ que le test 4, celui qui donne le résultat de 15k* fait à peine appel au CPU.

Fichier joint  Geekbench_ML.png ( 188.9 Ko ) Nombre de téléchargements : 12


Lien GeekBench pour le 4 : https://browser.geekbench.com/ai/v1/101732

Ce message a été modifié par Sethy - 9 Nov 2024, 21:28.


--------------------
iMac 21,5" mid 2011 - core i7 - 24 GB - HD 6970M - Maverick
MacBook Air 2014 - core i3 - 8 GB - 128 GB - Maverick
iPad mini 1- 64 GB - iOS 7
Hack X99 - 970 GTX 2015 - Gigabyte X99-UD4 - i7 5830K - Yosemite - Unibeast Lien
DS-918+ - Syno Primary - DS-412+ - Syno Back-up

Go to the top of the page
 
+Quote Post
Paul Emploi
posté 9 Nov 2024, 21:33
Message #23


Macbidouilleur de vermeil !
****

Groupe : Rédacteurs
Messages : 928
Inscrit : 19 Nov 2020
Membre no 212 895



Oui pour moi le test avec le meilleur résultat faisait tourner ce qu'il pouvait sur la NPU, et faisait un fallback sur la GPU (et non la CPU).

C'est un gros problème, les frameworks et backend cibles à choisir suivant les tâches d'IA, l'architecture matérielle et le support des drivers.


--------------------
Restons dans le sujet, merci!
Go to the top of the page
 
+Quote Post
ide508
posté 9 Nov 2024, 22:49
Message #24


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 3 657
Inscrit : 7 Jan 2004
Lieu : Gistoux - Belgique / Vence 06
Membre no 13 132



Citation (Jaguar @ 9 Nov 2024, 16:10) *
Citation (macfredx @ 9 Nov 2024, 14:56) *
Citation (joe75 @ 9 Nov 2024, 15:33) *
(…)Signé la brigade anti troll
Mais pourquoi répondre à ce troll ?
La meilleure méthode, pour moi, est de l'ignorer.
Et de ne surtout pas citer ses interventions.
Tu as raison. Mais ces verbiages sont tellement pénibles et tristes aussi, autant pour l'auteur que pour MacBidouille qui se bat pour survivre et se retrouve pollué. Je ne comprends pas que les modérateurs ne prennent pas la mesure de ces nuisances qui, à la longue, ont fait fuir toutes les personnes qui avaient des choses intéressantes à apporter ici.

Psttt, ignorer ce membre...
happy.gif


--------------------
MBP 15" 2011 2G i7 8G Ram 10.6.8 carte mère HS - MBP 13" retina late 2015 2.7G 8G Ram 256G - Sierra 10.12.6
Mac mini late 2012 2,3G I7 16G Ram SSD 120G - 10.12.6 / Mac mini server late 2012 i7 2,3G SSD 250G - 10.13.6 16G RAM & SSD Apple - iPhone 12 pro 17.3.1 / iPad pro M2 11'' 2022 - 17.6.1
Une pléthores de LaCie rugged et SSD Samsung T5 1T - OWC Envoy pro Fx 1T
Be Mind Full
Go to the top of the page
 
+Quote Post
macfredx
posté 10 Nov 2024, 02:56
Message #25


Adepte de Macbidouille
*

Groupe : Membres
Messages : 147
Inscrit : 9 Apr 2004
Lieu : Devant mon Mac bien sûr !
Membre no 17 416



Citation (ide508 @ 9 Nov 2024, 23:49) *
Citation (Jaguar @ 9 Nov 2024, 16:10) *
Citation (macfredx @ 9 Nov 2024, 14:56) *
Citation (joe75 @ 9 Nov 2024, 15:33) *
(…)Signé la brigade anti troll
Mais pourquoi répondre à ce troll ?
La meilleure méthode, pour moi, est de l'ignorer.
Et de ne surtout pas citer ses interventions.
Tu as raison. Mais ces verbiages sont tellement pénibles et tristes aussi, autant pour l'auteur que pour MacBidouille qui se bat pour survivre et se retrouve pollué. Je ne comprends pas que les modérateurs ne prennent pas la mesure de ces nuisances qui, à la longue, ont fait fuir toutes les personnes qui avaient des choses intéressantes à apporter ici.

Psttt, ignorer ce membre...
happy.gif

Exactement, c'est ce que je fais pour ma part. Les seules fois où je vois (malheureusement) ses âneries, c'est quand elles sont citées par un autre.


--------------------
iMac alu 21,5" i5 2,7GHz 12Go - Mac OS 10.13.6 (mort, en attente de renouvellement) - MacBook Pro 15" 2018 2,6GHz 16Go - Mac OS 14.5 - iMac G4 15" 800MHz 768 Mo - Mac OS 10.4.11 - FreeBox Révolution - HP Color Laserjet CP1515n - Canon Lide 20 - Minolta Scan Dual IV
Je soutiens le Comité de lutte Contre le langage sms et les fautes volontaires sur Internet
Membre du club des AIPBP (Anciens Inscrits Pas Beaucoup de Posts) Voir la liste
Go to the top of the page
 
+Quote Post
malloc
posté 10 Nov 2024, 12:06
Message #26


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 2 387
Inscrit : 5 Sep 2004
Membre no 23 103



Citation (macfredx @ 10 Nov 2024, 02:56) *
Citation (ide508 @ 9 Nov 2024, 23:49) *
Citation (Jaguar @ 9 Nov 2024, 16:10) *
Citation (macfredx @ 9 Nov 2024, 14:56) *
Citation (joe75 @ 9 Nov 2024, 15:33) *
(…)Signé la brigade anti troll
Mais pourquoi répondre à ce troll ?
La meilleure méthode, pour moi, est de l'ignorer.
Et de ne surtout pas citer ses interventions.
Tu as raison. Mais ces verbiages sont tellement pénibles et tristes aussi, autant pour l'auteur que pour MacBidouille qui se bat pour survivre et se retrouve pollué. Je ne comprends pas que les modérateurs ne prennent pas la mesure de ces nuisances qui, à la longue, ont fait fuir toutes les personnes qui avaient des choses intéressantes à apporter ici.

Psttt, ignorer ce membre...
happy.gif

Exactement, c'est ce que je fais pour ma part. Les seules fois où je vois (malheureusement) ses âneries, c'est quand elles sont citées par un autre.


Idem, mais la remarque de Jaguar est très pertinente. Car le choix des contributeurs qui bénéficient d'une visibilité garantie vs ceux qui se font censurer/bannir a un impact fort sur l'évolution du forum. "Quand tous les dégoûtés sont partis, il ne reste que les dégoûtants"


--------------------
A vendre: Apple Cinema Display 20" ADC (Adaptateur actif DVI->ADC inclus). Pour G4 Cube, Quicksilver, ou offrir un look retro "OS X 10.0" à un setup !
Go to the top of the page
 
+Quote Post
macfredx
posté 10 Nov 2024, 13:55
Message #27


Adepte de Macbidouille
*

Groupe : Membres
Messages : 147
Inscrit : 9 Apr 2004
Lieu : Devant mon Mac bien sûr !
Membre no 17 416



Citation (malloc @ 10 Nov 2024, 13:06) *
Idem, mais la remarque de Jaguar est très pertinente. Car le choix des contributeurs qui bénéficient d'une visibilité garantie vs ceux qui se font censurer/bannir a un impact fort sur l'évolution du forum. "Quand tous les dégoûtés sont partis, il ne reste que les dégoûtants"

Oui, bien sûr, je suis moi aussi d'accord avec sa remarque.
Mais la meilleure façon de faire "mourir" un troll, c'est de l'ignorer. Le jour où plus personne ne répond ou ne réagit à ses "commentaires", il y a de fortes chances qu'il se lasse.
Jolie formule. wink.gif


--------------------
iMac alu 21,5" i5 2,7GHz 12Go - Mac OS 10.13.6 (mort, en attente de renouvellement) - MacBook Pro 15" 2018 2,6GHz 16Go - Mac OS 14.5 - iMac G4 15" 800MHz 768 Mo - Mac OS 10.4.11 - FreeBox Révolution - HP Color Laserjet CP1515n - Canon Lide 20 - Minolta Scan Dual IV
Je soutiens le Comité de lutte Contre le langage sms et les fautes volontaires sur Internet
Membre du club des AIPBP (Anciens Inscrits Pas Beaucoup de Posts) Voir la liste
Go to the top of the page
 
+Quote Post
JayTouCon
posté 10 Nov 2024, 15:23
Message #28


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 5 267
Inscrit : 2 Sep 2010
Membre no 158 552



Citation (malloc @ 10 Nov 2024, 12:06) *
Citation (macfredx @ 10 Nov 2024, 02:56) *
Citation (ide508 @ 9 Nov 2024, 23:49) *
Citation (Jaguar @ 9 Nov 2024, 16:10) *
Citation (macfredx @ 9 Nov 2024, 14:56) *
Citation (joe75 @ 9 Nov 2024, 15:33) *
(…)Signé la brigade anti troll
Mais pourquoi répondre à ce troll ?
La meilleure méthode, pour moi, est de l'ignorer.
Et de ne surtout pas citer ses interventions.
Tu as raison. Mais ces verbiages sont tellement pénibles et tristes aussi, autant pour l'auteur que pour MacBidouille qui se bat pour survivre et se retrouve pollué. Je ne comprends pas que les modérateurs ne prennent pas la mesure de ces nuisances qui, à la longue, ont fait fuir toutes les personnes qui avaient des choses intéressantes à apporter ici.

Psttt, ignorer ce membre...
happy.gif

Exactement, c'est ce que je fais pour ma part. Les seules fois où je vois (malheureusement) ses âneries, c'est quand elles sont citées par un autre.


Idem, mais la remarque de Jaguar est très pertinente. Car le choix des contributeurs qui bénéficient d'une visibilité garantie vs ceux qui se font censurer/bannir a un impact fort sur l'évolution du forum. "Quand tous les dégoûtés sont partis, il ne reste que les dégoûtants"

alors mes petits fanboys que cela vous plaise ou non , je ne vous insulterai jamais.

vous avez tenté l'intimidation, notamment notre ami @malloc mais cela à fait pschitt . c'est du vide, va fait 5 ans qu'il est en 1ere année de droit

@jaguar est là depuis des années toujours pour vendre sa salade et IA ou AI pour la pomme est important, comme le vison pro l'était . ca se reconnait à une chose, vous venez en meute.

j'en reste aux faits : la pomme à une puce et des macs puissants MAIS ELLE EST TOTALEMENT À LA RAMASSE SUR 'IA.

et comme ca vous déplait, vous commentez les commentaires en mode ouin ouin c'était mieux avant

@jaguar nous dit que la pomme va être formidable bien plus que chat GPT . c'est ballot les fanboys par ce que meme la pomme nous dit ici : que le chat GPT un peu intéressant sera payant 'Apple insiste: si l'utilisation de la dernière version de l'IA générative d'OpenAI sera gratuite, vous pourrez néanmoins débloquer des fonctionnalités payantes directement depuis le système d'exploitation'

vous voulez la source ? vous vous n'en citez aucune, jamais mais vous demandez toujours d'étayer. Ca se trouve sur BFM qui recopie les communiqués de presse de Cupertino.

Go to the top of the page
 
+Quote Post
Benzebut
posté 10 Nov 2024, 16:26
Message #29


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 5 029
Inscrit : 5 Mar 2003
Lieu : Ville de Notre-Dame
Membre no 6 523



Citation (Paul Emploi @ 9 Nov 2024, 15:39) *
Oui, Apple Intelligence est en retard, mais pas le matériel Apple, au contraire!

En fait je m'attend à l'émergence d'App mobiles intégrant des micro-IA spécialisées et très capables dans un domaine restreint et défini, ainsi que des applications "desktop" que ça soit pour Mac ou pour PC.
Mais là où sur Mac il y a déjà des capacités depuis 4 ans, beaucoup de PC n'en ont pas même encore aujourd'hui, donc leurs usagers devront s'abonner à un ou des services cloud pour y avoir accès!

Sur le premier point, il est difficile de dire si retard il y a concernant le développement de ce domaine par Apple ou si son exploitation n'est pas encore visible correctement. Il y a tout ce qu'il faut par la brique Apple Intelligence et le support des processeurs Apple Silicon. Mais l'ensemble se cherche encore pour une intégration cohérente et utile dans ses fonctions, avec trop d'effets d'annonces sur les "révolutions" à venir, comme les concurrents d'ailleurs. A voir en fonction des prochaines mises à jour.

Sur ce second point, je suis aussi beaucoup plus convaincu par des systèmes experts dédiés en local que des modèles de langage étendus qui veulent répondre à tout à distance. Au delà même de la performance ou de la pertinence des modèles retenus, c'est simplement la dépendance à l'infrastructure qui pose problème pour un usage simple et rapide. Ainsi ChatGPT est en rade semble-t-il ce dimanche, les utilisateurs bien embêtés pour utiliser ces fonctions en ligne, alors que si cela avait été intégré en interne pour certains traitements simples...


--------------------
Sur iMac Pro (fin-2017) en Xeon 8 coeurs à 3.2 GHz / 32 Go Ram / Radeon Pro Vega 56 8 Go / 1 To SSD
Sous macOS 10.14.6 (Mojave) à jour et en réseau Wifi 6 avec une boite Fibre (fin de l'ADSL à la capitale)

Ayant été anobli depuis le 1er septembre de l'an de grâce 2024 avec le titre de Harceleur 1er par la Belle Province sur ces merveilleux forums...

Nostalgique de l'Apple IIgs ? Un petit émulateur : www.casags.net
Go to the top of the page
 
+Quote Post
MacGregor74
posté 10 Nov 2024, 16:48
Message #30


Macbidouilleur de vermeil !
****

Groupe : Membres
Messages : 914
Inscrit : 1 Oct 2020
Lieu : les Alpes
Membre no 212 497



Citation (JayTouCon @ 10 Nov 2024, 15:23) *


Hello pour ma gouverne perso, c'est quoi le " en mode ouin ouin" ?
pour moi frontalier, c'est un terme Suisse (Genevois) 😃


--------------------
iMac 27 (Retina 5K, 27-inch, 2017) Ventura > SSD 1To > Mémoire 32 Go - 4,2 GHz Intel Core i7 quatre cœurs - Radeon Pro 580 8 Go
 Mac mini (mi-2010) sous Mojave  MacBook blanc sous High Sierra  iMac Tournesol 17"  iLamp Tournesol  iMac intel blanc 10.7.5 (Lion) 17" fin 2006 PowerBook G3
Go to the top of the page
 
+Quote Post

2 Pages V   1 2 >
Reply to this topicStart new topic
1 utilisateur(s) sur ce sujet (1 invité(s) et 0 utilisateur(s) anonyme(s))
0 membre(s) :

 



Nous sommes le : 6th December 2024 - 11:09