Bienvenue invité ( Connexion | Inscription )
![]() ![]() |
22 Feb 2026, 14:11
Message
#1
|
|
![]() Macbidouilleur d'Or ! ![]() ![]() ![]() ![]() ![]() Groupe : Rédacteurs Messages : 2 639 Inscrit : 19 Nov 2020 Lieu : Montréal Membre no 212 895 |
Tiiny AI proposerait son Tiiny AI Pocket Lab, une sorte de boîtier externe miracle pour les IA de type LLM génératif !
Un projet kickstarter pourrait démarrer en mars 2026, d'après Tiiny AI. Pour résumer, proposer l'équivalent d'un Mac Studio M4 Max 128 Go/1 To, vendu $3699 USD, pour seulement $1399 USD dans le cadre d'exécutions d'IA de type LLM génératif, et qui se connecte à votre Mac (ou PC) pour augmenter ses capacités. Rien que ça ! Ce qui est prétendu Le Tiiny AI Pocket Lab aurait les performances d'une nVidia RTX 4090 (ou une RTX 5080) faisant tourner les mêmes logiciels, dont PowerInfer (logiciel libre sur GitHub). Le boîtier alimenté séparément se connecterait au Mac (ou PC) en USB Type C, et aurait besoin d'une alimentation séparée de 65W, avec un TDP annoncé de 30W. 80 Go de RAM LPDDR5X 6400MT/s, un SoC ARM avec une NPU intégrée de 30 Tops et une NPU discrète séparée offrant 160 Tops de puissance de calcul. Permettant de faire tourner en int4 des LLM jusqu'à 120 milliards de paramètres/weights, soit plus de 64 Go de RAM utilisée (important si pas essentiel !). 1 To de stockage "SSD" sur mémoire Flash NVME, pour stocker les LLMs mais aussi des données censées les alimenter si vous voulez rendre l'expérience plus personnelle. Et tout ça tenez-vous bien pour seulement* $1399 USD. *des conditions s'appliquent Côté matériel Avec 10 modules 8 Go de LPDDR5X, 80 Go au total et plus de 500 Go/s de bande-passante, en théorie ça passe. Et on peut escompter effectivement des performances de RTX 4090 (ou RTX 5080). La RTX 4090 n'offrant que 500 Go/s de bande passante par layer en usage séquentiel, le double si elle traite plusieurs requêtes simultanément, bien étagées, et les layers bien partagés entre ses deux moitiés ! Il y a déjà un problème : aucun SoC ARM ne supporte 10 interfaces mémoires avec 500 Go/s de bande passante totale, excepté chez nVidia ou Apple : M4 Max et tous les Mx Ultra depuis le M1 Ultra. De l'autre côté, même si c'était le cas, aucun ne propose une bande passante d'IO de 500 Go/s pour alimenter une NPU séparée. Et comme on l'a vu avant, la mémoire est unifiée, puisque dépassant 64 Go en stockage de LLM active. Il y a déjà quelque chose qui me dérange là. Côté logiciel Le logiciel le plus mis en avant est PowerInfer, qui permettrait de faire mieux, mais tout autant sur une RTX 4090 ou RTX 5080, ou d'autres plateformes. Il ne supporte pas la plateforme ARM. Ce logiciel est abandonné depuis 2-3 ans, sauf par la communauté, avec une prise de contrôle visible par Tiiny AI le 1er janvier 2026. Ça n'est pas leur projet. C'est associé dans les "démos" a un logiciel sur Mac dont on ne connait rien à ce point. Ces "démos" sont faites sur des Mac dont on ne connait rien, et qui pourraient faire tourner cela en local avec un M4 Max 128 Go avec les mêmes performances ... Côté prix 10 x 8Go LPDDR5X 6400 MT/s, SSD NVME 1 To, SoC ARMv9, NPU discrète. Au prix du marché, on est largement au-dessus de $1399 USD, le prix proposé et même garanti* par Tiiny AI sur Kickstarter. *Des conditions s'appliquent Les conditions ? Payer $9.90 USD immédiatement, avant même le démarrage de leur projet Kickstarter, donc sans garantie et évidemment sans garantie de remboursement depuis leur site créé avec Shopify. Puis repayer sur Kickstarter, si jamais c'est créé en mars 2026, et là pouvoir bénéficier d'une ristourne une fois le kickstarter terminé. Un kickstarter à deux étages donc. Payer maintenant, pour une promesse de remboursement partiel plus tard ?!? Quel mac peut s'aligner ? Tous les Mac équipés de M4 Max ou Mx Ultra depuis le M1 Ultra, avec au moins 96 Go de RAM. Ça laisse pas mal de possibilités, dont les Mac probablement utilisés pour les "démos" de Tiiny AI ... Il y a aussi bien sûr le nVidia DGX Spark avec 128 Go de RAM, prix de base $3999 USD. Mais nVidia maîtrise toute la chaîne du hardware au logiciel, et même leurs propres IA maintenant. Ça c'est sérieux et solide ! Ce qui ne va pas du tout Ce matériel ne correspond à rien, ni 10 interfaces mémoires avec 500 Go/s de bande passante totale sur un SoC ARM hors Apple ou nVidia, ni communiquer à 500 Go/s avec une NPU discrète, ni celle-ci d'ailleurs. Aucune photo de la carte électronique... 30W semblent vraiment trop peu aussi, presque magiques ! Le logiciel est abandonné depuis 2-3 ans, et s'il est si magique, il donnerait les mêmes résultats sur les autres plateformes comme il semblait le donner sur nVidia RTX 4090 ! Il ne supporte pas les ARM apparemment ... Le prix ne va pas, le hardware devrait être vendu au moins $1999 USD et il y aurait peu de marges sauf à être sur du gros volume. Le prépaiement de $9.90 USD me semble être une escroquerie. Tiiny AI promettait de vendre leur Pocket Lab pour $455 USD il y a 2 mois. XD J'ai trouvé une seule "démo" qui pourrait tourner sur le Mac sur laquelle elle est réalisée ou au travers des Interweb de cloud... Le démonstrateur ne sait pas de quoi il parle d'ailleurs. Personne ne semble avoir pu tester ce matériel et ses logiciels, ils ont juste repris le discours PR de Tiiny AI, sans aucun recul ni critique. Enthousiastes ! J'ai mon opinion et vous ? Lien vers le billet original -------------------- La liberté d'expression c'est l'extrémisme. La censure c'est la liberté.
|
|
|
|
22 Feb 2026, 21:06
Message
#2
|
|
![]() Macbidouilleur d'Or ! ![]() ![]() ![]() ![]() ![]() Groupe : Membres Messages : 10 664 Inscrit : 9 Nov 2001 Lieu : Pays d’Aix-en-Provence Membre no 1 255 |
-------------------- Mac Studio M4 max 36 Go 1 To (11/2025) - Tahoe - Eizo 27" + Nec 21" - usage PAO
MacBook Pro 14“ M2 pro 16 Go 1 To (05/2023) - Tahoe - iPhone 17 256 - iWatch10 - Airpods pro 2 |
|
|
|
22 Feb 2026, 21:17
Message
#3
|
|
|
Macbidouilleur d'Or ! ![]() ![]() ![]() ![]() ![]() Groupe : Membres Messages : 1 542 Inscrit : 12 Jun 2005 Membre no 40 785 |
Je ne sais pas j'ai découvert la campagne de financement de cet objet il y un mois dans une vidéo sur le CES et ça m,'interesse.donc merci à Philippe pour cet article. Il me semblait que le prototype était déjà fonctionnel. Ce message a été modifié par joe75 - 22 Feb 2026, 21:20. |
|
|
|
22 Feb 2026, 22:04
Message
#4
|
|
![]() Macbidouilleur d'Or ! ![]() ![]() ![]() ![]() ![]() Groupe : Rédacteurs Messages : 2 639 Inscrit : 19 Nov 2020 Lieu : Montréal Membre no 212 895 |
J'en ai déjà parlé sur les forums car d'autres en ont parlé. Ils avaient déjà fait des déclarations délirantes.
J'ai découvert cette escroquerie il y a quelque temps, ils semblent avoir marqué les esprits les plus fragiles, et ils n'hésitent pas à payer de la publicité maintenant pour que les gens leur payent ce $9.90 USD. Tout cela me parait du vent, et j'ai aidé il y a longtemps a dégommer une arnaque du même genre, débunké sur egpu.io ... -------------------- La liberté d'expression c'est l'extrémisme. La censure c'est la liberté.
|
|
|
|
22 Feb 2026, 23:07
Message
#5
|
|
|
Macbidouilleur d'Or ! ![]() ![]() ![]() ![]() ![]() Groupe : Membres Messages : 1 542 Inscrit : 12 Jun 2005 Membre no 40 785 |
J'en ai déjà parlé sur les forums car d'autres en ont parlé. Ils avaient déjà fait des déclarations délirantes. J'ai découvert cette escroquerie il y a quelque temps, ils semblent avoir marqué les esprits les plus fragiles, et ils n'hésitent pas à payer de la publicité maintenant pour que les gens leur payent ce $9.90 USD. Tout cela me parait du vent, et j'ai aidé il y a longtemps a dégommer une arnaque du même genre, débunké sur egpu.io ... Je ne suis pas trop fan de KickStarter surtout pour des projets high tech qui aboutissent rarement ou qui réduisent leur ambition à la baisse...je vais attendre le produit fini...eventuellement demander à chatgpt ou gemini ce qu'ils pensent de Tiiny AI..mais bon reddit sera probablement une meilleure source d'information |
|
|
|
23 Feb 2026, 10:07
Message
#6
|
|
|
Macbidouilleur d'argent ! ![]() ![]() ![]() Groupe : Membres Messages : 618 Inscrit : 23 Feb 2011 Membre no 164 888 |
Bonjour, ça a été mon premier réflexe... pourquoi cette article qui fait autant de pub que dénoncer l'arnaque. Et puis en fait, pas la peine de tirer sur l'ambulance, non ? Ce forum et Macbidouille (et plus particulièrement l'auteur) traite de plus en plus de solutions matérielles pour l'IA (Mac Mini M4 mis en valeur à ce propos - et vendu comme parfois imparfait à ma compréhension). Donc ça parait pas mal de debunker un truc qui pourrait faire le même taf mais qui ressemble surtout à un moyen de gagner quelques financements foireux. Je trouve meme que c'est assez responsable de faire de la prévention contre une solution qui pourrait séduire ceux qui n'ont pas été convaincu par une solution autre. Et pour qqun qui voudrait se lancer à moindre coût, les 1400 $ anoncés pourrait être "le risque" à prendre. De fil en aiguille, ça valait le coût de passer 2 min à poster un message sur le forum pour dire que l'article est inutile ? Pourtant je suis souvent critique sur l'auteur, mais je dois reconnaitre que là, l'information et le message ne sont pas inutile, pas polémique et plutôt bien argumenter. J'ai même failli répondre que l'opinion est toute faite avec de telles arguments. (Kickstarter ...toujours méfiant) |
|
|
|
23 Feb 2026, 10:35
Message
#7
|
|
|
Macbidouilleur de vermeil ! ![]() ![]() ![]() ![]() Groupe : Membres Messages : 1 486 Inscrit : 3 Feb 2004 Membre no 14 248 |
Bonjour, ça a été mon premier réflexe... pourquoi cette article qui fait autant de pub que dénoncer l'arnaque. Et puis en fait, pas la peine de tirer sur l'ambulance, non ? Ce forum et Macbidouille (et plus particulièrement l'auteur) traite de plus en plus de solutions matérielles pour l'IA (Mac Mini M4 mis en valeur à ce propos - et vendu comme parfois imparfait à ma compréhension). Donc ça parait pas mal de debunker un truc qui pourrait faire le même taf mais qui ressemble surtout à un moyen de gagner quelques financements foireux. Je trouve meme que c'est assez responsable de faire de la prévention contre une solution qui pourrait séduire ceux qui n'ont pas été convaincu par une solution autre. Et pour qqun qui voudrait se lancer à moindre coût, les 1400 $ anoncés pourrait être "le risque" à prendre. De fil en aiguille, ça valait le coût de passer 2 min à poster un message sur le forum pour dire que l'article est inutile ? Pourtant je suis souvent critique sur l'auteur, mais je dois reconnaitre que là, l'information et le message ne sont pas inutile, pas polémique et plutôt bien argumenter. J'ai même failli répondre que l'opinion est toute faite avec de telles arguments. (Kickstarter ...toujours méfiant) Salut, Idem... L'azrticle ne fait pas l'apologie du produit : il en reprend les arguments pour démontrer leur invalidité... A+ |
|
|
|
23 Feb 2026, 13:04
Message
#8
|
|
![]() Macbidouilleur d'Or ! ![]() ![]() ![]() ![]() ![]() Groupe : Rédacteurs Messages : 2 639 Inscrit : 19 Nov 2020 Lieu : Montréal Membre no 212 895 |
C'est effectivement le point : un produit "magique", des promesses irréelles qu'il faut reproduire et critiquer, rien qui va.
Et je n'ai même pas parlé de leur prétention d'avoir été financé à hauteur de multi millions de dollars, ce qui aurait du écarter Kickstarter immédiatement. D'après eux ils ont le cash ! Ou pas ?!? Bien sûr il y a cette page, terms of service, regardez en bas, c'est risible ! Une indication claire que c'est fait à la va-vite. Rien de sérieux ni de solide. Et surtout aucune adresse, aucune identification claire de la société "Tiiny AI" ou "Tiiny". Anonyme !!! Il n'y a absolument rien qui va pour moi, mais je vois des sujets YouTube et des articles laudatifs. Je les vois aussi maintenant sur Facebook payant pour de la publicité pour leur "produit" que personne n'a pu réellement examiner ou tester. Ici aussi, des forumeurs en ont parlé avec des étoiles dans les yeux, et je les comprend : tant de choses pour si peu cher, c'est juste magique !!! Il faut mettre fin à cela. À notre petite échelle. Et il y a un risque, c'est que le produit soit réel, je ne l'écarte pas, et dans ce cas je mettrais autant d'espace et de temps pour reconnaître mon erreur et mettre en avant ce produit. Même l'acheter et le tester, puis l'utiliser sur la durée, branché sur mes Mac. Mais c'est très improbable. Et je l'ai déjà vécu cela avec Ex Core™ sur eGPU.io où j'ai été jusqu'à visiter l'adresse de leurs "locaux" à Montréal et prendre des photos pour établir l'arnaque, domiciliés chez leur avocat. Aucun local. Kickstarter a bloqué et remboursé. Son avocat qui y avait investi s'est désengagé après l'email que je lui ai envoyé. Une autre communauté, avec là aussi des personnes de grande qualité, incluant nous utilisateurs de Mac Intel avec eGPU. Et j'ai été très fier de pouvoir utiliser ma présence à Montréal pour investiguer et je dirais amener la dernière pièce à l'édifice. Pour protéger ceux qui avaient payés sur Kickstarter. -------------------- La liberté d'expression c'est l'extrémisme. La censure c'est la liberté.
|
|
|
|
24 Feb 2026, 07:53
Message
#9
|
|
|
Macbidouilleur d'Or ! ![]() ![]() ![]() ![]() ![]() Groupe : Membres Messages : 3 045 Inscrit : 4 Apr 2003 Membre no 6 986 |
J'en ai déjà parlé sur les forums car d'autres en ont parlé. Ils avaient déjà fait des déclarations délirantes. J'ai découvert cette escroquerie il y a quelque temps, ils semblent avoir marqué les esprits les plus fragiles, et ils n'hésitent pas à payer de la publicité maintenant pour que les gens leur payent ce $9.90 USD. Tout cela me parait du vent, et j'ai aidé il y a longtemps a dégommer une arnaque du même genre, débunké sur egpu.io ... Je ne suis pas trop fan de KickStarter surtout pour des projets high tech qui aboutissent rarement ou qui réduisent leur ambition à la baisse...je vais attendre le produit fini...eventuellement demander à chatgpt ou gemini ce qu'ils pensent de Tiiny AI..mais bon reddit sera probablement une meilleure source d'information Le seul truc AI qui semble fonctionner ici c'est la capacité de chatGPT (ou Claude) à créer les infos pour ouvrir un Kickstarter. -------------------- MacBook Pro 14", 2021, M1 Pro, 16 GB
Mac mini, 2018, 3 GHz 6 core i5, 8 GB et quelques vieilleries, y compris un Apple II sur lequel j'ai découvert l'assembleur, Basic et Pascal au tout début des années 80. |
|
|
|
24 Feb 2026, 10:40
Message
#10
|
|
![]() Macbidouilleur de vermeil ! ![]() ![]() ![]() ![]() Groupe : Membres Messages : 864 Inscrit : 31 Jul 2002 Lieu : Strasbourg (67) Membre no 3 058 |
Merci pour cet article, alertant sur une très probable arnaque.
Leur discours est bien rôdé et peut tromper toutes les personnes ayant peu de connaissances "hardware". S'ils trouvent suffisamment de pigeons, ils vont peut-être amortir les frais de leur stand au Pepcom... -------------------- MacBook Air 15" M2 2023 (adopté par madame) - MacBook Pro 16" M3 Pro 2023 - Mac mini M4 Pro 2024
tous membres actifs du World Community Grid et d'autres projets BOINC (lorsqu'il ne fait rien, un cpu s'ennuie !) iPod classic (qui passe sa vie dans la boîte à gants de la voiture) - iPad mini (le seul format qui rentre dans tous les sacs à main de madame) - iPhone(s) (plus quelques machines "Obsolètes" dont je ne veux pas me séparer et qui fonctionnent encore : Mac mini G4, MacBook Pro 2006, Mac mini 2009, Mac Pro V12 2010 + Quadro 4000, MacBook Pro 13" 2012, Mac Mini 2012, MacBook Pro Retina 15" 2014) |
|
|
|
24 Feb 2026, 19:58
Message
#11
|
|
![]() Macbidouilleur d'Or ! ![]() ![]() ![]() ![]() ![]() Groupe : Rédacteurs Messages : 2 639 Inscrit : 19 Nov 2020 Lieu : Montréal Membre no 212 895 |
Encore un point bizarre : Qwen3-30b sortirait 28 token/s grâce à ce boitier "magique".
Mon Mac mini M4 de base, avec sa RAM de 32 Go, sort autour de 45 token/s avec le même modèle... J'utilise régulièrement Qwen3-30b, il me sert pour une sorte d'étude. Il n'y a vraiment rien qui colle ! -------------------- La liberté d'expression c'est l'extrémisme. La censure c'est la liberté.
|
|
|
|
25 Feb 2026, 15:47
Message
#12
|
|
|
Macbidouilleur d'Or ! ![]() ![]() ![]() ![]() ![]() Groupe : Membres Messages : 1 542 Inscrit : 12 Jun 2005 Membre no 40 785 |
Encore un point bizarre : Qwen3-30b sortirait 28 token/s grâce à ce boitier "magique". Mon Mac mini M4 de base, avec sa RAM de 32 Go, sort autour de 45 token/s avec le même modèle... J'utilise régulièrement Qwen3-30b, il me sert pour une sorte d'étude. Il n'y a vraiment rien qui colle ! Je ne connais pas le sujet des tokens. Mais le tiiny Ai c est 18-40 token/s... Je pensais que 20 token/s c'était atteignable avec une grosse carte nvidia seulement. Si le mac mini est à 45 token/s!!! Je suis très surpris mais alors perso je partirais sur un mac mini. Sauf si on a besoin de connecter un petit boîtier sur son Pc comme accessoire. Je ne vois plus trop l intérêt de ce boîtier qui coûte plus cher mais bon peut être qu avec 80 Go de Ram il permettra de faire tourner des modèles plus évolués qui ne tourneraient pas sur le mac miniin32Go Ram...et enfin comme la plupart des laptop PC est limité à16Go...et sont non extensibles ça pourrait être un accessoire intéressant pour avoir une Ia en local peut être aussi ***Bon j ai demandé à mon meilleur ami.... Tiiny ai vs mac mini m4 ́lequel delivre le plus de token par seconde En termes de tokens par seconde pour du local LLM, le **Mac mini M4** peut aller bien au‑delà d’un Tiiny AI, mais ça dépend beaucoup de la taille du modèle que tu vises. ## Ordres de grandeur tokens/s - Tiiny AI Pocket Lab annonce une vitesse moyenne de **18–40 tokens/s** en génération, selon le modèle et la charge, y compris avec des modèles jusqu’à 120B paramètres.[1][2] - Sur Mac mini M4, des benchs LocalAI donnent par exemple ~**77 tokens/s** sur un petit modèle 1B et ~**17–18 tokens/s** sur un modèle 8B (génération continue), le tout en CPU/GPU Apple Silicon.[3] Donc : - Sur **petits modèles (1B, 3B, 7–8B)**, un Mac mini M4 bien réglé peut sortir **nettement plus de tokens/s** qu’un Tiiny AI (50–80+ tok/s typiquement sur du 1B contre 18–40 tok/s annoncés côté Tiiny).[1][3] - Sur **gros modèles (30B, 70B, 120B)**, c’est l’inverse : Tiiny AI est pensé pour ça, avec des démos autour de **18–20 tok/s** sur un modèle 120B, ce qu’un Mac mini M4 ne sait simplement pas faire à cette échelle en local aujourd’hui.[4][5][6] ## Comment choisir entre les deux - Si ton objectif est surtout des **modèles légers/moyens (4–8B) ultra réactifs** pour du coding, chat rapide, etc., le **Mac mini M4** sera en pratique plus rapide en tokens/s et plus polyvalent (machine complète macOS).[3][7] - Si ton délire est de jouer avec des **gros modèles 30B–120B locaux** avec des réponses encore confortables (≈20 tok/s), alors le **Tiiny AI** est plus adapté, même si son plafond en tokens/s absolus est plus bas que ce que peut atteindre un M4 sur de très petits modèles.[4][1][5] En résumé strict “tokens/s max”, le **Mac mini M4 gagne** sur les petits modèles, mais pour des modèles géants, **Tiiny AI** garde l’avantage parce que le Mac mini M4 ne peut tout simplement pas les charger proprement. Citations: [1] Tiiny Pocket Lab Technical Details https://tiinyai.com/technical-details/ [2] Tiiny AI Pocket Lab https://tiiny.ai/products/tiiny-ai-pocket-lab [3] Mac Studio vs Mac Mini M4: Local AI Performance Benchmarks https://malcolmlow.net/2025/11/13/mac-studi...nce-benchmarks/ [4] Tiiny AI Unveils Pocket-Size AI PC to Run Large Models Offline https://www.varindia.com/news/tiiny-ai-unve...-models-offline [5] Performance of Tiiny Class Local Models - Tiiny.AI https://tiinyai.com/performance/ [6] Tiiny Al just released a one-shot demo of their Pocket Lab ... - Reddit https://www.reddit.com/r/LocalLLM/comments/..._demo_of_their/ [7] Mac mini M4 benchmarks, review and comparison https://www.hoxtonmacs.co.uk/blogs/news/mac...-and-comparison [8] Tiiny AI https://tiiny.ai [9] Tiiny AI Pocket Lab: 120B Parameters in Your Pocket - LinkedIn https://www.linkedin.com/posts/norman-pauls...2244111360-8S67 [10] Pocket-sized supercomputer turns 14-year-old PC into offline AI ... https://interestingengineering.com/ai-robot...ear-old-pc-demo [11] Mac mini (2024) Benchmarks - Geekbench Browserbrowser.geekbench.com › macs › mac-mini-2024-14c-cpu https://browser.geekbench.com/macs/mac-mini-2024-14c-cpu [12] TiinyAI - pocket sized AI computers. Is it reliable? : r/LocalLLM - Reddit https://www.reddit.com/r/LocalLLM/comments/...is_it_reliable/ [13] Mac mini with M4 Review Part 1: Benchmarks, Xcode ... https://macstadium.com/blog/m4-mac-mini-review [14] Mac Mini M4 vs GPU Workstation for Local AI - LinkedIn https://www.linkedin.com/posts/brandon-slic...1411837953-9XJj [15] The amazing M4 Pro Mac mini Stress Test - David Lewis https://talkingtechandaudio.com/blog/m4-pro...ni-stress-test/ Ce message a été modifié par joe75 - 25 Feb 2026, 16:24. |
|
|
|
25 Feb 2026, 18:41
Message
#13
|
|
![]() Macbidouilleur d'Or ! ![]() ![]() ![]() ![]() ![]() Groupe : Rédacteurs Messages : 2 639 Inscrit : 19 Nov 2020 Lieu : Montréal Membre no 212 895 |
Ne croit pas ton "meilleur ami", il pédale dans la semoule.
On ne peut comparer qu'à modèle identique, ce que j'ai fait, et surtout pas avec des généralités via des tailles... -------------------- La liberté d'expression c'est l'extrémisme. La censure c'est la liberté.
|
|
|
|
26 Feb 2026, 13:41
Message
#14
|
|
|
Macbidouilleur d'Or ! ![]() ![]() ![]() ![]() ![]() Groupe : Membres Messages : 1 542 Inscrit : 12 Jun 2005 Membre no 40 785 |
Ne croit pas ton "meilleur ami", il pédale dans la semoule. On ne peut comparer qu'à modèle identique, ce que j'ai fait, et surtout pas avec des généralités via des tailles... Oui malheureusement mon ami se plante souvent quand je connais un peu le sujet.. Là ce n'est pas le cas ...je ne connais rien encore aux tokens etc... Mais je vais devoir m'y intéresser. L'IA est un outil qui risque de devenir indispensable en entreprise et réduire notre cerveau à la taille d'une cacahouète :-( |
|
|
|
![]() ![]() |
| Nous sommes le : 17th March 2026 - 23:17 |