IPB

Bienvenue invité ( Connexion | Inscription )

> Les périphériques de nos Mac : Tiiny Ai, boîtier miracle ou arnaque ?, Réactions à la publication du 22/02/2026
Options
Paul Emploi
posté 22 Feb 2026, 14:11
Message #1


Macbidouilleur d'Or !
*****

Groupe : Rédacteurs
Messages : 2 639
Inscrit : 19 Nov 2020
Lieu : Montréal
Membre no 212 895



Tiiny AI proposerait son Tiiny AI Pocket Lab, une sorte de boîtier externe miracle pour les IA de type LLM génératif !
Un projet kickstarter pourrait démarrer en mars 2026, d'après Tiiny AI.


Pour résumer, proposer l'équivalent d'un Mac Studio M4 Max 128 Go/1 To, vendu $3699 USD, pour seulement $1399 USD dans le cadre d'exécutions d'IA de type LLM génératif, et qui se connecte à votre Mac (ou PC) pour augmenter ses capacités.
Rien que ça !


Ce qui est prétendu


Le Tiiny AI Pocket Lab aurait les performances d'une nVidia RTX 4090 (ou une RTX 5080) faisant tourner les mêmes logiciels, dont PowerInfer (logiciel libre sur GitHub).


Le boîtier alimenté séparément se connecterait au Mac (ou PC) en USB Type C, et aurait besoin d'une alimentation séparée de 65W, avec un TDP annoncé de 30W.


80 Go de RAM LPDDR5X 6400MT/s, un SoC ARM avec une NPU intégrée de 30 Tops et une NPU discrète séparée offrant 160 Tops de puissance de calcul.
Permettant de faire tourner en int4 des LLM jusqu'à 120 milliards de paramètres/weights, soit plus de 64 Go de RAM utilisée (important si pas essentiel !).


1 To de stockage "SSD" sur mémoire Flash NVME, pour stocker les LLMs mais aussi des données censées les alimenter si vous voulez rendre l'expérience plus personnelle.


Et tout ça tenez-vous bien pour seulement* $1399 USD. *des conditions s'appliquent wink.gif


Côté matériel


Avec 10 modules 8 Go de LPDDR5X, 80 Go au total et plus de 500 Go/s de bande-passante, en théorie ça passe. Et on peut escompter effectivement des performances de RTX 4090 (ou RTX 5080).


La RTX 4090 n'offrant que 500 Go/s de bande passante par layer en usage séquentiel, le double si elle traite plusieurs requêtes simultanément, bien étagées, et les layers bien partagés entre ses deux moitiés !


Il y a déjà un problème : aucun SoC ARM ne supporte 10 interfaces mémoires avec 500 Go/s de bande passante totale, excepté chez nVidia ou Apple : M4 Max et tous les Mx Ultra depuis le M1 Ultra.
De l'autre côté, même si c'était le cas, aucun ne propose une bande passante d'IO de 500 Go/s pour alimenter une NPU séparée.


Et comme on l'a vu avant, la mémoire est unifiée, puisque dépassant 64 Go en stockage de LLM active. Il y a déjà quelque chose qui me dérange là.


Côté logiciel


Le logiciel le plus mis en avant est PowerInfer, qui permettrait de faire mieux, mais tout autant sur une RTX 4090 ou RTX 5080, ou d'autres plateformes. Il ne supporte pas la plateforme ARM.


Ce logiciel est abandonné depuis 2-3 ans, sauf par la communauté, avec une prise de contrôle visible par Tiiny AI le 1er janvier 2026. Ça n'est pas leur projet.


C'est associé dans les "démos" a un logiciel sur Mac dont on ne connait rien à ce point.
Ces "démos" sont faites sur des Mac dont on ne connait rien, et qui pourraient faire tourner cela en local avec un M4 Max 128 Go avec les mêmes performances ...


Côté prix


10 x 8Go LPDDR5X 6400 MT/s, SSD NVME 1 To, SoC ARMv9, NPU discrète.
Au prix du marché, on est largement au-dessus de $1399 USD, le prix proposé et même garanti* par Tiiny AI sur Kickstarter. *Des conditions s'appliquent


Les conditions ? Payer $9.90 USD immédiatement, avant même le démarrage de leur projet Kickstarter, donc sans garantie et évidemment sans garantie de remboursement depuis leur site créé avec Shopify.
Puis repayer sur Kickstarter, si jamais c'est créé en mars 2026, et là pouvoir bénéficier d'une ristourne une fois le kickstarter terminé. Un kickstarter à deux étages donc.


Payer maintenant, pour une promesse de remboursement partiel plus tard ?!?


Quel mac peut s'aligner ?


Tous les Mac équipés de M4 Max ou Mx Ultra depuis le M1 Ultra, avec au moins 96 Go de RAM.


Ça laisse pas mal de possibilités, dont les Mac probablement utilisés pour les "démos" de Tiiny AI ...


Il y a aussi bien sûr le nVidia DGX Spark avec 128 Go de RAM, prix de base $3999 USD.
Mais nVidia maîtrise toute la chaîne du hardware au logiciel, et même leurs propres IA maintenant. Ça c'est sérieux et solide !


Ce qui ne va pas du tout


Ce matériel ne correspond à rien, ni 10 interfaces mémoires avec 500 Go/s de bande passante totale sur un SoC ARM hors Apple ou nVidia, ni communiquer à 500 Go/s avec une NPU discrète, ni celle-ci d'ailleurs. Aucune photo de la carte électronique...
30W semblent vraiment trop peu aussi, presque magiques !


Le logiciel est abandonné depuis 2-3 ans, et s'il est si magique, il donnerait les mêmes résultats sur les autres plateformes comme il semblait le donner sur nVidia RTX 4090 !
Il ne supporte pas les ARM apparemment ...


Le prix ne va pas, le hardware devrait être vendu au moins $1999 USD et il y aurait peu de marges sauf à être sur du gros volume.
Le prépaiement de $9.90 USD me semble être une escroquerie.
Tiiny AI promettait de vendre leur Pocket Lab pour $455 USD il y a 2 mois. XD


J'ai trouvé une seule "démo" qui pourrait tourner sur le Mac sur laquelle elle est réalisée ou au travers des Interweb de cloud... Le démonstrateur ne sait pas de quoi il parle d'ailleurs.


Personne ne semble avoir pu tester ce matériel et ses logiciels, ils ont juste repris le discours PR de Tiiny AI, sans aucun recul ni critique. Enthousiastes !


J'ai mon opinion et vous ?


Lien vers le billet original



--------------------
La liberté d'expression c'est l'extrémisme. La censure c'est la liberté.
Go to the top of the page
 
+Quote Post
 
Start new topic
Réponse(s)
Paul Emploi
posté 24 Feb 2026, 19:58
Message #2


Macbidouilleur d'Or !
*****

Groupe : Rédacteurs
Messages : 2 639
Inscrit : 19 Nov 2020
Lieu : Montréal
Membre no 212 895



Encore un point bizarre : Qwen3-30b sortirait 28 token/s grâce à ce boitier "magique".

Mon Mac mini M4 de base, avec sa RAM de 32 Go, sort autour de 45 token/s avec le même modèle...
J'utilise régulièrement Qwen3-30b, il me sert pour une sorte d'étude.

Il n'y a vraiment rien qui colle !


--------------------
La liberté d'expression c'est l'extrémisme. La censure c'est la liberté.
Go to the top of the page
 
+Quote Post
joe75
posté 25 Feb 2026, 15:47
Message #3


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 1 542
Inscrit : 12 Jun 2005
Membre no 40 785



Citation (Paul Emploi @ 24 Feb 2026, 19:58) *
Encore un point bizarre : Qwen3-30b sortirait 28 token/s grâce à ce boitier "magique".

Mon Mac mini M4 de base, avec sa RAM de 32 Go, sort autour de 45 token/s avec le même modèle...
J'utilise régulièrement Qwen3-30b, il me sert pour une sorte d'étude.

Il n'y a vraiment rien qui colle !


Je ne connais pas le sujet des tokens. Mais le tiiny Ai c est 18-40 token/s...
Je pensais que 20 token/s c'était atteignable avec une grosse carte nvidia seulement.
Si le mac mini est à 45 token/s!!! Je suis très surpris mais alors perso je partirais sur un mac mini. Sauf si on a besoin de connecter un petit boîtier sur son Pc comme accessoire.

Je ne vois plus trop l intérêt de ce boîtier qui coûte plus cher mais bon peut être qu avec 80 Go de Ram il permettra de faire tourner des modèles plus évolués qui ne tourneraient pas sur le mac miniin32Go Ram...et enfin comme la plupart des laptop PC est limité à16Go...et sont non extensibles ça pourrait être un accessoire intéressant pour avoir une Ia en local peut être aussi



***Bon j ai demandé à mon meilleur ami....



Tiiny ai vs mac mini m4 ́lequel delivre le plus de token par seconde

En termes de tokens par seconde pour du local LLM, le **Mac mini M4** peut aller bien au‑delà d’un Tiiny AI, mais ça dépend beaucoup de la taille du modèle que tu vises.

## Ordres de grandeur tokens/s

- Tiiny AI Pocket Lab annonce une vitesse moyenne de **18–40 tokens/s** en génération, selon le modèle et la charge, y compris avec des modèles jusqu’à 120B paramètres.[1][2]
- Sur Mac mini M4, des benchs LocalAI donnent par exemple ~**77 tokens/s** sur un petit modèle 1B et ~**17–18 tokens/s** sur un modèle 8B (génération continue), le tout en CPU/GPU Apple Silicon.[3]

Donc :
- Sur **petits modèles (1B, 3B, 7–8B)**, un Mac mini M4 bien réglé peut sortir **nettement plus de tokens/s** qu’un Tiiny AI (50–80+ tok/s typiquement sur du 1B contre 18–40 tok/s annoncés côté Tiiny).[1][3]
- Sur **gros modèles (30B, 70B, 120B)**, c’est l’inverse : Tiiny AI est pensé pour ça, avec des démos autour de **18–20 tok/s** sur un modèle 120B, ce qu’un Mac mini M4 ne sait simplement pas faire à cette échelle en local aujourd’hui.[4][5][6]

## Comment choisir entre les deux

- Si ton objectif est surtout des **modèles légers/moyens (4–8B) ultra réactifs** pour du coding, chat rapide, etc., le **Mac mini M4** sera en pratique plus rapide en tokens/s et plus polyvalent (machine complète macOS).[3][7]
- Si ton délire est de jouer avec des **gros modèles 30B–120B locaux** avec des réponses encore confortables (≈20 tok/s), alors le **Tiiny AI** est plus adapté, même si son plafond en tokens/s absolus est plus bas que ce que peut atteindre un M4 sur de très petits modèles.[4][1][5]

En résumé strict “tokens/s max”, le **Mac mini M4 gagne** sur les petits modèles, mais pour des modèles géants, **Tiiny AI** garde l’avantage parce que le Mac mini M4 ne peut tout simplement pas les charger proprement.

Citations:
[1] Tiiny Pocket Lab Technical Details https://tiinyai.com/technical-details/
[2] Tiiny AI Pocket Lab https://tiiny.ai/products/tiiny-ai-pocket-lab
[3] Mac Studio vs Mac Mini M4: Local AI Performance Benchmarks https://malcolmlow.net/2025/11/13/mac-studi...nce-benchmarks/
[4] Tiiny AI Unveils Pocket-Size AI PC to Run Large Models Offline https://www.varindia.com/news/tiiny-ai-unve...-models-offline
[5] Performance of Tiiny Class Local Models - Tiiny.AI https://tiinyai.com/performance/
[6] Tiiny Al just released a one-shot demo of their Pocket Lab ... - Reddit https://www.reddit.com/r/LocalLLM/comments/..._demo_of_their/
[7] Mac mini M4 benchmarks, review and comparison https://www.hoxtonmacs.co.uk/blogs/news/mac...-and-comparison
[8] Tiiny AI https://tiiny.ai
[9] Tiiny AI Pocket Lab: 120B Parameters in Your Pocket - LinkedIn https://www.linkedin.com/posts/norman-pauls...2244111360-8S67
[10] Pocket-sized supercomputer turns 14-year-old PC into offline AI ... https://interestingengineering.com/ai-robot...ear-old-pc-demo
[11] Mac mini (2024) Benchmarks - Geekbench Browserbrowser.geekbench.com › macs › mac-mini-2024-14c-cpu https://browser.geekbench.com/macs/mac-mini-2024-14c-cpu
[12] TiinyAI - pocket sized AI computers. Is it reliable? : r/LocalLLM - Reddit https://www.reddit.com/r/LocalLLM/comments/...is_it_reliable/
[13] Mac mini with M4 Review Part 1: Benchmarks, Xcode ... https://macstadium.com/blog/m4-mac-mini-review
[14] Mac Mini M4 vs GPU Workstation for Local AI - LinkedIn https://www.linkedin.com/posts/brandon-slic...1411837953-9XJj
[15] The amazing M4 Pro Mac mini Stress Test - David Lewis https://talkingtechandaudio.com/blog/m4-pro...ni-stress-test/


Ce message a été modifié par joe75 - 25 Feb 2026, 16:24.
Go to the top of the page
 
+Quote Post

Les messages de ce sujet


Reply to this topicStart new topic
1 utilisateur(s) sur ce sujet (1 invité(s) et 0 utilisateur(s) anonyme(s))
0 membre(s) :

 



Nous sommes le : 18th March 2026 - 02:03