IPB

Bienvenue invité ( Connexion | Inscription )

> Le futur Siri alimenté par Gemini pourrait tourner sur les serveurs de Google, Réactions à la publication du 22/01/2026
Options
Lionel
posté 22 Jan 2026, 11:10
Message #1


BIDOUILLE Guru
*****

Groupe : Admin
Messages : 55 605
Inscrit : 14 Jan 2001
Lieu : Paris
Membre no 3



Nous avons maintenant officiellement qu'Apple fera appel à Google et son AI Gemini pour donner de la jugeote à Siri.
On ignorait les détails de cette intégration mais selon Mark Gurman, le système pourrait fonctionner directement sur les serveurs de Google et pas sur ceux d'Apple.

Si la chose se confirme ce sera une première pour Apple qui jusqu'à maintenant (sauf en Chine évidemment), a toujours voulu garder la mainmise sur les données de ses clients et leur confidentialité.
Certes, les appareils pourraient être capables de protéger l'anonymat des utilisateurs, mais étant donné que ce nouveau Siri devrait être capable d'être conversationnel, il faudra forcément un identifiant unique pour chaque client.
Nous attendons avec curiosité de savoir comment Apple va gérer cet état de fait et pouvoir le justifier auprès de ses clients alors même que ses publicités ne sont maintenant plus tournées vers Apple Intelligence mais vers la sécurité et la confidentialité pour ses clients.

Une autre question se pose d'ailleurs à ce sujet. Est-ce qu'Apple facturera l'usage de ce nouveau Siri ? Le système coûte cher et tous les acteurs proposent des abonnements payants. Nous voyons mal Apple faire un cadeau à vie à ses clients s'il lui coûte chaque jour.

Lien vers le billet original



--------------------
C'est parce que la vitesse de la lumière est plus grande que celle du son que tant de gens paraissent brillants avant d'avoir l'air con
Go to the top of the page
 
+Quote Post
 
Start new topic
Réponse(s)
loucheux
posté 22 Jan 2026, 11:27
Message #2


Macbidouilleur d'argent !
***

Groupe : Membres
Messages : 611
Inscrit : 23 Jul 2003
Membre no 8 733



Je ne comprends pas pourquoi, au moins sur les mac, ils ne proposent pas une LLM en local qui permettrait déjà d'améliorer Spotlignt.
J'adorerais avoir un outils pour rechercher des fichiers (genre la semaine dernière quelqu'un m'a envoyé un mail sur tel sujet mais je ne me souviens pas de son nom ni de la date). Ca pourrait répondre à des requêtes simples.
Il me semble que ce genre de service pourrait tourner en local sur un mac. Il existe bien des LLM à installer en local.
Par contre ca prends de la place et comme APple est un rat de l'espace disque tout de suite c'est compliqué. Mais c'est vraiment dommage car les macs silicium ont surement la capacité de faire tourner des LLM simples en local.


--------------------
Membre du club des AIPBP (Anciens Inscrits Pas Beaucoup de Posts) Voir la liste
Go to the top of the page
 
+Quote Post
DiarOne
posté 22 Jan 2026, 11:42
Message #3


Macbidouilleur d'argent !
***

Groupe : Membres
Messages : 672
Inscrit : 9 Dec 2004
Lieu : Paris
Membre no 28 517



Citation (loucheux @ 22 Jan 2026, 12:27) *
Je ne comprends pas pourquoi, au moins sur les mac, ils ne proposent pas une LLM en local qui permettrait déjà d'améliorer Spotlignt.
J'adorerais avoir un outils pour rechercher des fichiers (genre la semaine dernière quelqu'un m'a envoyé un mail sur tel sujet mais je ne me souviens pas de son nom ni de la date). Ca pourrait répondre à des requêtes simples.
Il me semble que ce genre de service pourrait tourner en local sur un mac. Il existe bien des LLM à installer en local.
Par contre ca prends de la place et comme APple est un rat de l'espace disque tout de suite c'est compliqué. Mais c'est vraiment dommage car les macs silicium ont surement la capacité de faire tourner des LLM simples en local.



Peut-être parce qu'une grosse majorité de Macbook Air, le modèle le plus vendu, était de base à 8Go de RAM donc pas assez. Si on prend en compte les Macbook pro avec aussi peu de mémoire, les Mac Mini, etc...

Dans la majorité des cas, les gens achetaient les modèles de base.
On se retrouve donc avec un parc de portables et de mac mini ne pouvants faire tourner une IA Apple, encore moins en local.


Nous sommes une minorité à avoir des Mac avec beaucoup de RAM


Ce message a été modifié par DiarOne - 22 Jan 2026, 11:44.


--------------------
D. A & illustrateur de profession et de passion
--------------------------------------------------------
Mac Studio M4M & M1M 64Go - 1 To, MBA 13 M2
--------------------------------------------------------
iPad Pro, iPhone 15 Pro max
--------------------------------------------------------
PS4 Pro à 서울, PS5 à Paris
Go to the top of the page
 
+Quote Post
loucheux
posté 22 Jan 2026, 12:03
Message #4


Macbidouilleur d'argent !
***

Groupe : Membres
Messages : 611
Inscrit : 23 Jul 2003
Membre no 8 733



Citation (DiarOne @ 22 Jan 2026, 13:42) *
Citation (loucheux @ 22 Jan 2026, 12:27) *
Je ne comprends pas pourquoi, au moins sur les mac, ils ne proposent pas une LLM en local qui permettrait déjà d'améliorer Spotlignt.
J'adorerais avoir un outils pour rechercher des fichiers (genre la semaine dernière quelqu'un m'a envoyé un mail sur tel sujet mais je ne me souviens pas de son nom ni de la date). Ca pourrait répondre à des requêtes simples.
Il me semble que ce genre de service pourrait tourner en local sur un mac. Il existe bien des LLM à installer en local.
Par contre ca prends de la place et comme APple est un rat de l'espace disque tout de suite c'est compliqué. Mais c'est vraiment dommage car les macs silicium ont surement la capacité de faire tourner des LLM simples en local.



Peut-être parce qu'une grosse majorité de Macbook Air, le modèle le plus vendu, était de base à 8Go de RAM donc pas assez. Si on prend en compte les Macbook pro avec aussi peu de mémoire, les Mac Mini, etc...

Dans la majorité des cas, les gens achetaient les modèles de base.
On se retrouve donc avec un parc de portables et de mac mini ne pouvants faire tourner une IA Apple, encore moins en local.


Nous sommes une minorité à avoir des Mac avec beaucoup de RAM


Les macs récents sont vendus avec 16 donc ca pourrait déjà fonctionner pour ceux la. Et franchement on trouve des LLM qui tournent avec moins de ram (Gemma 3 tourne avec 2,5 par ex). A mon avis c'est plus une histoire de philosophie de produit, personne ne veut pousser ce genre de produit par ce que ca n'apporte pas assez de plus value.

Je ne demande pas un truc compliqué mais jsute un outil qui m'indexe mes fichiers et me permette des requetes un peu poussées.
Par exemple
j'ai les dates d'anniversaires dans mon carnet d'adresse => demande à Spotlight quand est l''anniversaire de Lionel
Il y a maintenant une appli de téléphone => appeler X (ca marche pour les SMS...)

Cela faite des années que nos macs pourraient faire ca mais ou personne n'y a pensé (mais je doute) ou on ne veut pas le faire car Apple ne controle pas le flux en local sur ma machine.

Ce message a été modifié par loucheux - 22 Jan 2026, 12:09.


--------------------
Membre du club des AIPBP (Anciens Inscrits Pas Beaucoup de Posts) Voir la liste
Go to the top of the page
 
+Quote Post

Les messages de ce sujet


Reply to this topicStart new topic
1 utilisateur(s) sur ce sujet (1 invité(s) et 0 utilisateur(s) anonyme(s))
0 membre(s) :

 



Nous sommes le : 4th February 2026 - 00:23