IPB

Bienvenue invité ( Connexion | Inscription )

 
Reply to this topicStart new topic
> Intel lancera ses propres puces graphiques en 2020, Réactions à la publication du 18/08/2018
Options
Lionel
posté 18 Aug 2018, 06:36
Message #1


BIDOUILLE Guru
*****

Groupe : Admin
Messages : 55 329
Inscrit : 14 Jan 2001
Lieu : Paris
Membre no 3



Intel a publié une vidéo visant à faire le buzz sur ses futures solutions graphiques dédiées qui seront disponibles en 2020.

Intel a toujours eu une relation conflictuelle avec le marché des cartes graphiques et ses gros acteurs.
La société a tenté à une époque de faire sa place avec une approche spécifique et sans issue : utiliser des cœurs X86 en masse pour remplacer les puces graphiques, le projet Larrabee.
Ce fut un échec.

Malgré cela, Intel est le plus gros pourvoyeur de solutions graphiques au monde avec ses processeurs qui en sont la plupart du temps dotés, depuis les GM faisant à peine le travail jusqu'aux récents Iris Pro performants.

La société veut maintenant se faire une place dans les solutions graphiques dédiées et vise même le marché des joueurs.

Nous nous demandons dans quelle mesure la société ne va pas tenter de reprendre le marché des consoles de jeu haut de gamme à cette occasion, actuellement détenu par AMD.

Lien vers le billet original



--------------------
C'est parce que la vitesse de la lumière est plus grande que celle du son que tant de gens paraissent brillants avant d'avoir l'air con
Go to the top of the page
 
+Quote Post
iAPX
posté 18 Aug 2018, 12:24
Message #2


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 15 371
Inscrit : 4 Jan 2006
Lieu : dtq
Membre no 52 877



Intel a un immense problème dans le monde du HPC (super calculateurs): nVidia.

Dans le monde du calcul outrageusement parallèle, nVidia règne en maître via ses GPU qui réalisent l'essentiel du travail et les CPU qu'elles soient Intel, AMD our peut-être des ARM à venir (cf. un des intervenants ici parlant d'un centre de calcul Français), elles ne sont que des acteurs de second rôle et quasiment interchangeables.
Intel + nVidia ou AMD + nVidia quasiment aucune différence, du moment qu'il y a des GPU nVidia avec cuda.

Intel a essayé de sortir d'abord des cartes d'extension intégrant un calculateur massivement parallèle x86 + AVX-512 (pas une GPU per-se, même si ils ont été tentés), puis intégré ces unités directement sur des carte-mère en lieu de place de CPU plus génériques, mais étouffées par leurs bande-passante mémoire inadaptée sauf pour les charges les plus compactes, ce déséquilibre les rendant très mauvais en performance pratique/théorique (et donc en conso de courant/Tflops réel).

Les iGPU Intel sont excellentes pour le GPGPU, avec beaucoup de cache et de registres, et depuis quelques années imbattables en terme de ratio performance réelle/théorique surtout avec du code OpenCL complexe (comme des filtres Photoshop modernes), avec une architecture clairement orientée vers ses usages-là plus que les jeux en 3D.
Je ne serais alors pas étonné qu'Intel sorte du hardware (carte PCI-Express, boîtier d'expansion via PCI-Express, peut-être cartes en EDSFF etc.) comprenant ce que d'aucuns appelleraient une GPU, mais sans unités graphiques (ni tout le tintouin) limité aux calculs massivement parallèle sous OpenCL.

Mais une GPU destiné aux jeux en 3D, ou même à CATIA ou autres, je ne vois pas le marché pour Intel, il est déjà pris et bien pris...


--------------------
Utilisateur de Mac depuis 1985 et possesseur de Mac depuis 2005. Utilisateur d'un PC Lenovo au travail, sous Windows, qui renforce ma passion pour les Mac!
Go to the top of the page
 
+Quote Post
tim_gnu
posté 18 Aug 2018, 18:48
Message #3


Adepte de Macbidouille
*

Groupe : Membres
Messages : 77
Inscrit : 16 Sep 2005
Membre no 46 057



iAPX, oui tu as raison pour le HPC. Maintenant le HPC pour les vendeurs c'est plus du budget marketing publicitaire que autre choses. Ils font 0 bennef dessus, vu le prix du dev. des nouveaux profs ( 2 milliards de $ , si on sait ou on va). Le jeux video c'est un marché plus grand que le cinéma, c'est pour ça que Nvidia marche bien.

Maintenant ou veut aller Intel, je n'en sais rien du tout confused5.gif
Go to the top of the page
 
+Quote Post
SartMatt
posté 19 Aug 2018, 11:55
Message #4


Macbidouilleur d'Or !
*****

Groupe : Rédacteurs
Messages : 32 183
Inscrit : 15 Nov 2005
Membre no 49 996



Citation (iAPX @ 18 Aug 2018, 13:24) *
Mais une GPU destiné aux jeux en 3D, ou même à CATIA ou autres, je ne vois pas le marché pour Intel, il est déjà pris et bien pris...
On a vu plus d'une fois des gros revirements sur ce marché. Donc Intel espère peut-être réussir à faire un revirement en sa faveur.

Et débarquer sur le marché du GPU pour jeux, ça peut aussi être un moyen pour lui de reprendre le marché des consoles à AMD. Car si actuellement ce marché est aux mains d'AMD, c'est essentiellement par compromis de la part des fabricants de consoles : les CPU d'Intel sont meilleurs, les GPU d'nVidia sont meilleurs, mais AMD était le seul à pouvoir proposer à la fois un CPU et un GPU puissant dans un même packaging.

Accessoirement, le marché du jeu, c'est aussi le marché qui permet à nVidia d'être compétitif sur le HPC, en amortissant une bonne partie des coûts sur les cartes graphiques. Aller seulement sur le marché du HPC l'obligerait à vendre ses solutions bien plus cher. Donc Intel doit se dire que lui aussi a besoin du marché du jeu pour espérer concurrencer nVidia sur le HPC. Le marché du HPC, ça se compte en centaines de milliers d'unités (le numéro 1 actuel au top 500 n'a que 26 000 GPU), là où celui de la carte graphique se compte en dizaines de millions. Même si les marges y sont beaucoup plus faibles, c'est un marché qui reste vital.

Sur les derniers résultats financiers d'nVidia (Q2 2018 civil), c'est 1.8 G$ de CA sur le marché gaming, près de 300 M$ sur les cartes graphiques pro, et 760 M$ sur les datacenter/HPC. Au total des cartes graphiques ont fait à peu près les 2/3 du CA total d'nVidia (3.2 G$).


--------------------

Go to the top of the page
 
+Quote Post
zhir
posté 19 Aug 2018, 19:52
Message #5


Adepte de Macbidouille
*

Groupe : Membres
Messages : 103
Inscrit : 17 Jan 2011
Membre no 163 753



Citation (SartMatt @ 19 Aug 2018, 11:55) *
Intel espère peut-être réussir à faire un revirement en sa faveur.

Leur seul levier pour un tel revirement, c'est encore et toujours le contrôle sur les pauvres OEMS, j'imagine? Quelques coups de fil bien placés, et les pauvres Dells doivent tous inclure une carte Intel.

Enfin, pour l'historique, rappellons qu'au temps des cartes 3DFX, Intel avait déjà essayé de sortir ses cartes 3D Intel Extreme Graphics. Ça a disparu extrêmement vite, incapables de survivre dans un marché compétitif.

Ce message a été modifié par zhir - 19 Aug 2018, 19:53.
Go to the top of the page
 
+Quote Post
iAPX
posté 19 Aug 2018, 21:19
Message #6


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 15 371
Inscrit : 4 Jan 2006
Lieu : dtq
Membre no 52 877



Il semble qu'un des intervenants n'ai pas compris qu'Intel possède plus de 70% voir 80% du marché de GPU (via ses iGPU aujourd'hui), et qu'en tant que tel ses coûts de R&D sont déjà totalement amortis.

Et que quand Intel veut faire mieux sur ses CPU, elles sont alors affublées d'une GPU AMD Radeon, démontrant si besoin était où en est Intel exactement (3ème et largué en 3D même à TDP similaire) ...

On se souviendra des prétentions incroyables d'Intel avec ses LaraFabian (euuhh... Larabee), et la déconfiture totale face à nVidia non en performance théorique mais en performances réelles, et en rapport Tflops/Watt dans la réalité, ce qui a tué dans l'œufs cette velléité d'accès au marché du HPC qui fait parti intégrante du plan d'Intel de repli vers des marchés de niches (pour y mourrir par asphyxie sous son propre poids puisque par essence des marchés limités), quand au fur et à mesure les marchés de masse sont pris par ARM, mécaniquement via les statistiques de vente des uns et des autres outre sa prise de position sur des marchés supérieurs, mais aussi par AMD qui a repris du poil de la bête.

Intel ne sortira aucune carte 3D compétitive pour le jeu, sauf à avoir une GPU AMD Radeon dessus, et rebadgée: ils ne savent pas faire, et les marchés grand-public ne font plus parti de leurs objectifs, mais uniquement des marchés de niche (serveurs et HPC), pour échapper à la pression compétitive (et en mourrir).

Ce message a été modifié par iAPX - 19 Aug 2018, 21:32.


--------------------
Utilisateur de Mac depuis 1985 et possesseur de Mac depuis 2005. Utilisateur d'un PC Lenovo au travail, sous Windows, qui renforce ma passion pour les Mac!
Go to the top of the page
 
+Quote Post
SartMatt
posté 19 Aug 2018, 23:01
Message #7


Macbidouilleur d'Or !
*****

Groupe : Rédacteurs
Messages : 32 183
Inscrit : 15 Nov 2005
Membre no 49 996



Citation (iAPX @ 19 Aug 2018, 22:19) *
Il semble qu'un des intervenants n'ai pas compris qu'Intel possède plus de 70% voir 80% du marché de GPU (via ses iGPU aujourd'hui), et qu'en tant que tel ses coûts de R&D sont déjà totalement amortis.

Et que quand Intel veut faire mieux sur ses CPU, elles sont alors affublées d'une GPU AMD Radeon, démontrant si besoin était où en est Intel exactement (3ème et largué en 3D même à TDP similaire) ...
Le second point démontre surtout que tu es à côté de la plaque sur le premier...

Le fait de devoir recourir aux Radeon prouve qu'il ne suffit pas à Intel d'augmenter le nombre d'unités de ses IGP actuels pour faire quelque chose d'adapté au marché des cartes graphiques haut de gamme. Ce qui implique donc le besoin d'un effort supplémentaire de R&D par rapport aux IGP. Et donc, un effort supplémentaire qui va avoir besoin d'être amorti.

Citation (iAPX @ 19 Aug 2018, 22:19) *
Intel ne sortira aucune carte 3D compétitive pour le jeu, sauf à avoir une GPU AMD Radeon dessus, et rebadgée: ils ne savent pas faire, et les marchés grand-public ne font plus parti de leurs objectifs, mais uniquement des marchés de niche (serveurs et HPC), pour échapper à la pression compétitive (et en mourrir).
Donc tu affirmes catégoriquement que l'annonce par Intel de sa volonté de venir sur le marché gaming est un mensonge ?


--------------------

Go to the top of the page
 
+Quote Post
iAPX
posté 19 Aug 2018, 23:22
Message #8


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 15 371
Inscrit : 4 Jan 2006
Lieu : dtq
Membre no 52 877



Citation (SartMatt @ 19 Aug 2018, 18:01) *
Citation (iAPX @ 19 Aug 2018, 22:19) *
Il semble qu'un des intervenants n'ai pas compris qu'Intel possède plus de 70% voir 80% du marché de GPU (via ses iGPU aujourd'hui), et qu'en tant que tel ses coûts de R&D sont déjà totalement amortis.

Et que quand Intel veut faire mieux sur ses CPU, elles sont alors affublées d'une GPU AMD Radeon, démontrant si besoin était où en est Intel exactement (3ème et largué en 3D même à TDP similaire) ...
Le second point démontre surtout que tu es à côté de la plaque sur le premier...

Le fait de devoir recourir aux Radeon prouve qu'il ne suffit pas à Intel d'augmenter le nombre d'unités de ses IGP actuels pour faire quelque chose d'adapté au marché des cartes graphiques haut de gamme. Ce qui implique donc le besoin d'un effort supplémentaire de R&D par rapport aux IGP. Et donc, un effort supplémentaire qui va avoir besoin d'être amorti.

Citation (iAPX @ 19 Aug 2018, 22:19) *
Intel ne sortira aucune carte 3D compétitive pour le jeu, sauf à avoir une GPU AMD Radeon dessus, et rebadgée: ils ne savent pas faire, et les marchés grand-public ne font plus parti de leurs objectifs, mais uniquement des marchés de niche (serveurs et HPC), pour échapper à la pression compétitive (et en mourrir).
Donc tu affirmes catégoriquement que l'annonce par Intel de sa volonté de venir sur le marché gaming est un mensonge ?

Tu ne préfères pas savoir ce que je dis, ou mon opinion, mais je le pense smile.gif

L'incompétence avec une opinion forte et une exaspérante manière de l'exprimer ne transformeront jamais quelque-chose en vérité: Intel est largué en 3D. point barre.

Ce message a été modifié par iAPX - 19 Aug 2018, 23:23.


--------------------
Utilisateur de Mac depuis 1985 et possesseur de Mac depuis 2005. Utilisateur d'un PC Lenovo au travail, sous Windows, qui renforce ma passion pour les Mac!
Go to the top of the page
 
+Quote Post
SartMatt
posté 19 Aug 2018, 23:55
Message #9


Macbidouilleur d'Or !
*****

Groupe : Rédacteurs
Messages : 32 183
Inscrit : 15 Nov 2005
Membre no 49 996



Citation (iAPX @ 20 Aug 2018, 00:22) *
L'incompétence avec une opinion forte et une exaspérante manière de l'exprimer ne transformeront jamais quelque-chose en vérité: Intel est largué en 3D. point barre.
J'ai jamais nié qu'Intel est largué en 3D aujourd'hui.

Mais ça ne change rien au fait que, contrairement à ce que tu affirmes, ils expriment clairement une volonté de venir sur le marché grand-public du GPU gaming. Ils l'ont dit dans plusieurs communiqués de presse, ils ont même un compte Twitter dédié à ça... Alors soit tu as raison, ils n'ont aucune intention de venir et ce qu'ils sont en train de faire est alors gravissime (parce qu'une société côté en bourse n'a pas le droit de mentir comme ça). Soit tu as tort et ils ont effectivement l'envie de venir sur ce marché. Ce qui ne veut pas nécessairement dire qu'ils vont réussir. Mais le fait qu'ils sont largués aujourd'hui n'implique pas non plus nécessairement qu'ils vont échouer. Des entreprises larguées sur un secteur qui se relèvent, on l'a déjà vu un paquet de fois hein.


--------------------

Go to the top of the page
 
+Quote Post
iAPX
posté 19 Aug 2018, 23:59
Message #10


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 15 371
Inscrit : 4 Jan 2006
Lieu : dtq
Membre no 52 877



Citation (SartMatt @ 19 Aug 2018, 18:55) *
Citation (iAPX @ 20 Aug 2018, 00:22) *
L'incompétence avec une opinion forte et une exaspérante manière de l'exprimer ne transformeront jamais quelque-chose en vérité: Intel est largué en 3D. point barre.
J'ai jamais nié qu'Intel est largué en 3D aujourd'hui.
...

"On a vu plus d'une fois des gros revirements sur ce marché. Donc Intel espère peut-être réussir à faire un revirement en sa faveur."

Qual revirement?!?
blah blah blah

Oublie, tu n'y comprends rien, comme d'habitude, le 3D marché est segmenté, la 3D c'est nVidia puis AMD Radeon. Les autres marché sont Pro avec cuda uniquement.

Ce message a été modifié par iAPX - 20 Aug 2018, 00:01.


--------------------
Utilisateur de Mac depuis 1985 et possesseur de Mac depuis 2005. Utilisateur d'un PC Lenovo au travail, sous Windows, qui renforce ma passion pour les Mac!
Go to the top of the page
 
+Quote Post
SartMatt
posté 20 Aug 2018, 00:07
Message #11


Macbidouilleur d'Or !
*****

Groupe : Rédacteurs
Messages : 32 183
Inscrit : 15 Nov 2005
Membre no 49 996



Citation (iAPX @ 20 Aug 2018, 00:59) *
Citation (SartMatt @ 19 Aug 2018, 18:55) *
Citation (iAPX @ 20 Aug 2018, 00:22) *
L'incompétence avec une opinion forte et une exaspérante manière de l'exprimer ne transformeront jamais quelque-chose en vérité: Intel est largué en 3D. point barre.
J'ai jamais nié qu'Intel est largué en 3D aujourd'hui.
...
"On a vu plus d'une fois des gros revirements sur ce marché. Donc Intel espère peut-être réussir à faire un revirement en sa faveur."

Qual revirement?!?
3dfx, qui en l'espace d'une seule génération est passé de leader incontesté (et tombeur de Matrox, précédent roi du monde) à quasi moins que rien.
AMD et nVidia qui depuis ont plusieurs fois inversé leurs positions...

Et je persiste : dire qu'Intel espère un revirement en sa faveur ne revient pas à nier qu'ils sont largués aujourd'hui. Au contraire, ça revient même à l'approuver : c'est bien parce qu'ils sont largués aujourd'hui que leur seul espoir est un gros revirement.


--------------------

Go to the top of the page
 
+Quote Post
iAPX
posté 20 Aug 2018, 00:16
Message #12


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 15 371
Inscrit : 4 Jan 2006
Lieu : dtq
Membre no 52 877



Citation (SartMatt @ 19 Aug 2018, 19:07) *
Citation (iAPX @ 20 Aug 2018, 00:59) *
Citation (SartMatt @ 19 Aug 2018, 18:55) *
Citation (iAPX @ 20 Aug 2018, 00:22) *
L'incompétence avec une opinion forte et une exaspérante manière de l'exprimer ne transformeront jamais quelque-chose en vérité: Intel est largué en 3D. point barre.
J'ai jamais nié qu'Intel est largué en 3D aujourd'hui.
...
"On a vu plus d'une fois des gros revirements sur ce marché. Donc Intel espère peut-être réussir à faire un revirement en sa faveur."

Qual revirement?!?
3dfx, qui en l'espace d'une seule génération est passé de leader incontesté (et tombeur de Matrox, précédent roi du monde) à quasi moins que rien.
AMD et nVidia qui depuis ont plusieurs fois inversé leurs positions...

Et je persiste : dire qu'Intel espère un revirement en sa faveur ne revient pas à nier qu'ils sont largués aujourd'hui. Au contraire, ça revient même à l'approuver : c'est bien parce qu'ils sont largués aujourd'hui que leur seul espoir est un gros revirement.

Tu as un exemple dans ce siècle, ou tu vas revenir au boulier?

Pathétique!


--------------------
Utilisateur de Mac depuis 1985 et possesseur de Mac depuis 2005. Utilisateur d'un PC Lenovo au travail, sous Windows, qui renforce ma passion pour les Mac!
Go to the top of the page
 
+Quote Post
SartMatt
posté 20 Aug 2018, 00:23
Message #13


Macbidouilleur d'Or !
*****

Groupe : Rédacteurs
Messages : 32 183
Inscrit : 15 Nov 2005
Membre no 49 996



Citation (iAPX @ 20 Aug 2018, 01:16) *
Tu as un exemple dans ce siècle, ou tu vas revenir au boulier?
Tu cliques sur le lien. Tu verras que la dernière inversion entre AMD et nVidia date d'il y a seulement 4 ans. Après 3 ans de domination d'AMD, précédés par 5 ans de domination d'nVidia. Donc ce n'est pas parce qu'aujourd'hui nVidia domine depuis 4 ans que ça ne peut pas à nouveau s'inverser, ou être bouleversé par un nouvel acteur.


--------------------

Go to the top of the page
 
+Quote Post
iAPX
posté 20 Aug 2018, 00:26
Message #14


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 15 371
Inscrit : 4 Jan 2006
Lieu : dtq
Membre no 52 877



Citation (SartMatt @ 19 Aug 2018, 19:23) *
Citation (iAPX @ 20 Aug 2018, 01:16) *
Tu as un exemple dans ce siècle, ou tu vas revenir au boulier?
Tu cliques sur le lien. Tu verras que la dernière inversion entre AMD et nVidia date d'il y a seulement 4 ans. Après 3 ans de domination d'AMD, précédés par 5 ans de domination d'nVidia. Donc ce n'est pas parce qu'aujourd'hui nVidia domine depuis 4 ans que ça ne peut pas à nouveau s'inverser, ou être bouleversé par un nouvel acteur.

Tu as un exemple de nouvel acteur arrivé dans ce siècle-ci qui ai tout changé (ou mieux dans la dernière décennie).

Je comprends que tu peux utiliser l'exemple d'IBM avec CGA, EGA, VGA ou de Matrox (une fière compagnie Canadienne), mais là en 2018, je ne vois pas où cet onanisme pour encore justifier un avis certes amusant mais totalement décalé pourrait nous amener.
N'hésite pas à parler de Tseng Lab et des ET4000 (j'étais fan et client), ou des puces graphiques des Goupil 2 ou Goupil 3 de la SMT (j'étais programmeur).


--------------------
Utilisateur de Mac depuis 1985 et possesseur de Mac depuis 2005. Utilisateur d'un PC Lenovo au travail, sous Windows, qui renforce ma passion pour les Mac!
Go to the top of the page
 
+Quote Post
SartMatt
posté 20 Aug 2018, 00:30
Message #15


Macbidouilleur d'Or !
*****

Groupe : Rédacteurs
Messages : 32 183
Inscrit : 15 Nov 2005
Membre no 49 996



Citation (iAPX @ 20 Aug 2018, 01:26) *
Tu as un exemple de nouvel acteur arrivé dans ce siècle-ci qui ai tout changé (ou mieux dans la dernière décennie).
Il n'y a pas eu de nouvel acteur. Donc il n'y a eu ni nouvel acteur ayant eu du succès, ni nouvel acteur ayant échoué.

Donc on ne peut ni affirmer qu'Intel va réussir, ni affirmer qu'il n'a aucune chance. L'arrivée d'un nouvel acteur est un fait sans précédent récent, qui plus est un acteur avec une telle puissance de feu, donc il est bien prétentieux de prétendre affirmer dès aujourd'hui qu'ils n'ont aucune chance...

Et il est encore plus prétentieux d'affirmer sans détour qu'Intel ne s'intéresse pas à ce marché alors qu'ils communiquent au contraire sur leur intérêt. Mais bon, peut-être que tu as des infos venant directement de la direction d'Intel qui te font dire que ces communications sur le sujet ne sont que du vent sans aucune volonté réelle derrière dry.gif Auquel cas tu devrais en parler à la SEC, ça va leur plaire, et vu à quel point tu apprécies Intel, tu devrais être heureux de pouvoir leur coller une enquête sur le dos.


--------------------

Go to the top of the page
 
+Quote Post
iAPX
posté 20 Aug 2018, 00:36
Message #16


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 15 371
Inscrit : 4 Jan 2006
Lieu : dtq
Membre no 52 877



Citation (SartMatt @ 19 Aug 2018, 19:30) *
Citation (iAPX @ 20 Aug 2018, 01:26) *
Tu as un exemple de nouvel acteur arrivé dans ce siècle-ci qui ai tout changé (ou mieux dans la dernière décennie).
Il n'y a pas eu de nouvel acteur. Donc il n'y a eu ni nouvel acteur ayant eu du succès, ni nouvel acteur ayant échoué.
...

Et donc tu as décidé qu'un nouvel acteur infoutu de sortir une carte 3D correcte après avoir communiqué dessus à grand frais et s'être rétracté était un acteur plausible pour en sortir une nouvelle?!?

Tu es drôle toi smile.gif

Je te vends une carte graphique iAPX?
Sans specs?
Sans historique?
Ou mieux avec un historique de m'être planté grave?!?

Rigolo!


--------------------
Utilisateur de Mac depuis 1985 et possesseur de Mac depuis 2005. Utilisateur d'un PC Lenovo au travail, sous Windows, qui renforce ma passion pour les Mac!
Go to the top of the page
 
+Quote Post
SartMatt
posté 20 Aug 2018, 00:47
Message #17


Macbidouilleur d'Or !
*****

Groupe : Rédacteurs
Messages : 32 183
Inscrit : 15 Nov 2005
Membre no 49 996



Citation (iAPX @ 20 Aug 2018, 01:36) *
Citation (SartMatt @ 19 Aug 2018, 19:30) *
Citation (iAPX @ 20 Aug 2018, 01:26) *
Tu as un exemple de nouvel acteur arrivé dans ce siècle-ci qui ai tout changé (ou mieux dans la dernière décennie).
Il n'y a pas eu de nouvel acteur. Donc il n'y a eu ni nouvel acteur ayant eu du succès, ni nouvel acteur ayant échoué.
Et donc tu as décidé qu'un nouvel acteur infoutu de sortir une carte 3D correcte après avoir communiqué dessus à grand frais et s'être rétracté était un acteur plausible pour en sortir une nouvelle?!?
Justement, on peut supposer qu'après ça, ils ont un peu plus assuré leurs arrières cette fois avant de lancer la machine à communiquer... Et techniquement, ce qu'ils préparent n'a rien à voir avec Larrabee. Donc ils semblent avoir appris de leur erreur...

Citation (iAPX @ 20 Aug 2018, 01:36) *
Rigolo!
Pas plus que le mec qui affirme qu'Intel ne veut pas venir sur le marché gaming 5 jours après un nouveaux communiqué d'Intel sur le sujet rolleyes.gif


--------------------

Go to the top of the page
 
+Quote Post
iAPX
posté 20 Aug 2018, 01:06
Message #18


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 15 371
Inscrit : 4 Jan 2006
Lieu : dtq
Membre no 52 877



Citation (SartMatt @ 19 Aug 2018, 19:47) *
Citation (iAPX @ 20 Aug 2018, 01:36) *
Citation (SartMatt @ 19 Aug 2018, 19:30) *
Citation (iAPX @ 20 Aug 2018, 01:26) *
Tu as un exemple de nouvel acteur arrivé dans ce siècle-ci qui ai tout changé (ou mieux dans la dernière décennie).
Il n'y a pas eu de nouvel acteur. Donc il n'y a eu ni nouvel acteur ayant eu du succès, ni nouvel acteur ayant échoué.
Et donc tu as décidé qu'un nouvel acteur infoutu de sortir une carte 3D correcte après avoir communiqué dessus à grand frais et s'être rétracté était un acteur plausible pour en sortir une nouvelle?!?
Justement, on peut supposer qu'après ça, ils ont un peu plus assuré leurs arrières cette fois avant de lancer la machine à communiquer... Et techniquement, ce qu'ils préparent n'a rien à voir avec Larrabee. Donc ils semblent avoir appris de leur erreur...

Citation (iAPX @ 20 Aug 2018, 01:36) *
Rigolo!
Pas plus que le mec qui affirme qu'Intel ne veut pas venir sur le marché gaming 5 jours après un nouveaux communiqué d'Intel sur le sujet rolleyes.gif

Intel n'a pas parlé de Gaming, revois la vidéo, au mieux de "pixels".

Je comprends que sur un esprit faible le piratage social soit efficace, et qu'en étant factuel sur ce qu'ils font, c'est à dire en 2020 proposer une carte qui aura un rapport avec les pixels (that's it! Rien d'autre!) puissent t'amener à penser qu'il s'agisse de 3D, de gaming, d'être compétitif, de se vendre au grand-public.
Comme toujours, de l'onanisme, du rêve en couleur, rien de factuel, presque vendre l'accès au monde des bisounours pour justifier un changement de carte réseau! laugh.gif


--------------------
Utilisateur de Mac depuis 1985 et possesseur de Mac depuis 2005. Utilisateur d'un PC Lenovo au travail, sous Windows, qui renforce ma passion pour les Mac!
Go to the top of the page
 
+Quote Post
SartMatt
posté 20 Aug 2018, 01:31
Message #19


Macbidouilleur d'Or !
*****

Groupe : Rédacteurs
Messages : 32 183
Inscrit : 15 Nov 2005
Membre no 49 996



Citation (iAPX @ 20 Aug 2018, 02:06) *
Intel n'a pas parlé de Gaming, revois la vidéo, au mieux de "pixels".

Je comprends que sur un esprit faible le piratage social soit efficace, et qu'en étant factuel sur ce qu'ils font, c'est à dire en 2020 proposer une carte qui aura un rapport avec les pixels (that's it! Rien d'autre!) puissent t'amener à penser qu'il s'agisse de 3D, de gaming, d'être compétitif, de se vendre au grand-public.
Alors, la vidéo, elle commence par rappeler qu'Intel a fait le premier GPU 100% compatible DX12, puis le premier GPU capable de décoder Netflix en 4K. Ensuite, elle dit qu'Intel a ramené l'esport sur des PC aussi fin que des téléphones. Brefs, que des aspectes purement grand public et franchement orientés gaming.

Mais bien sûr, ça ne veut absolument pas dire qu'ils ciblent le marché grand public et plus particulièrement le marché gaming, hein. C'est pour cibler le marché pro et le HPC qu'ils mettent ces arguments en valeur laugh.gif

Ensuite, cette vidéo, elle a été publiée par le compte Twitter "Intel Graphics" (c'est d'ailleurs son premier tweet), créé en juillet 2018, dont le descriptif est "Official Handle. Engaging re gaming, game development, drivers, PC gaming, gaming on-the-go, and content creation. May (or may not) include occasional hints.". Mais t'as raison, ils n'ont pas du tout parlé de gaming. Et dans la foulée, Intel invite les développeurs de jeu à soumettre leurs jeux sur gameplay.intel.com pour les "tester". Mais vraiment, le gaming, ils s'en foutent complètement hein.

C'est vrai que dans le communiqué annonçant l'embauche de Koduri fin 2017 ils n'avaient à l'époque pas explicitement dit que le gaming était ciblé. Mais c'était déjà assez clair à l'époque : "expand Intel’s leading position in integrated graphics for the PC market with high-end discrete graphics solutions"... Faut quand même être tordu pour imaginer que ça veut dire qu'ils vont viser uniquement la 3D pro quand ils parlent d'étendre la position de leurs IGP via des cartes graphiques haut de gamme sur le marché PC, et non "stations de travail". Surtout qu'un peu plus loin quand ils parlent de l'expérience passée de Koduri, ils mettent en premier PC, en deuxième consoles de jeu, et seulement en troisième les stations de travail.


--------------------

Go to the top of the page
 
+Quote Post
iAPX
posté 20 Aug 2018, 03:20
Message #20


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 15 371
Inscrit : 4 Jan 2006
Lieu : dtq
Membre no 52 877



Citation (SartMatt @ 19 Aug 2018, 20:31) *
Citation (iAPX @ 20 Aug 2018, 02:06) *
Intel n'a pas parlé de Gaming, revois la vidéo, au mieux de "pixels".

Je comprends que sur un esprit faible le piratage social soit efficace, et qu'en étant factuel sur ce qu'ils font, c'est à dire en 2020 proposer une carte qui aura un rapport avec les pixels (that's it! Rien d'autre!) puissent t'amener à penser qu'il s'agisse de 3D, de gaming, d'être compétitif, de se vendre au grand-public.
Alors, la vidéo, elle commence par rappeler qu'Intel a fait le premier GPU 100% compatible DX12, puis le premier GPU capable de décoder Netflix en 4K. Ensuite, elle dit qu'Intel a ramené l'esport sur des PC aussi fin que des téléphones. Brefs, que des aspectes purement grand public et franchement orientés gaming.

Mais bien sûr, ça ne veut absolument pas dire qu'ils ciblent le marché grand public et plus particulièrement le marché gaming, hein. C'est pour cibler le marché pro et le HPC qu'ils mettent ces arguments en valeur laugh.gif

Ensuite, cette vidéo, elle a été publiée par le compte Twitter "Intel Graphics" (c'est d'ailleurs son premier tweet), créé en juillet 2018, dont le descriptif est "Official Handle. Engaging re gaming, game development, drivers, PC gaming, gaming on-the-go, and content creation. May (or may not) include occasional hints.". Mais t'as raison, ils n'ont pas du tout parlé de gaming. Et dans la foulée, Intel invite les développeurs de jeu à soumettre leurs jeux sur gameplay.intel.com pour les "tester". Mais vraiment, le gaming, ils s'en foutent complètement hein.

C'est vrai que dans le communiqué annonçant l'embauche de Koduri fin 2017 ils n'avaient à l'époque pas explicitement dit que le gaming était ciblé. Mais c'était déjà assez clair à l'époque : "expand Intel’s leading position in integrated graphics for the PC market with high-end discrete graphics solutions"... Faut quand même être tordu pour imaginer que ça veut dire qu'ils vont viser uniquement la 3D pro quand ils parlent d'étendre la position de leurs IGP via des cartes graphiques haut de gamme sur le marché PC, et non "stations de travail". Surtout qu'un peu plus loin quand ils parlent de l'expérience passée de Koduri, ils mettent en premier PC, en deuxième consoles de jeu, et seulement en troisième les stations de travail.

Aucune de ces arguties n'est recevable, elles ne relèvent que de fantasmes onanistes, et non de quelque-chose de factuel dans la vidéo d'Intel qui ne nous en apprend absolument rien (son but, du PR au meilleur niveau).

Tu as des informations qui lient l'embauche d'une personne avec cet exercice de PR?
Et tu connais ses tâches et son contrat de travail?

Comme d'habitude, du vent smile.gif

La seule réalité étant qu'Intel s'est rétamé à plusieurs reprises avec ses GPU dédiée dont le dernier mort-né après des déclarations fracassantes, un bel historique de foirage, assez similaire aux déclarations et à l'historique d'Intel sur la mobilité ces dernières années (avec quelques milliards de pertes à la clé).
Quand à avoir quelqu'un qui ne comprends rien à l'orientation que suivent les GPU commenter, c'est effarant ad-minima, surtout lorsqu'on voit les RTX de nVidia et ce qui est apporté d'incroyablement novateur (et qui ne concernent pas directement des "pixels").

Ce message a été modifié par iAPX - 20 Aug 2018, 03:27.


--------------------
Utilisateur de Mac depuis 1985 et possesseur de Mac depuis 2005. Utilisateur d'un PC Lenovo au travail, sous Windows, qui renforce ma passion pour les Mac!
Go to the top of the page
 
+Quote Post
Rorqual
posté 20 Aug 2018, 08:12
Message #21


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 4 055
Inscrit : 7 Sep 2001
Lieu : Sartrouville
Membre no 755



iAPX, SartMatt, vous vous bagarrez sur deux points différents, et avez sans doute tous les deux raison :
- oui Intel veut revenir dans la 3D grand public (jeu).
- oui Intel a de grandes chances de se planter à nouveau vu l'historique.

L'un n'exclut pas l'autre. Voilà voilà. smile.gif

Ce message a été modifié par Rorqual - 20 Aug 2018, 08:13.


--------------------
Mac Pro 2009 flashé 2010, bien boosté : ça c'était avant. A présent : Windows 11 Pro sur Core i5-12600K - RAM DDR4 32 Go à 3200 MHz - NVIDIA GeForce RTX 3080 Founder's Edition - Boîtier Lian-Li tout alu - Ventirad Noctua - Alimentation Seasonic 80+ Platinum - SSD WD Black PCIe - SSD Samsung 840 Pro (x2) - Disques durs 7200 tours/mn Toshiba (x2) et HGST - Graveur DVD Lite-On - Webcam Logitech C930e - Moniteur HP Omen X 35 (35" UWQHD dalle AMVA) - Clavier mécanique Logitech G710+ - Souris Razer Naga
Go to the top of the page
 
+Quote Post
iAPX
posté 20 Aug 2018, 11:36
Message #22


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 15 371
Inscrit : 4 Jan 2006
Lieu : dtq
Membre no 52 877



Citation (Rorqual @ 20 Aug 2018, 03:12) *
iAPX, SartMatt, vous vous bagarrez sur deux points différents, et avez sans doute tous les deux raison :
- oui Intel veut revenir dans la 3D grand public (jeu).
- oui Intel a de grandes chances de se planter à nouveau vu l'historique.

L'un n'exclut pas l'autre. Voilà voilà. smile.gif

Intel ne prétends pas faire de la 3D grand public pour les jeux.

C'est @SartMatt qui prétend cela, j'ai rarement vu autant d'Intel fanboyisme!!!

Un marché qui aurait pu être envisagé du temps du minage à base de GPU, et qui a disparu depuis plus d'un an (sauf pour les ânes qui ont continué à acheté des GPU pour ce-faire, on est largué ou pas!) excepté l'Ethereum dont la valeur est au cinquième de sa pointe. Comme aurait dit Gainsbourg "Hélas l'amour est délétère, comme l'Ethereum et les poppers".
Mais là il y a contraction du marché des cartes graphiques, avec -enfin- plus d'offre que de demande, des prix qui sont redescendu, nVidia qui doit attendre d'épuiser son stock actuel pour pouvoir présenter de nouvelles cartes sans totalement tuer son marché, etc.

Intel ne peut rentrer sur des marché grand-public: sa politique est d'en sortir petit à petit qu'il en est refoulé.
Tous les essais contraires ont été des échecs cuisants et ce qu'ils font de mieux pour jouer en 3D est d'accoler une GPU AMD Radeon dans un package de CPU Intel, démontrant à l'évidence leur inaptitude pour le jeu en 3D (tout l'inverse en OpenCL!).

Ce message a été modifié par iAPX - 20 Aug 2018, 12:06.


--------------------
Utilisateur de Mac depuis 1985 et possesseur de Mac depuis 2005. Utilisateur d'un PC Lenovo au travail, sous Windows, qui renforce ma passion pour les Mac!
Go to the top of the page
 
+Quote Post
Pascalou67200
posté 20 Aug 2018, 12:33
Message #23


Adepte de Macbidouille
*

Groupe : Membres
Messages : 253
Inscrit : 16 Feb 2016
Lieu : Strasbourg
Membre no 198 095



Citation (iAPX @ 20 Aug 2018, 12:36) *
Citation (Rorqual @ 20 Aug 2018, 03:12) *
iAPX, SartMatt, vous vous bagarrez sur deux points différents, et avez sans doute tous les deux raison :
- oui Intel veut revenir dans la 3D grand public (jeu).
- oui Intel a de grandes chances de se planter à nouveau vu l'historique.

L'un n'exclut pas l'autre. Voilà voilà. smile.gif

Intel ne prétends pas faire de la 3D grand public pour les jeux.

C'est @SartMatt qui prétend cela, j'ai rarement vu autant d'Intel fanboyisme!!!

Un marché qui aurait pu être envisagé du temps du minage à base de GPU, et qui a disparu depuis plus d'un an (sauf pour les ânes qui ont continué à acheté des GPU pour ce-faire, on est largué ou pas!) excepté l'Ethereum dont la valeur est au cinquième de sa pointe. Comme aurait dit Gainsbourg "Hélas l'amour est délétère, comme l'Ethereum et les poppers".
Mais là il y a contraction du marché des cartes graphiques, avec -enfin- plus d'offre que de demande, des prix qui sont redescendu, nVidia qui doit attendre d'épuiser son stock actuel pour pouvoir présenter de nouvelles cartes sans totalement tuer son marché, etc.

Intel ne peut rentrer sur des marché grand-public: sa politique est d'en sortir petit à petit qu'il en est refoulé.
Tous les essais contraires ont été des échecs cuisants et ce qu'ils font de mieux pour jouer en 3D est d'accoler une GPU AMD Radeon dans un package de CPU Intel, démontrant à l'évidence leur inaptitude pour le jeu en 3D (tout l'inverse en OpenCL!).

Question con : Si des jeux en OpenCL sortent, qui sera le plus puissant ??? Je pose la question car je connais OpenGL, mais OpenCL j'avoue que je connais pas.


--------------------
de l'iMac G4 au MacbookPro 2012. Déçu de la Pomme je suis passé du coté obscur de la force et s'amuse sur un Surface Laptop. Pour la mobilité c'est un OnePlus 5T.
Go to the top of the page
 
+Quote Post
iAPX
posté 20 Aug 2018, 12:39
Message #24


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 15 371
Inscrit : 4 Jan 2006
Lieu : dtq
Membre no 52 877



Citation (Pascalou67200 @ 20 Aug 2018, 07:33) *
...
Question con : Si des jeux en OpenCL sortent, qui sera le plus puissant ??? Je pose la question car je connais OpenGL, mais OpenCL j'avoue que je connais pas.

OpenCL est une technologie permettant de faire des calculs sur les GPU, similaire à cuda (nVidia) mais multiplateforme.

Dans un jeu on peut s'en servir pour des calculs physiques, de collision, etc.
La première exploitation a été la technologie PhysX d'abord sur une carte d'extension spécialisée (pas de GPU), puis implémenté par nVidia via cuda pour ses GPU.

OpenGL est une technologie de création/manipulation d'images, notamment en 3D, qui n'est pas concurrente d'OpenCL mais plutôt complémentaire.
Donc pas d'opposition ni comparaison smile.gif



--------------------
Utilisateur de Mac depuis 1985 et possesseur de Mac depuis 2005. Utilisateur d'un PC Lenovo au travail, sous Windows, qui renforce ma passion pour les Mac!
Go to the top of the page
 
+Quote Post
Pascalou67200
posté 20 Aug 2018, 13:05
Message #25


Adepte de Macbidouille
*

Groupe : Membres
Messages : 253
Inscrit : 16 Feb 2016
Lieu : Strasbourg
Membre no 198 095



Citation (iAPX @ 20 Aug 2018, 13:39) *
Citation (Pascalou67200 @ 20 Aug 2018, 07:33) *
...
Question con : Si des jeux en OpenCL sortent, qui sera le plus puissant ??? Je pose la question car je connais OpenGL, mais OpenCL j'avoue que je connais pas.

OpenCL est une technologie permettant de faire des calculs sur les GPU, similaire à cuda (nVidia) mais multiplateforme.

Dans un jeu on peut s'en servir pour des calculs physiques, de collision, etc.
La première exploitation a été la technologie PhysX d'abord sur une carte d'extension spécialisée (pas de GPU), puis implémenté par nVidia via cuda pour ses GPU.

OpenGL est une technologie de création/manipulation d'images, notamment en 3D, qui n'est pas concurrente d'OpenCL mais plutôt complémentaire.
Donc pas d'opposition ni comparaison smile.gif

Alors pourquoi Apple avandonne le support OpenCL alors que ce dernier ne propose pas de carte NVidia avec Cuda ? A moins que j'ai mal compris sur le support d'OpenCL sur macOS (futur version).

C'est un peu hors sujet mais comme toi et Matt êtes présent sur ce fil de discussion, j'en profite :-)

Donc CUDA et OpenCL, c'est grosso merdo des concurrents sur la même tâche ? Si c'est bien cela je suis d'accord sur l'avis de iAPX sur la partie Gamer. Mais tous les jeux sont CUDA et OpenGL/CL ?


--------------------
de l'iMac G4 au MacbookPro 2012. Déçu de la Pomme je suis passé du coté obscur de la force et s'amuse sur un Surface Laptop. Pour la mobilité c'est un OnePlus 5T.
Go to the top of the page
 
+Quote Post
iAPX
posté 20 Aug 2018, 13:52
Message #26


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 15 371
Inscrit : 4 Jan 2006
Lieu : dtq
Membre no 52 877



Citation (Pascalou67200 @ 20 Aug 2018, 08:05) *
Citation (iAPX @ 20 Aug 2018, 13:39) *
Citation (Pascalou67200 @ 20 Aug 2018, 07:33) *
...
Question con : Si des jeux en OpenCL sortent, qui sera le plus puissant ??? Je pose la question car je connais OpenGL, mais OpenCL j'avoue que je connais pas.

OpenCL est une technologie permettant de faire des calculs sur les GPU, similaire à cuda (nVidia) mais multiplateforme.

Dans un jeu on peut s'en servir pour des calculs physiques, de collision, etc.
La première exploitation a été la technologie PhysX d'abord sur une carte d'extension spécialisée (pas de GPU), puis implémenté par nVidia via cuda pour ses GPU.

OpenGL est une technologie de création/manipulation d'images, notamment en 3D, qui n'est pas concurrente d'OpenCL mais plutôt complémentaire.
Donc pas d'opposition ni comparaison smile.gif

Alors pourquoi Apple avandonne le support OpenCL alors que ce dernier ne propose pas de carte NVidia avec Cuda ? A moins que j'ai mal compris sur le support d'OpenCL sur macOS (futur version).

C'est un peu hors sujet mais comme toi et Matt êtes présent sur ce fil de discussion, j'en profite :-)

Donc CUDA et OpenCL, c'est grosso merdo des concurrents sur la même tâche ? Si c'est bien cela je suis d'accord sur l'avis de iAPX sur la partie Gamer. Mais tous les jeux sont CUDA et OpenGL/CL ?

Beaucoup de jeux n'utilisent ni cuda (propriétaire à nVidia) ni OpenCL pour la physique, préférant la faire gérer par la CPU (plus de souplesse et de portabilité cross-plateforme, notamment consoles!).

Quand au support d'OpenCL, pourtant créé par Apple, il va s'arrêter un jour, le remplaçant étant Metal sous macOS et iOS (Compute + Graphismes) avec une orientation vers l'unification des deux plateformes, ce qui serait positif sur Mac si les devs iOS portaient leurs jeux sur Mac, ce qui n'arrive quasiment jamais, et donc isole encore plus le Mac du monde des jeux PC/Consoles qu'avec OpenGL. Personne n'y gagnera sauf rares applications adaptées!


--------------------
Utilisateur de Mac depuis 1985 et possesseur de Mac depuis 2005. Utilisateur d'un PC Lenovo au travail, sous Windows, qui renforce ma passion pour les Mac!
Go to the top of the page
 
+Quote Post
iAPX
posté 20 Aug 2018, 20:26
Message #27


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 15 371
Inscrit : 4 Jan 2006
Lieu : dtq
Membre no 52 877



TL;DR l'annonce d'Intel c'était juste pour essayer de couper l'herbe sous le pied à nVidia qui a des annonces qui sont en train d'en faire trembler pas mal smile.gif

Nous y voilà, avec nVidia qui est en train d'annoncer les nouvelles RTX basées sur un moteur de Ray-Tracing et aussi un moteur de type Tensor, utilisant les deux pour le rendering (très intelligemment), mais aussi rendant le moteur de Tensor accessible pour faire du Machine Learning (phase d'apprentissage vu la puissance, mais potentiellement aussi utilisable pour l'exploitation bien que moins probable).

Une grosse claque pour Intel, si jamais ils avaient voulu se lancer dans les cartes graphiques 3D pour le jeu, puisque n'ayant rien de similaire, et surtout une claque sur les unités NPU d'Intel puisqu'un dispositif similaire est intégré dans certaines RTX, avec un nombre de Tops int8 & int4 à se rouler par terre pour un prix très très accessible.
nVidia reprend le dessus avec les RTX sur les unités NPU d'Intel et de Google, en les rendant accessible à tous, avec un prix que j'oserais appeler "modique".

Ça fout aussi une grosse branlée aux nouvelles CPU annoncées par Intel utilisant une extension à l'extension AVX-512 pour faire de l'int8 (et regrouper des instructions en int8 et int16) pour les calculs de type pseudo-neuronaux, avec facilement 2 ordres de grandeurs (x100 donc!) à prix similaire. Et ça se monte dans n'importe quel PC avec une bonne alim. On peut aussi en mettre plusieurs en parallèle (juste une affaire d'alim si on a fait essentiellement travailler les cartes sans trop de communication PCI-Express).

C'est une étape extrêmement importante que franchi nVidia aujourd'hui, comme ils le disent "aussi importante que cuda" qui a amené le GPGPU, ils amènent à la fois le Ray-Tracing de qualité, mais aussi le Machine Learning dans sa phase d'apprentissage (qui consomme incroyablement plus que l'autre phase, opérationnelle sur un iPhone elle), sur le Desktop de M. tout-le-monde. Donc dans 2ans dans des portables, même proches des formats d'Apple.

PS: le ratio performance/prix de la GeForce RTX 2070 est incroyable, et le DGX-2 avec 2 Pflops (2 000 Tflops à comparer aux CPU et joujoux Intel au même prix wink.gif ) est une tuerie absolue qui fait entrer dans le Top 300 des supercomputers avec juste un, et tout ça c'est pour 2018, avec des jeux adaptés et démontrés, et pas promis pour 2020 sans une seule image réelle par une société qui s'est vautrée à de nombreuses reprises!

Ce message a été modifié par iAPX - 20 Aug 2018, 21:35.


--------------------
Utilisateur de Mac depuis 1985 et possesseur de Mac depuis 2005. Utilisateur d'un PC Lenovo au travail, sous Windows, qui renforce ma passion pour les Mac!
Go to the top of the page
 
+Quote Post

Reply to this topicStart new topic
1 utilisateur(s) sur ce sujet (1 invité(s) et 0 utilisateur(s) anonyme(s))
0 membre(s) :

 



Nous sommes le : 29th March 2024 - 09:30