Raja Koduri passe de chez AMD à Intel, Réactions à la publication du 10/11/2017 |
Bienvenue invité ( Connexion | Inscription )
Raja Koduri passe de chez AMD à Intel, Réactions à la publication du 10/11/2017 |
10 Nov 2017, 00:00
Message
#1
|
|
BIDOUILLE Guru Groupe : Admin Messages : 55 342 Inscrit : 14 Jan 2001 Lieu : Paris Membre no 3 |
Raja Koduri a été ces dernières années directeur de la division graphique d'AMD (ex ATI).
Après un bref congé de 40 jours à la fin duquel il a annoncé son départ d'AMD, on a appris qu'il venait de décrocher un job chez Intel, où il va gérer la division graphique. Cela prouve qu'Intel veut maintenant se consacrer à fond à augmenter son savoir-faire dans ce domaine. On notera que cette annonce arrive peu de temps après qu'Intel a annoncé son premier partenariat actif avec AMD pour proposer des processeurs adossés à des puces Radeon. Pour finir, Raja Koduri a aussi travaillé chez Apple entre 2009 et 2013. Il aurait durant cette période été responsable de la transition des Mac vers les écrans Retina. Lien vers le billet original -------------------- C'est parce que la vitesse de la lumière est plus grande que celle du son que tant de gens paraissent brillants avant d'avoir l'air con
|
|
|
10 Nov 2017, 00:27
Message
#2
|
|
Macbidouilleur d'Or ! Groupe : Membres Messages : 7 010 Inscrit : 24 Jan 2014 Lieu : La Vienne Membre no 189 026 |
une apple watch à son bras ?
plus sérieusement, typiquement une pointure de haut niveau. C'est amusant la vision qu'à Intel d'un "partenariat" ou alors c'est arrangé entre les deux compagnies ? -------------------- ——
Çà c'est ma création, un podcast associatif racontant une histoire de SF : http://reduniverse.fr La plus grande saga galactique jamais racontée en podcast :) Tout homme qui dirige, qui fait quelque chose, a contre lui ceux qui voudraient faire la même chose, ceux qui font précisément le contraire et surtout la grande armée des gens d'autant plus sévères qu'ils ne font rien du tout. JULES CLARETIE |
|
|
10 Nov 2017, 01:35
Message
#3
|
|
Macbidouilleur de bronze ! Groupe : Membres Messages : 392 Inscrit : 15 Aug 2017 Membre no 202 990 |
A ce rythme là, on va bientôt apprendre le rachat d’AMD par Intel.
Je sais que ça ferai hurler certains ici, mais sur le CPU, AMD doit réaliser que les jeux sont faits. Ils n’ont plus aucune chance sur un marché qui de toute façon est en perte de vitesse (les PCs). Autant se rapporcher d’Intel pour leur apporter une expérience sur une des cordes qui manque à l’arc d’Intel : les GPUs puissants. Ce message a été modifié par DonaldKwak - 10 Nov 2017, 01:52. -------------------- "Dites, monsieur le président, c'est vrai que comme dit mon papa vous nous espionnez sur internet ?"
"Il exagère. Et puis c'est pas ton père d'ailleurs" |
|
|
10 Nov 2017, 02:16
Message
#4
|
|
Macbidouilleur d'Or ! Groupe : Membres Messages : 15 383 Inscrit : 4 Jan 2006 Lieu : dtq Membre no 52 877 |
A ce rythme là, on va bientôt apprendre le rachat d’AMD par Intel. Je sais que ça ferai hurler certains ici, mais sur le CPU, AMD doit réaliser que les jeux sont faits. Ils n’ont plus aucune chance sur un marché qui de toute façon est en perte de vitesse (les PCs). Autant se rapporcher d’Intel pour leur apporter une expérience sur une des cordes qui manque à l’arc d’Intel : les GPUs puissants. Ils ont en face d'eux une déferlante, celle de la mobilité, qu'ils ont totalement loupé dans les deux cas, ça va être dur! -------------------- Utilisateur de Mac depuis 1985 et possesseur de Mac depuis 2005. Utilisateur d'un PC Lenovo au travail, sous Windows, qui renforce ma passion pour les Mac!
|
|
|
10 Nov 2017, 04:38
Message
#5
|
|
Macbidouilleur de bronze ! Groupe : Membres Messages : 392 Inscrit : 15 Aug 2017 Membre no 202 990 |
Ils ont en face d'eux une déferlante, celle de la mobilité, qu'ils ont totalement loupé dans les deux cas, ça va être dur! Personne n’a vu le truc venir. Il fallait avoir les bonnes cartes au bon moment et savoir s’en servir. C’est un peu comme Nvidia et l’intelligence artificielle. Ils n’avaient aucune idée que les GPUs allaient être au coeur des réseaux de neurone. Ce sont des utilisateurs qui ont détourné l’usage des GPU. Nvidia a flairé le truc et cela a donné naissance à CUDA. AMD avait ici une bonne carte à jouer mais ils ont manqué cette opportunité. Mais on peut aussi rater des virages. Si on regarde les langages de programmation, Python à complétement manqué la mobilité car un langage interprété consomme trop d’énergie et c’est une vraie galère de faire un JIT en Python pour des raisons historiques (alors que cela a été très bien fait en javascript). Pourtant Python se comporte encore bien. Dans le même genre, Intel avait totalement raté le passage au 64 bits. C’est AMD qui a fait les choix du x86-64. Et pourtant... Donc il ne faut surement pas être aussi définitif je pense. Ce qui est bien avec l’avenir, c’est qu’il est bourré de surprises. Ce message a été modifié par DonaldKwak - 10 Nov 2017, 06:17. -------------------- "Dites, monsieur le président, c'est vrai que comme dit mon papa vous nous espionnez sur internet ?"
"Il exagère. Et puis c'est pas ton père d'ailleurs" |
|
|
10 Nov 2017, 07:17
Message
#6
|
|
Macbidouilleur d'Or ! Groupe : Membres Messages : 7 162 Inscrit : 24 Sep 2015 Lieu : Pays d'Aix Membre no 196 570 |
Une News intéressante également est la confirmation de l'achat par Apple d'une startup qui montre qu'ils sont en chemin pour se passer des capteurs photo Sony
http://www.patentlyapple.com/patently-appl...l#disqus_thread -------------------- Bobo du Pays d'Aix et Fanboy Apple
|
|
|
10 Nov 2017, 08:48
Message
#7
|
|
BIDOUILLE Guru Groupe : Admin Messages : 55 342 Inscrit : 14 Jan 2001 Lieu : Paris Membre no 3 |
Je soupçonne Intel et AMD d'avoir derrière la tête qu'Intel finisse par racheter la division GPU. AMD pourrait continuer à intégrer les chips Radeon dans ses CPU dans le cadre de cet accord, mais ne produira plus de cartes dédiées.
AMD s'est encore planté avec ses GPU Vega et n'a pas les moyens de refaire son retard sur Nvidia. Il faudrait pour cela énormément d'argent en R&D. DE son côté, Intel ne peut pas produire de puce graphique même dédiée sans payer des royalties sur le portefeuille de brevets d'AMD ou de Nvidia. -------------------- C'est parce que la vitesse de la lumière est plus grande que celle du son que tant de gens paraissent brillants avant d'avoir l'air con
|
|
|
10 Nov 2017, 10:10
Message
#8
|
|
Macbidouilleur de bronze ! Groupe : Membres Messages : 392 Inscrit : 15 Aug 2017 Membre no 202 990 |
Je soupçonne Intel et AMD d'avoir derrière la tête qu'Intel finisse par racheter la division GPU. C’est bien possible. Mais si c’est le cas, il leur reste quoi à AMD ? Je ne sais pas quel est la proportion des CPUs dans le chiffre d’affaire d’AMD, mais j’ai peur que cela ne leur permette pas de survivre si ils lachent les GPU. Ce message a été modifié par DonaldKwak - 10 Nov 2017, 10:33. -------------------- "Dites, monsieur le président, c'est vrai que comme dit mon papa vous nous espionnez sur internet ?"
"Il exagère. Et puis c'est pas ton père d'ailleurs" |
|
|
10 Nov 2017, 11:09
Message
#9
|
|
Macbidouilleur d'Or ! Groupe : Membres Messages : 9 744 Inscrit : 9 Nov 2001 Lieu : Pays d’Aix Membre no 1 255 |
Par curiosité(*), j’ai cherché sur le net ce qui se dit du gars en question…
Sa page sur le site amd est effacée, il n’existe plus. Il existe maintenant chez Intel. C’est tout. (*) oui, je voulais juste savoir… son physique fait « sans âge ». Finalement je n’ai pas trouvé. Ce message a été modifié par g4hd - 10 Nov 2017, 11:13. -------------------- Mac Studio M1max 32 Go 1 To - Sonoma - Eizo 27" + Nec 21" - usage PAO
MBp14 M2pro 16 Go 1 To - Sonoma - iPhone 15 128 - iWatch 6 abonné VVMac |
|
|
10 Nov 2017, 11:35
Message
#10
|
|
Macbidouilleur d'Or ! Groupe : Membres Messages : 1 827 Inscrit : 11 Apr 2012 Membre no 175 864 |
Par curiosité(*), j’ai cherché sur le net ce qui se dit du gars en question… Sa page sur le site amd est effacée, il n’existe plus. Il existe maintenant chez Intel. C’est tout. (*) oui, je voulais juste savoir… son physique fait « sans âge ». Finalement je n’ai pas trouvé. Il a 49 ans d'après son profil chez Bloomberg. |
|
|
11 Nov 2017, 14:26
Message
#11
|
|
Macbidouilleur d'Or ! Groupe : Membres Messages : 15 383 Inscrit : 4 Jan 2006 Lieu : dtq Membre no 52 877 |
Ils ont en face d'eux une déferlante, celle de la mobilité, qu'ils ont totalement loupé dans les deux cas, ça va être dur! Personne n’a vu le truc venir. Il fallait avoir les bonnes cartes au bon moment et savoir s’en servir. C’est un peu comme Nvidia et l’intelligence artificielle. Ils n’avaient aucune idée que les GPUs allaient être au coeur des réseaux de neurone. Ce sont des utilisateurs qui ont détourné l’usage des GPU. Nvidia a flairé le truc et cela a donné naissance à CUDA. AMD avait ici une bonne carte à jouer mais ils ont manqué cette opportunité. Mais on peut aussi rater des virages. Si on regarde les langages de programmation, Python à complétement manqué la mobilité car un langage interprété consomme trop d’énergie et c’est une vraie galère de faire un JIT en Python pour des raisons historiques (alors que cela a été très bien fait en javascript). Pourtant Python se comporte encore bien. Dans le même genre, Intel avait totalement raté le passage au 64 bits. C’est AMD qui a fait les choix du x86-64. Et pourtant... Donc il ne faut surement pas être aussi définitif je pense. Ce qui est bien avec l’avenir, c’est qu’il est bourré de surprises. Pour les GPU oui, avec les Shaders programmable, un immense progrès qui a été entre autre utilisé pour du traitement d'image. Pour Python c'"est assez évident en regardant le code-source de CPython, notamment la partie qui interprète un "GET" pour aller chercher un atribut (au sens générique du terme), car avec l Moneky Patching, tout est possible, et ça fout bien la merde, mais même en JIT il y a des solutions implémentables Je pense qu'ils sont morts pour la mobilité, non pas faute de capacité technique, mais faute d'une structuration qui ne leur permet pas d'interagir et furnir ce que désirent les clientsdans ce domaine, notamment en terme de flexibilité, c'est pour moi leur plus gros écueil! -------------------- Utilisateur de Mac depuis 1985 et possesseur de Mac depuis 2005. Utilisateur d'un PC Lenovo au travail, sous Windows, qui renforce ma passion pour les Mac!
|
|
|
Nous sommes le : 23rd April 2024 - 20:13 |