IPB

Bienvenue invité ( Connexion | Inscription )

 
Reply to this topicStart new topic
> Raja Koduri passe de chez AMD à Intel, Réactions à la publication du 10/11/2017
Options
Lionel
posté 10 Nov 2017, 00:00
Message #1


BIDOUILLE Guru
*****

Groupe : Admin
Messages : 50 250
Inscrit : 14 Jan 2001
Lieu : Paris
Membre no 3



Raja Koduri a été ces dernières années directeur de la division graphique d'AMD (ex ATI).

Après un bref congé de 40 jours à la fin duquel il a annoncé son départ d'AMD, on a appris qu'il venait de décrocher un job chez Intel, où il va gérer la division graphique.
Cela prouve qu'Intel veut maintenant se consacrer à fond à augmenter son savoir-faire dans ce domaine.
On notera que cette annonce arrive peu de temps après qu'Intel a annoncé son premier partenariat actif avec AMD pour proposer des processeurs adossés à des puces Radeon.

Pour finir, Raja Koduri a aussi travaillé chez Apple entre 2009 et 2013. Il aurait durant cette période été responsable de la transition des Mac vers les écrans Retina.

Lien vers le billet original



--------------------
C'est parce que la vitesse de la lumière est plus grande que celle du son que tant de gens paraissent brillants avant d'avoir l'air con
Go to the top of the page
 
+Quote Post
raoulito
posté 10 Nov 2017, 00:27
Message #2


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 4 814
Inscrit : 24 Jan 2014
Lieu : Casablanca
Membre no 189 026



une apple watch à son bras biggrin.gif ?

plus sérieusement, typiquement une pointure de haut niveau. C'est amusant la vision qu'à Intel d'un "partenariat" ou alors c'est arrangé entre les deux compagnies ?


--------------------
  • Du G3 blue&white 1999 1Go de Ram au macbook pro I5 13" 2011, avec 8 Go de ram et un SSD samsung 850 evo.
  • une fois mon vénérable iMac 24 pouces 2006 devenu une TV, bonjour au mac mini i5, SSD 256, 16go de ram
  • et lui-même passe la main à un imac 27 5K (mi-2017), 24 go de ram, 256 SSD (vitesse lumière) et Polaris 570 (avec un ecran dell 4k comme secondaire)
Début sur Mac aux Beaux-Arts, en 1995, c'etait des LCII, ma première fois. Du coup j'ai foncé.. Sur Amiga 1200 avec Cartes d'extensions etc.. Haaaa que de souvenirs.. :P
Macbidouille? Je les suis depuis.. les tous débuts il me semble.
Et çà c'est ma création, un podcast associatif racontant une histoire de SF : http://reduniverse.fr La plus grande saga galactique jamais racontée en podcast :)
Go to the top of the page
 
+Quote Post
DonaldKwak
posté 10 Nov 2017, 01:35
Message #3


Adepte de Macbidouille
*

Groupe : Membres
Messages : 230
Inscrit : 15 Aug 2017
Membre no 202 990



A ce rythme là, on va bientôt apprendre le rachat d’AMD par Intel.

Je sais que ça ferai hurler certains ici, mais sur le CPU, AMD doit réaliser que les jeux sont faits. Ils n’ont plus aucune chance sur un marché qui de toute façon est en perte de vitesse (les PCs). Autant se rapporcher d’Intel pour leur apporter une expérience sur une des cordes qui manque à l’arc d’Intel : les GPUs puissants.

Ce message a été modifié par DonaldKwak - 10 Nov 2017, 01:52.


--------------------
"Dites, monsieur le président, c'est vrai que comme dit mon papa vous nous espionnez sur internet ?"
"Il exagère. Et puis c'est pas ton père d'ailleurs"
Go to the top of the page
 
+Quote Post
iAPX
posté 10 Nov 2017, 02:16
Message #4


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 7 314
Inscrit : 4 Jan 2006
Lieu : Montréal
Membre no 52 877



Citation (DonaldKwak @ 9 Nov 2017, 20:35) *
A ce rythme là, on va bientôt apprendre le rachat d’AMD par Intel.

Je sais que ça ferai hurler certains ici, mais sur le CPU, AMD doit réaliser que les jeux sont faits. Ils n’ont plus aucune chance sur un marché qui de toute façon est en perte de vitesse (les PCs). Autant se rapporcher d’Intel pour leur apporter une expérience sur une des cordes qui manque à l’arc d’Intel : les GPUs puissants.

Ils ont en face d'eux une déferlante, celle de la mobilité, qu'ils ont totalement loupé dans les deux cas, ça va être dur!


--------------------
Un Mac obsolète, un iPhone qui suit la même voie.
Portraitiste et amateur de garde-temps, avec un coté Dorian Gray.
Go to the top of the page
 
+Quote Post
DonaldKwak
posté 10 Nov 2017, 04:38
Message #5


Adepte de Macbidouille
*

Groupe : Membres
Messages : 230
Inscrit : 15 Aug 2017
Membre no 202 990



Citation (iAPX @ 10 Nov 2017, 03:16) *
Ils ont en face d'eux une déferlante, celle de la mobilité, qu'ils ont totalement loupé dans les deux cas, ça va être dur!


Personne n’a vu le truc venir. Il fallait avoir les bonnes cartes au bon moment et savoir s’en servir. C’est un peu comme Nvidia et l’intelligence artificielle. Ils n’avaient aucune idée que les GPUs allaient être au coeur des réseaux de neurone. Ce sont des utilisateurs qui ont détourné l’usage des GPU. Nvidia a flairé le truc et cela a donné naissance à CUDA. AMD avait ici une bonne carte à jouer mais ils ont manqué cette opportunité.

Mais on peut aussi rater des virages. Si on regarde les langages de programmation, Python à complétement manqué la mobilité car un langage interprété consomme trop d’énergie et c’est une vraie galère de faire un JIT en Python pour des raisons historiques (alors que cela a été très bien fait en javascript). Pourtant Python se comporte encore bien.
Dans le même genre, Intel avait totalement raté le passage au 64 bits. C’est AMD qui a fait les choix du x86-64. Et pourtant...

Donc il ne faut surement pas être aussi définitif je pense. Ce qui est bien avec l’avenir, c’est qu’il est bourré de surprises.

Ce message a été modifié par DonaldKwak - 10 Nov 2017, 06:17.


--------------------
"Dites, monsieur le président, c'est vrai que comme dit mon papa vous nous espionnez sur internet ?"
"Il exagère. Et puis c'est pas ton père d'ailleurs"
Go to the top of the page
 
+Quote Post
Hebus
posté 10 Nov 2017, 07:17
Message #6


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 3 606
Inscrit : 24 Sep 2015
Membre no 196 570



Une News intéressante également est la confirmation de l'achat par Apple d'une startup qui montre qu'ils sont en chemin pour se passer des capteurs photo Sony

http://www.patentlyapple.com/patently-appl...l#disqus_thread
Go to the top of the page
 
+Quote Post
Lionel
posté 10 Nov 2017, 08:48
Message #7


BIDOUILLE Guru
*****

Groupe : Admin
Messages : 50 250
Inscrit : 14 Jan 2001
Lieu : Paris
Membre no 3



Je soupçonne Intel et AMD d'avoir derrière la tête qu'Intel finisse par racheter la division GPU. AMD pourrait continuer à intégrer les chips Radeon dans ses CPU dans le cadre de cet accord, mais ne produira plus de cartes dédiées.
AMD s'est encore planté avec ses GPU Vega et n'a pas les moyens de refaire son retard sur Nvidia. Il faudrait pour cela énormément d'argent en R&D. DE son côté, Intel ne peut pas produire de puce graphique même dédiée sans payer des royalties sur le portefeuille de brevets d'AMD ou de Nvidia.


--------------------
C'est parce que la vitesse de la lumière est plus grande que celle du son que tant de gens paraissent brillants avant d'avoir l'air con
Go to the top of the page
 
+Quote Post
DonaldKwak
posté 10 Nov 2017, 10:10
Message #8


Adepte de Macbidouille
*

Groupe : Membres
Messages : 230
Inscrit : 15 Aug 2017
Membre no 202 990



Citation (Lionel @ 10 Nov 2017, 09:48) *
Je soupçonne Intel et AMD d'avoir derrière la tête qu'Intel finisse par racheter la division GPU.


C’est bien possible. Mais si c’est le cas, il leur reste quoi à AMD ? Je ne sais pas quel est la proportion des CPUs dans le chiffre d’affaire d’AMD, mais j’ai peur que cela ne leur permette pas de survivre si ils lachent les GPU.

Ce message a été modifié par DonaldKwak - 10 Nov 2017, 10:33.


--------------------
"Dites, monsieur le président, c'est vrai que comme dit mon papa vous nous espionnez sur internet ?"
"Il exagère. Et puis c'est pas ton père d'ailleurs"
Go to the top of the page
 
+Quote Post
g4hd
posté 10 Nov 2017, 11:09
Message #9


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 6 829
Inscrit : 9 Nov 2001
Lieu : Mucem et Fort St Jean
Membre no 1 255



Par curiosité(*), j’ai cherché sur le net ce qui se dit du gars en question…
Sa page sur le site amd est effacée, il n’existe plus.
Il existe maintenant chez Intel.
C’est tout.

(*) oui, je voulais juste savoir… son physique fait « sans âge ».
Finalement je n’ai pas trouvé.

Ce message a été modifié par g4hd - 10 Nov 2017, 11:13.


--------------------
Mac Pro Late 2013 - quad 3,7 - 32 Go - SSD 256 - High Sierra.1 - Promise R6 6To - Eizo Coloredge 27" + Nec 21,5" portrait - OKI C711cdtn
MacBook Pro 2016 13" - i5 2,0 - 8 Go - SSD 256 - High Sierra.1 - iPhone 8+ 64 - iOS 11.1
Go to the top of the page
 
+Quote Post
downanotch
posté 10 Nov 2017, 11:35
Message #10


Macbidouilleur de vermeil !
****

Groupe : Membres
Messages : 1 377
Inscrit : 11 Apr 2012
Membre no 175 864



Citation (g4hd @ 10 Nov 2017, 11:09) *
Par curiosité(*), j’ai cherché sur le net ce qui se dit du gars en question…
Sa page sur le site amd est effacée, il n’existe plus.
Il existe maintenant chez Intel.
C’est tout.

(*) oui, je voulais juste savoir… son physique fait « sans âge ».
Finalement je n’ai pas trouvé.

Il a 49 ans d'après son profil chez Bloomberg.
Go to the top of the page
 
+Quote Post
iAPX
posté 11 Nov 2017, 14:26
Message #11


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 7 314
Inscrit : 4 Jan 2006
Lieu : Montréal
Membre no 52 877



Citation (DonaldKwak @ 9 Nov 2017, 23:38) *
Citation (iAPX @ 10 Nov 2017, 03:16) *
Ils ont en face d'eux une déferlante, celle de la mobilité, qu'ils ont totalement loupé dans les deux cas, ça va être dur!


Personne n’a vu le truc venir. Il fallait avoir les bonnes cartes au bon moment et savoir s’en servir. C’est un peu comme Nvidia et l’intelligence artificielle. Ils n’avaient aucune idée que les GPUs allaient être au coeur des réseaux de neurone. Ce sont des utilisateurs qui ont détourné l’usage des GPU. Nvidia a flairé le truc et cela a donné naissance à CUDA. AMD avait ici une bonne carte à jouer mais ils ont manqué cette opportunité.

Mais on peut aussi rater des virages. Si on regarde les langages de programmation, Python à complétement manqué la mobilité car un langage interprété consomme trop d’énergie et c’est une vraie galère de faire un JIT en Python pour des raisons historiques (alors que cela a été très bien fait en javascript). Pourtant Python se comporte encore bien.
Dans le même genre, Intel avait totalement raté le passage au 64 bits. C’est AMD qui a fait les choix du x86-64. Et pourtant...

Donc il ne faut surement pas être aussi définitif je pense. Ce qui est bien avec l’avenir, c’est qu’il est bourré de surprises.

Pour les GPU oui, avec les Shaders programmable, un immense progrès qui a été entre autre utilisé pour du traitement d'image.

Pour Python c'"est assez évident en regardant le code-source de CPython, notamment la partie qui interprète un "GET" pour aller chercher un atribut (au sens générique du terme), car avec l Moneky Patching, tout est possible, et ça fout bien la merde, mais même en JIT il y a des solutions implémentables smile.gif

Je pense qu'ils sont morts pour la mobilité, non pas faute de capacité technique, mais faute d'une structuration qui ne leur permet pas d'interagir et furnir ce que désirent les clientsdans ce domaine, notamment en terme de flexibilité, c'est pour moi leur plus gros écueil!


--------------------
Un Mac obsolète, un iPhone qui suit la même voie.
Portraitiste et amateur de garde-temps, avec un coté Dorian Gray.
Go to the top of the page
 
+Quote Post

Reply to this topicStart new topic
1 utilisateur(s) sur ce sujet (1 invité(s) et 0 utilisateur(s) anonyme(s))
0 membre(s) :

 



Nous sommes le : 24th November 2017 - 04:54