IPB

Bienvenue invité ( Connexion | Inscription )

 
Reply to this topicStart new topic
> Nvidia patche ses pilotes pour la faille Spectre, Réactions à la publication du 11/01/2018
Options
Lionel
posté 11 Jan 2018, 00:00
Message #1


BIDOUILLE Guru
*****

Groupe : Admin
Messages : 50 827
Inscrit : 14 Jan 2001
Lieu : Paris
Membre no 3



Nvidia a publié des pilotes Windows afin de combler la faille Spectre sur ses puces. Cela concerne les Geforce, Quadro. Ceux destinés aux puces Tesla arriveront plus tard.
Nous n'avions pas pensé que les puces graphiques pouvaient aussi être touchées par cette faille. On aura donc aussi certainement droit à des mises à jour de pilotes graphiques sous macOS. Notez qu'il sera difficile de quantifier une éventuelle baisse de performances, les pilotes d'Apple étant assez désastreux dans ce domaine.

[MàJ] Nvidia propose ses mises à jour sous macOS également. Pour AMD, à moins d'un miracle et que ses puces ne soient pas touchées, il faudra donc attendre une mise à jour de la part d'Apple.

Lien vers le billet original



--------------------
C'est parce que la vitesse de la lumière est plus grande que celle du son que tant de gens paraissent brillants avant d'avoir l'air con
Go to the top of the page
 
+Quote Post
zero
posté 11 Jan 2018, 00:06
Message #2


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 10 824
Inscrit : 25 Nov 2001
Membre no 1 397



A mon avis, la faille doit être "bouchée" à tous les bas niveaux pour être le plus efficace possible. De toutes façons, tant que les CPU ne seront pas modifiés, ça ne sera qu'une protection superficielle.

Ce message a été modifié par zero - 11 Jan 2018, 00:08.
Go to the top of the page
 
+Quote Post
__otto__
posté 11 Jan 2018, 03:16
Message #3


Macbidouilleur de vermeil !
****

Groupe : Membres
Messages : 1 226
Inscrit : 28 Mar 2011
Membre no 165 999



Citation (zero @ 11 Jan 2018, 00:06) *
A mon avis, la faille doit être "bouchée" à tous les bas niveaux pour être le plus efficace possible. De toutes façons, tant que les CPU ne seront pas modifiés, ça ne sera qu'une protection superficielle.

Et sur GPU, rien de plus facile que d'avoir accès à la mémoire globale GPU! Quand un onglet firefox devient la texture de mon bunny de stanford dans mon moteur 3D (suite une erreur de mon interface chaise/clavier) c'est risible et pourtant c'est une sacré faille!!!!!!!!!!!


--------------------
Je suis plus Charlie depuis que
je suis écouté

Mac Plus, SE 30, mac si, mac ci,mac lc (1,2,3,4), ppc (presque toutes les machines sauf les G5), imac 2011, macbook pro 2012
i7 3.4ghz, 16 go ram, ssd 512 Mo, 1 To HDD, GTX 1080 + GTX 980 histoire de dire, bref un pulvérisateur de mac pro!
Go to the top of the page
 
+Quote Post
broitman
posté 11 Jan 2018, 08:44
Message #4


Macbidouilleur de bronze !
**

Groupe : Membres
Messages : 364
Inscrit : 2 Nov 2008
Lieu : HongKong
Membre no 124 847



Reactif

Go to the top of the page
 
+Quote Post
WipeOut
posté 11 Jan 2018, 09:32
Message #5


Macbidouilleur d'argent !
***

Groupe : Membres
Messages : 729
Inscrit : 27 Jun 2004
Lieu : Suisse
Membre no 20 512



Chute de performance ?


--------------------
Mac Pro (Fin 2013) 6-Core Intel Xeon E5 / Ram 16 GB / 2xD500 / Mac OS X 10.10.x / 2x Asus PB238 / 2x Airport Extreme AC Tower / iPhone 5s / MacBook Pro 13" 2009 / Mac Mini alias MediaCenter

PC Gaming ONLY : i5-4670K, Asus Sabertooth Z87 C2, Ram 16 GB, EVGA GTX980 Ti SSC ACX 2.0+, Tour Carbide 540 Air, Ventirad Noctua NH-D15, Alim 750W CORSAIR HX750i, Ventilos : Be Quiet! & Noctua
Go to the top of the page
 
+Quote Post
valery.jm
posté 11 Jan 2018, 11:06
Message #6


Adepte de Macbidouille
*

Groupe : Membres
Messages : 193
Inscrit : 18 Oct 2005
Membre no 48 135



huh.gif Petit bug Lionel !

Quand je clique sur le lien du billet original, ça me renvoie à la news ??

Comment fait-on sur PC pour la mise à jour des drivers de la carte vidéo ? Pas comme sur Mac, ça n'est pas proposé en ligne ?
Go to the top of the page
 
+Quote Post
marc_os
posté 11 Jan 2018, 11:57
Message #7


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 5 827
Inscrit : 21 Apr 2006
Membre no 59 799



Citation (Lionel @ 11 Jan 2018, 00:00) *
[...] Notez qu'il sera difficile de quantifier une éventuelle baisse de performances, les pilotes d'Apple étant assez désastreux dans ce domaine.

C'est vrai, j'avais oublié le fait qu'Apple est responsable des performances des drivers de Nvidia...
Nvidia fournit les drivers pour ses produits à Microsoft, mais côté Mac, c'est Apple qui les écrit, pas Nvidia ?

Ce message a été modifié par marc_os - 11 Jan 2018, 11:58.


--------------------
-----------------
--JE-------SUIS--
--AHMED-CHARLIE--
--CLARISSA-YOAV--
-----------------
Go to the top of the page
 
+Quote Post
raoulito
posté 11 Jan 2018, 12:38
Message #8


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 5 168
Inscrit : 24 Jan 2014
Lieu : Casablanca
Membre no 189 026



Citation (marc_os @ 11 Jan 2018, 10:57) *
Nvidia fournit les drivers pour ses produits à Microsoft, mais côté Mac, c'est Apple qui les écrit, pas Nvidia ?

ben oui, tout du moins pour les anciennes cartes encore d'active.


--------------------
  • Du G3 blue&white 1999 1Go de Ram au macbook pro I5 13" 2011, avec 8 Go de ram et un SSD samsung 850 evo.
  • une fois mon vénérable iMac 24 pouces 2006 devenu une TV, bonjour au mac mini i5, SSD 256, 16go de ram
  • et lui-même passe la main à un imac 27 5K (mi-2017), 24 go de ram, 256 SSD (vitesse lumière) et Polaris 570 (avec un ecran dell 4k comme secondaire)
  • iphone 3G / 3GS / 4 / 4S / 5 / 5S / 6 / 6S seuls les trois derniers sont encore en notre possession, mais plus pour longtemps concernant le 5S...

Début sur Mac aux Beaux-Arts, en 1995, c'etait des LCII, ma première fois. Du coup j'ai foncé.. Sur Amiga 1200 avec Cartes d'extensions etc.. Haaaa que de souvenirs.. :P
Macbidouille? Je les suis depuis.. les tous débuts il me semble.
Et çà c'est ma création, un podcast associatif racontant une histoire de SF : http://reduniverse.fr La plus grande saga galactique jamais racontée en podcast :)
Go to the top of the page
 
+Quote Post
PierreH
posté 11 Jan 2018, 12:52
Message #9


Macbidouilleur de vermeil !
****

Groupe : Membres
Messages : 1 343
Inscrit : 27 Jan 2002
Lieu : Paris / Grenoble / Ailleurs
Membre no 1 894



Exact, pour les cartes récentes, ils écrivent leurs propres drivers MacOS. Ok c'est peut être pas aussi optimisé que si c'était validé par la Pomme (quoique, c'est pas comme si Apple était connu pour ses performances graphiques...), mais ça a le mérite de permettre de mettre une carte actuelle dans un Mac Pro ancien. Ou dans un boitier GPU branché à un Mac Pro poubelle ou un MacBook en Thunderbolt.

Les Mac qui ont des Nvidia installées par Apple (portables plus anciens, certaines tours) pouvaient aussi passer aux drivers Nvidia, donc c'est surement toujours possible.


--------------------
"They that can give up essential liberty to obtain a little temporary safety deserve neither liberty nor safety."
-Benjamin Franklin, Historical Review of Pennsylvania.
Go to the top of the page
 
+Quote Post
iAPX
posté 11 Jan 2018, 14:56
Message #10


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 7 794
Inscrit : 4 Jan 2006
Lieu : Montréal
Membre no 52 877



Citation (zero @ 10 Jan 2018, 18:06) *
A mon avis, la faille doit être "bouchée" à tous les bas niveaux pour être le plus efficace possible. De toutes façons, tant que les CPU ne seront pas modifiés, ça ne sera qu'une protection superficielle.

Exactement ça.

nVidia est proactif, un des premirs acteurs à avoir compris les véritables fondements du problème pour Spectre, c'est que c'est -aussi- exploitable à travers des appels à un logiciel tiers, par exemple un Driver avec des droits au niveau du Kernel, surtout quand celui-ci fait des opérations répétitives et en partie paramétrables.

C'est maintnant la seconde vague d'attaques que nVidia anticipe, celles qui vont essayer de trouver du code exploitable dans le Noyau, ou dans les Device Driver présents, que l'on va probablement retrouver -aussi- dans des évolutions de Meltdown, puisque cette faille est "bouchée" dans un sens, mais pas dans l'autre, car une fois qu'on est dans le Kernel ou dans un Drivr, ils peuvent eux effectuer la lecture (ayant les TLB configurés corrcetement pour ce faire, ce qui n'est plus le ca pour les applications en UserSpace) et le pré-chargement du cache L1.

Une complication avec tous les dispositifs PCI-Express, et notamment les plus complexes, est qu'on peut déclencher une lecture mémoire via le bus PCI-Express, affectant potentiellement le cache L1 puisque c'est la CPU qui va effectuer la lecture, je me demande s'il n'y a pas là aussi des possibilités tongue.gif

La bug du side-channel avec le cache L1 et son leak d'information étant toujours présent, un des deux points résoudrait le problème que créé le changement de modèle au niveau des TLB!
Ça doit chauffer dur sur l'analyse statique de code de Driver et de Kernel!

@Donald-Kwak tu en penses quoi toi? Et @SartMatt?

Ce message a été modifié par iAPX - 11 Jan 2018, 15:45.


--------------------
Un Mac obsolète, un iPhone qui suit la même voie.
Amateur de garde-temps, portraitiste et marié avec un fan de Star Wars, devant supporter un buste de Storm Tropper et une Nissan Rogue One!
Go to the top of the page
 
+Quote Post
Anozer
posté 11 Jan 2018, 19:07
Message #11


Macbidouilleur de bronze !
**

Groupe : Membres
Messages : 266
Inscrit : 12 Aug 2007
Membre no 92 465



On est bien d'accord que NVidia ne propose pas de pilote pour les MacBook Pro et qui faudra que j'attende un correctif Apple ?


--------------------
Comprendre l'audio sur Mac
Go to the top of the page
 
+Quote Post
iAPX
posté 11 Jan 2018, 19:19
Message #12


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 7 794
Inscrit : 4 Jan 2006
Lieu : Montréal
Membre no 52 877



Citation (Anozer @ 11 Jan 2018, 13:07) *
On est bien d'accord que NVidia ne propose pas de pilote pour les MacBook Pro et qui faudra que j'attende un correctif Apple ?

Si il vient...


--------------------
Un Mac obsolète, un iPhone qui suit la même voie.
Amateur de garde-temps, portraitiste et marié avec un fan de Star Wars, devant supporter un buste de Storm Tropper et une Nissan Rogue One!
Go to the top of the page
 
+Quote Post
FmT
posté 11 Jan 2018, 19:28
Message #13


Nouveau Membre


Groupe : Membres
Messages : 7
Inscrit : 4 Aug 2015
Membre no 196 063



Mon macbook pro mid 2012 non retina avec nvidia 650m fonctionne avec les webdrivers Nvidia.
Voici le lien qui permet d'installer les drivers sur la derniere version de macos (10.13.2 build 17C205 avec correctif spectre)
https://images.nvidia.com/mac/pkg/378/WebDr...0.10.25.104.pkg

A priori les drivers supporte de base : Mac Pro 5,1 (2010), Mac Pro 4,1 (2009) and Mac Pro 3,1 (2008) iMac 14,2 / 14,3 (2013), iMac 13,1 / 13,2 (2012) and MacBook Pro 11,3 (2013), MacBook Pro 10,1 (2012), and MacBook Pro 9,1 (2012) users.
source : https://www.nvidia.com/download/driverResul...px/125379/en-us

Par contre je ne sais pas si ils incluent le patch spectre comme les drivers windows, mais vu qu'ils sont sortis aujourd'hui il y a des chances.

Ce message a été modifié par FmT - 11 Jan 2018, 19:31.
Go to the top of the page
 
+Quote Post
GIJoe
posté 11 Jan 2018, 20:35
Message #14


Ti plamb di maté
*****

Groupe : Membres
Messages : 2 001
Inscrit : 14 Feb 2005
Lieu : Dijon, Cassis, Moutarde et Gaule Romaine
Membre no 33 110



Citation (iAPX @ 11 Jan 2018, 19:19) *
Citation (Anozer @ 11 Jan 2018, 13:07) *
On est bien d'accord que NVidia ne propose pas de pilote pour les MacBook Pro et qui faudra que j'attende un correctif Apple ?

Si il vient...


erreur...

Ce message a été modifié par GIJoe - 11 Jan 2018, 20:36.


--------------------
iMac 27" i5 12 Go 1 To mid 2011 OSX 10.12.6 / iPone 6 64 Go iOs 11.2 mod A1586 / PM G4 1,25@1,4 GD 1,25G Ram aTi9000 *TIGER !
iMac400DV 512M Ram *TIGER / PM 8500 200MHz 144M Ram DD 8G/4G/.SCSI.*9.2.1/ PM 6100 66MHz ..Old man. / Ethernet + FreeBox 8M..Galaxy Tab 10.1 GT-P7510 Ice Cream Sandwich 4.0.4
Membre du club des AIPBP (Anciens Inscrits Pas Beaucoup de Posts) Voir la liste
Go to the top of the page
 
+Quote Post
DonaldKwak
posté 11 Jan 2018, 21:38
Message #15


Macbidouilleur de bronze !
**

Groupe : Membres
Messages : 288
Inscrit : 15 Aug 2017
Membre no 202 990



Sans grand rapport, mais je viens de recevoir une Titan V. J'ai fait quelques benchmarks avec TensorFlow 1.5.0 sur l'entrainement d'un réseau de neurones pour la reconnaissance d'images :

VGG-16
Dual-Xeon Skylake, 36 coeurs, AVX512, calcul 32 bits : base
Titan V, calcul 32 bits : 5.5 fois plus rapide que le Dual Xeon
Titan V, calcul 16 bits : 10.4 fois plus rapide que le Dual Xeon

Resnet152
Dual-Xeon Skylake, 36 coeurs, AVX512, calcul 32 bits : base
Titan V, calcul 32 bits : 39.1 fois plus rapide que le Dual Xeon
Titan V, calcul 16 bits : 53.6 fois plus rapide que le Dual Xeon
Autant les résultats avec le VGG-16 était attendu, autant les Xeons se prennent une méchante taule sur le Resnet 152. Il doit y avoir un truc qui va pas dans les optimisations d'Intel.

C'est avec le calcul en 16 bits qu'on utilise les TensorCores de la Titan. Donc même si nVidia annonce 110 TFlops en 16 bits, et 15 TFlops en 32 bits, le rapport du performance sur un réseau convolutif est seulement de 2.

Ce message a été modifié par DonaldKwak - 11 Jan 2018, 21:45.


--------------------
"Dites, monsieur le président, c'est vrai que comme dit mon papa vous nous espionnez sur internet ?"
"Il exagère. Et puis c'est pas ton père d'ailleurs"
Go to the top of the page
 
+Quote Post
iAPX
posté 11 Jan 2018, 21:42
Message #16


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 7 794
Inscrit : 4 Jan 2006
Lieu : Montréal
Membre no 52 877



Citation (DonaldKwak @ 11 Jan 2018, 15:38) *
...
C'est avec le calcul en 16 bits qu'on utilise les TensorCores de la Titan. Donc même si nVidia annonce 110 TFlops en 16 bits, et 15 TFlops en 32 bits, le rapport du performance sur un réseau convolutif est seulement de 2.
...

La bande-passante disponible pourrait-il être la limitation?

Car on a peu de bande-passante par TFlops, ou dit autrement, de plus en plus de cycle par donnée sortie (avec juste un rapport 2X en fp16) et que celle-ci peut être le facteur limitant pour une GPU moderne dans ses versions ls plus performantes.
Pour ça que j'utilise une vieille Radeon R9 280X avec 4Tflops au compteur (dans les bons jours, vent dans le dos, avec un peu d'EPO pour aider), mais surtout 280Go/s de bande-passante associée, celle-ci étant primordiale en OpenCL et souvent un facteur limitant.

Ton avis?

Ce message a été modifié par iAPX - 11 Jan 2018, 21:45.


--------------------
Un Mac obsolète, un iPhone qui suit la même voie.
Amateur de garde-temps, portraitiste et marié avec un fan de Star Wars, devant supporter un buste de Storm Tropper et une Nissan Rogue One!
Go to the top of the page
 
+Quote Post
DonaldKwak
posté 11 Jan 2018, 21:48
Message #17


Macbidouilleur de bronze !
**

Groupe : Membres
Messages : 288
Inscrit : 15 Aug 2017
Membre no 202 990



Citation (iAPX @ 11 Jan 2018, 21:42) *
Car on a peu de bande-passante par TFlops, ou dit autrement, de plus en plus de cycle par donnée sortie (avec juste un rapport 2X en fp16) et que celle-ci peut être le facteur limitant pour une GPU moderne dans ses versions ls plus performantes.


C'est possible. Je ne sais pas quel batch size le benchmark utilise (plus il est grand, plus on est compute bound). Mais ça arrache quand même. Bref, nVidia poursuit tranquillement son avance avec un x10 par rapport à Intel sur l'entrainement en deep learning :-(

Je vais essayer de faire des multiplications matricielles en 16-bit pour pousser vers les 110 TFlops. Mais il va falloir faire cela en C++ car j'ai l'impression que PyTorch et TensorFlow ne savent pas appeler les bonnes fonctions pour le moment.

Ce message a été modifié par DonaldKwak - 11 Jan 2018, 21:50.


--------------------
"Dites, monsieur le président, c'est vrai que comme dit mon papa vous nous espionnez sur internet ?"
"Il exagère. Et puis c'est pas ton père d'ailleurs"
Go to the top of the page
 
+Quote Post
iAPX
posté 11 Jan 2018, 21:55
Message #18


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 7 794
Inscrit : 4 Jan 2006
Lieu : Montréal
Membre no 52 877



Citation (DonaldKwak @ 11 Jan 2018, 15:48) *
Citation (iAPX @ 11 Jan 2018, 21:42) *
Car on a peu de bande-passante par TFlops, ou dit autrement, de plus en plus de cycle par donnée sortie (avec juste un rapport 2X en fp16) et que celle-ci peut être le facteur limitant pour une GPU moderne dans ses versions ls plus performantes.


C'est possible. Je ne sais pas quel batch size le benchmark utilise (plus il est grand, plus on est compute bound). Mais ça arrache quand même. Bref, nVidia poursuit tranquillement son avance avec un x10 par rapport à Intel sur l'entrainement en deep learning :-(

Je vais essayer de faire des multiplications matricielles en 16-bit pour pousser vers les 110 TFlops. Mais il va falloir faire cela en C++ car j'ai l'impression que PyTorch et TensorFlow ne savent pas appeler les bonnes fonctions pour le moment.

Salope! Tu sais que je ne peux pas commenter certains parties que tu as écrites? laugh.gif

Mais oui, il faut essayer d'en tirer le meilleur, même s'il est évident à ce point qu'il faut des unités spécialisées, que ça soit dans des CPU (comme la partie NPU des nouveaux Ax d'Apple) ou dans les GPU, car elles peuvent aussi être utilisées différemment, et depuis qu'on a abordé le Dark Silicium, avec la disparité entre le très bas coût de production et le coût élevé d'alimentation (en fonctionnement), ces unités pourraient complèter celles d'AVX, très différemment, pour fournir des services matriciels intégrés.


--------------------
Un Mac obsolète, un iPhone qui suit la même voie.
Amateur de garde-temps, portraitiste et marié avec un fan de Star Wars, devant supporter un buste de Storm Tropper et une Nissan Rogue One!
Go to the top of the page
 
+Quote Post
Hebus
posté 11 Jan 2018, 22:06
Message #19


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 3 929
Inscrit : 24 Sep 2015
Membre no 196 570



Soyez sympas, faites nous un cours détaillé là, qu’on comprenne un peu...
Go to the top of the page
 
+Quote Post
iAPX
posté 11 Jan 2018, 22:16
Message #20


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 7 794
Inscrit : 4 Jan 2006
Lieu : Montréal
Membre no 52 877



Citation (Hebus @ 11 Jan 2018, 16:06) *
Soyez sympas, faites nous un cours détaillé là, qu’on comprenne un peu...

Je pense que @DonaldKwak sera bien placé pour te parler de fp16 sur les GPU les plus récentes. Les Vega sont spéciales de ce point-de vue d'ailleurs.

Ça serait bon que tu nous en parle, tu en penses quoi?

Ce message a été modifié par iAPX - 11 Jan 2018, 22:23.


--------------------
Un Mac obsolète, un iPhone qui suit la même voie.
Amateur de garde-temps, portraitiste et marié avec un fan de Star Wars, devant supporter un buste de Storm Tropper et une Nissan Rogue One!
Go to the top of the page
 
+Quote Post
DonaldKwak
posté 11 Jan 2018, 23:51
Message #21


Macbidouilleur de bronze !
**

Groupe : Membres
Messages : 288
Inscrit : 15 Aug 2017
Membre no 202 990



Citation (iAPX @ 11 Jan 2018, 22:16) *
Je pense que @DonaldKwak sera bien placé pour te parler de fp16 sur les GPU les plus récentes. Les Vega sont spéciales de ce point-de vue d'ailleurs.


Ce sont des Volta chez nVidia. Vega, c'est pour les losers de chez AMD :-)

Les Flops/s c'est le nombre d'opérations par seconde que peut faire un processeur sur des nombres flottants. L'ordre de grandeur actuel du nombre de Flops/s est de 1 Tera Flops/s, soit mille milliards d'opérations par seconde. Les processeurs récents sont pensés pour optimiser les applications d'algèbre linéaire et atteignent leur performance maximale lors de la multiplication de deux matrices n x n avec n assez grand (de l'ordre de 10 000). Il y a historiquement 2 types de nombres flottants prédominants : les flottants 64 bits (fp64, 16 chiffres significatifs) et les flottants 32 bits (fp32, 7 chiffres significatifs). Mais depuis peu, on fait aussi des nombres flottants 16 bits (fp16, 3 chiffres significatifs) que l'on utilise en deep learning. Les CPU savent travailler avec les fp64 et fp32 et la performance en fp32 est la moitié de la performance en fp16. Les GPU savent travailler en fp32 et les GPUs haut de gamme font aussi du fp64 et maintenant du fp16. La Titan V (qui est une version low cost de la V100, le haut de gamme de nVidia) permet de faire de manière efficace des fp64 et fp32. La multiplication de matrices denses est le domaine ou les GPUs sont les rois. Pour vous donner une idée, voici les performances de quelques processeurs. Ce sont des performances que j'ai mesurées. Si je n'indique pas un fp64 ou fp16, c'est que ce n'est pas possible sur la machine donnée où que les performances sont anémiques.

Un Intel Core i7, 4 coeurs, AVX2:
fp64: 0.15 TFlops/s
fp32: 0.30 TFlops/s

Un Dual-Skylake, 36 coeurs, AVX512
fp64: 2.0 TFlops/s
fp32: 4.0 TFlops/s

Une Titan X Pascal
fp32: 10.0 TFlops/s (annoncé à 12 par nVidia)

Une Titan V
fp64: 6.0 TFlops/s
fp32: 12.0 TFlops/s
fp16: 74.0 TFlops/s (annoncé à 110 par nVidia)

Un iMac Pro haut de gamme (18 coeurs) va tourner surement autour de 1.0 TFlops/s en fp64 et 2.0 TFlops/s en fp32 sur le CPU. Pour le GPU, je n'en ai aucune idée.

Bref, on comprend pourquoi l'entrainement des réseaux de neurones se fait principalement sur GPU. En pratique, sur un VGG16 (un réseau de neurones), la Titan V est 5 fois plus rapide que le Dual-Skylake en fp32, et 10 fois plus rapide en fp16. Donc même si le chiffre de 74.0 TFlops/s est impressionnant comparé aux 12.0 TFlops/s (rapport de 6), en pratique les frameworks actuels sont seulement 2 fois plus rapides en fp16 qu'en fp32.

Ce message a été modifié par DonaldKwak - 11 Jan 2018, 23:59.


--------------------
"Dites, monsieur le président, c'est vrai que comme dit mon papa vous nous espionnez sur internet ?"
"Il exagère. Et puis c'est pas ton père d'ailleurs"
Go to the top of the page
 
+Quote Post
iAPX
posté 12 Jan 2018, 01:39
Message #22


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 7 794
Inscrit : 4 Jan 2006
Lieu : Montréal
Membre no 52 877



Citation (DonaldKwak @ 11 Jan 2018, 17:51) *
Citation (iAPX @ 11 Jan 2018, 22:16) *
Je pense que @DonaldKwak sera bien placé pour te parler de fp16 sur les GPU les plus récentes. Les Vega sont spéciales de ce point-de vue d'ailleurs.


Ce sont des Volta chez nVidia. Vega, c'est pour les losers de chez AMD :-)
...

Très intéressant, notamment tes mesures en AVX-512 sur des CPU et surtout bi-CPU, ça laisse de la marge d'évolution, ntoamment avec du dark silicon.

Juste dommage que tout ça soit factuellment inexact en parlant de loser avec AMD laugh.gif

Ce message a été modifié par iAPX - 12 Jan 2018, 01:40.


--------------------
Un Mac obsolète, un iPhone qui suit la même voie.
Amateur de garde-temps, portraitiste et marié avec un fan de Star Wars, devant supporter un buste de Storm Tropper et une Nissan Rogue One!
Go to the top of the page
 
+Quote Post
Anozer
posté 12 Jan 2018, 17:54
Message #23


Macbidouilleur de bronze !
**

Groupe : Membres
Messages : 266
Inscrit : 12 Aug 2007
Membre no 92 465



Citation (FmT @ 11 Jan 2018, 19:28) *
Mon macbook pro mid 2012 non retina avec nvidia 650m fonctionne avec les webdrivers Nvidia.
Voici le lien qui permet d'installer les drivers sur la derniere version de macos (10.13.2 build 17C205 avec correctif spectre)
https://images.nvidia.com/mac/pkg/378/WebDr...0.10.25.104.pkg

A priori les drivers supporte de base : Mac Pro 5,1 (2010), Mac Pro 4,1 (2009) and Mac Pro 3,1 (2008) iMac 14,2 / 14,3 (2013), iMac 13,1 / 13,2 (2012) and MacBook Pro 11,3 (2013), MacBook Pro 10,1 (2012), and MacBook Pro 9,1 (2012) users.
source : https://www.nvidia.com/download/driverResul...px/125379/en-us

Par contre je ne sais pas si ils incluent le patch spectre comme les drivers windows, mais vu qu'ils sont sortis aujourd'hui il y a des chances.


Merci. J'ai exactement le même modèle !


--------------------
Comprendre l'audio sur Mac
Go to the top of the page
 
+Quote Post
Hebus
posté 12 Jan 2018, 18:02
Message #24


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 3 929
Inscrit : 24 Sep 2015
Membre no 196 570



Citation (iAPX @ 12 Jan 2018, 01:39) *
Citation (DonaldKwak @ 11 Jan 2018, 17:51) *
Citation (iAPX @ 11 Jan 2018, 22:16) *
Je pense que @DonaldKwak sera bien placé pour te parler de fp16 sur les GPU les plus récentes. Les Vega sont spéciales de ce point-de vue d'ailleurs.


Ce sont des Volta chez nVidia. Vega, c'est pour les losers de chez AMD :-)
...

Très intéressant, notamment tes mesures en AVX-512 sur des CPU et surtout bi-CPU, ça laisse de la marge d'évolution, ntoamment avec du dark silicon.

Juste dommage que tout ça soit factuellment inexact en parlant de loser avec AMD laugh.gif


Non mais l’explication est sur la partie simple et claire de Donald, iAPX a botté en touche, mais c’est une explication sur ses envolées lyriques, ses racourcies flamboyant en parlant de cache de N niveaux, de EPO... de dark de mes deux... bref...

Faites un effort.

Donald, oui ça va les fp16, fp32... TF , GF ... ca devrait aller...merci en tous cas... tunes un prof en puissance wink.gif


Ce message a été modifié par Hebus - 12 Jan 2018, 18:04.
Go to the top of the page
 
+Quote Post
DonaldKwak
posté 12 Jan 2018, 20:31
Message #25


Macbidouilleur de bronze !
**

Groupe : Membres
Messages : 288
Inscrit : 15 Aug 2017
Membre no 202 990



Citation (Hebus @ 12 Jan 2018, 18:02) *
Non mais l’explication est sur la partie simple et claire de Donald, iAPX a botté en touche, mais c’est une explication sur ses envolées lyriques, ses racourcies flamboyant en parlant de cache de N niveaux, de EPO... de dark de mes deux... bref...
Donald, oui ça va les fp16, fp32... TF , GF ... ca devrait aller...merci en tous cas... tunes un prof en puissance wink.gif


J'ai aucune idée de ce qu'est le dark silicon. Donc je ne peux rien dire.

Pour le reste, je savais bien que tu connaissais tout cela. J'ai fait cela pour d'autres lecteurs. J'ai été prof pendant 9 ans, ça laisse des traces :-)


--------------------
"Dites, monsieur le président, c'est vrai que comme dit mon papa vous nous espionnez sur internet ?"
"Il exagère. Et puis c'est pas ton père d'ailleurs"
Go to the top of the page
 
+Quote Post
raoulito
posté 13 Jan 2018, 11:40
Message #26


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 5 168
Inscrit : 24 Jan 2014
Lieu : Casablanca
Membre no 189 026



Citation (DonaldKwak @ 12 Jan 2018, 19:31) *
J'ai aucune idée de ce qu'est le dark silicon. Donc je ne peux rien dire.


In electronics industry, dark silicon is the amount of circuitry of an integrated circuit that cannot be powered-on at the nominal operating voltage for a given thermal design power (TDP) constraint.
https://en.wikipedia.org/wiki/Dark_silicon

un autre prof depuis 9 ans! Mais moi je vais vers mes 10 an là biggrin.gif

Ce message a été modifié par raoulito - 13 Jan 2018, 11:41.


--------------------
  • Du G3 blue&white 1999 1Go de Ram au macbook pro I5 13" 2011, avec 8 Go de ram et un SSD samsung 850 evo.
  • une fois mon vénérable iMac 24 pouces 2006 devenu une TV, bonjour au mac mini i5, SSD 256, 16go de ram
  • et lui-même passe la main à un imac 27 5K (mi-2017), 24 go de ram, 256 SSD (vitesse lumière) et Polaris 570 (avec un ecran dell 4k comme secondaire)
  • iphone 3G / 3GS / 4 / 4S / 5 / 5S / 6 / 6S seuls les trois derniers sont encore en notre possession, mais plus pour longtemps concernant le 5S...

Début sur Mac aux Beaux-Arts, en 1995, c'etait des LCII, ma première fois. Du coup j'ai foncé.. Sur Amiga 1200 avec Cartes d'extensions etc.. Haaaa que de souvenirs.. :P
Macbidouille? Je les suis depuis.. les tous débuts il me semble.
Et çà c'est ma création, un podcast associatif racontant une histoire de SF : http://reduniverse.fr La plus grande saga galactique jamais racontée en podcast :)
Go to the top of the page
 
+Quote Post

Reply to this topicStart new topic
2 utilisateur(s) sur ce sujet (2 invité(s) et 0 utilisateur(s) anonyme(s))
0 membre(s) :

 



Nous sommes le : 16th January 2018 - 10:18