IPB

Bienvenue invité ( Connexion | Inscription )

 
Reply to this topicStart new topic
> Nvidia lance ses Titan V, Réactions à la publication du 08/12/2017
Options
Lionel
posté 8 Dec 2017, 07:27
Message #1


BIDOUILLE Guru
*****

Groupe : Admin
Messages : 55 329
Inscrit : 14 Jan 2001
Lieu : Paris
Membre no 3



Nvidia a annoncé sa nouvelle gamme de cartes graphiques, les Titan V.

Son nouveau haut de gamme sera produit en 12nm chez TSMC (contre 16 nm pour la Titan X) et utilisera le nouveau design Volta.
Le TDP restera à 250W malgré la nouvelle finesse de gravure.

La société annonce que son nouveau monstre sera capable de développer 110 TeraFLOPS en Deep Learning. En revanche, il ne sera pas possible de brancher le moindre écran dessus, elle n'a pas de connecteur et n'est dédiée qu'à l'accélération GP-GPU.

Son prix de démarrage est de 3000$, la carte étant actuellement sans concurrence.

Lien vers le billet original



--------------------
C'est parce que la vitesse de la lumière est plus grande que celle du son que tant de gens paraissent brillants avant d'avoir l'air con
Go to the top of the page
 
+Quote Post
DonaldKwak
posté 8 Dec 2017, 08:19
Message #2


Macbidouilleur de bronze !
**

Groupe : Membres
Messages : 392
Inscrit : 15 Aug 2017
Membre no 202 990



Ca va être très dur pour toute société voulant les concurrencer dans le Deep Learning. J'ai 2 remarques :

Carte graphique : Cela n'a plus beaucoup de sens d'appeler ce genre de produit une carte graphique. Je pense que le mot d'accélérateur convient mieux. En particulier, cette carte n'est pas pensée du tout pour des applications graphiques. Bien sur, elle sera surement très bien pour cela, mais ce serait jeter l'argent par les fenêtres que de l'acheter à cet usage. J'ai vu des joueurs trouver que le prix de ces cartes était beaucoup trop haut. Que ce soit clair, que vous soyez joueur au utilisateur de 3DS Max, cette carte n'est pas faite pour vous. La confusion vient surement de la marque "Titan" qui est plutôt connue pour des cartes très haut de gamme pour les joueurs. Ici, ce n'est plus du tout le cas. C'est surement du au fait que la Titan X s'est vendue comme des petits pains pour ceux qui font du deep learning. On demandait même aux fabriquant de serveurs de les inclure dans leurs offres alors que la Titan X est une carte active (avec son propre système de refroidissement) et donc n'est pas du tout pensée pour cela.

Deep learning : Pour ce qui est d'entrainer des réseaux de neurones convolutionnels (CNN), cette carte va être une tuerie. Ces types de réseaux de neurones sont ceux utilisés pour la reconnaissance d'image ou de vidéos. Cela sera peut-être aussi bien pour les réseaux de neurones récurrents, mais je suis moins sur. Pour les CNN, l'application est limitée par le nombre de flops et la bande passante. Pour vous donner une idée:
MacBook Pro récent:
Flops/s, double: 160 GFlops/s
Flops/s, float: 320 GFlops/s
Flops/s, half: impossible
Bande passante: 25 GB/s

Dual-Xeon Skylake 6140:
Flops/s, double: 2 400 GFlops/s
Flops/s, float: 4 800 GFlops/s
Flops/s, half: impossible
Bande passante: 220 GB/s

Titan V:
Flops/s, double: 7 500 GFlops/s (pas encore sur)
Flops/s, float: 15 000 GFlops/s
Flops/s, half: 30 000 GFlops/s (pas encore sur)
Bande passante: 600 GB/s

De plus, la Titan V a une sorte de TPU intégré, qui permet de faire des opérations sur des sortes de nombres à virgule fixe avec une mantisse sur 8 bits. Il peut faire 110 000 GOps/s ! Nvidia abuse un peu en parlant de Flops, car ce ne sont pas des nombres flottants. C'est plus quelque chose qui se rapproche des entiers.

PS : Attention, le nombre de GFlops/s est en général assez déconnecté de la performance des applications tournant sur le matériel. Mais pour entrainer les CNN, c'est très lié.

Ce message a été modifié par DonaldKwak - 8 Dec 2017, 08:23.


--------------------
"Dites, monsieur le président, c'est vrai que comme dit mon papa vous nous espionnez sur internet ?"
"Il exagère. Et puis c'est pas ton père d'ailleurs"
Go to the top of the page
 
+Quote Post
DonaldKwak
posté 8 Dec 2017, 10:37
Message #3


Macbidouilleur de bronze !
**

Groupe : Membres
Messages : 392
Inscrit : 15 Aug 2017
Membre no 202 990



Une autre demande personnelle pour Lionel : Est-ce qu’il serait possible d’arrêter de parler de finesse de gravure ? C’est vraiment fatiguant d’entendre parler de ces choses qui sont inutiles et qui n’ont qu’un intérêt : exciter les kékés qui n’y connaissent rien. Et plus les médias en parlent, plus les fabriquants sont heureux de communiquer sur toutes ces spécifications inutiles. Cela leur permet de ne pas communiquer sur ce qui est utile.

Par exemple, quelle sont les capacités de cette carte en half-precision (16 bits), en double précision (64-bits) ? Anandtech a mis des points d’interrogations devant des chiffres, mais Nvidia ne semble pas communiquer dessus. Du coup, on ne sait rien.

La finesse de gravure est un moyen (moins de consommation, plus de performances), pas un but. Le but est plus de performance avec moins d’energie. Les deux meilleurs processeurs actuels (Intel Xeon Skylake, IBM Power 9) sont gravés en 14nm. Cela ne les empêche pas de dominer d’autres processeurs gravés en 10nm.

PS : Bon, je suis quand même content d'apprendre par macbidouille la sortie de cette carte. Je vais attendre un peu que les frameworks de Deep Learning supportent Cuda 9 qui est nécessaire pour le Volta, et je pense qu'il y aura rapidement une Titan X d'occasion à vendre :-)

Ce message a été modifié par DonaldKwak - 8 Dec 2017, 13:48.


--------------------
"Dites, monsieur le président, c'est vrai que comme dit mon papa vous nous espionnez sur internet ?"
"Il exagère. Et puis c'est pas ton père d'ailleurs"
Go to the top of the page
 
+Quote Post
LeonardMichalon
posté 8 Dec 2017, 19:40
Message #4


Macbidouilleur de bronze !
**

Groupe : Membres
Messages : 263
Inscrit : 3 Nov 2017
Membre no 203 659



Citation (DonaldKwak @ 8 Dec 2017, 10:37) *
[b]La finesse de gravure est un moyen (moins de consommation, plus de performances), pas un but. Le but est plus de performance avec moins d’energie.

LOOOOOOOOOL!!!! Merci pour le fou rire!
- Tu vas à la pêche?
- Non, je vais à la pêche.
- Ah bon, je croyais que t'allais à la pêche.


--------------------
JE SUIS FOLAS EN SHORT.
Go to the top of the page
 
+Quote Post
Guest_anonym_d019ede3_*
posté 8 Dec 2017, 20:28
Message #5





Guests






Citation (DonaldKwak @ 8 Dec 2017, 10:37) *
Par exemple, quelle sont les capacités de cette carte en half-precision (16 bits), en double précision (64-bits) ? Anandtech a mis des points d’interrogations devant des chiffres, mais Nvidia ne semble pas communiquer dessus. Du coup, on ne sait rien.

Un article qui en dit un peu plus ici:
La Titan V offre une puissance délirante de 13,8 Teraflops en simple précision et 6,9 Teraflops en double précision.

http://www.01net.com/actualites/nvidia-tit...ia-1322346.html
Go to the top of the page
 
+Quote Post
DonaldKwak
posté 8 Dec 2017, 20:47
Message #6


Macbidouilleur de bronze !
**

Groupe : Membres
Messages : 392
Inscrit : 15 Aug 2017
Membre no 202 990



Citation (bigmechantmou @ 8 Dec 2017, 20:28) *
La Titan V offre une puissance délirante de 13,8 Teraflops en simple précision et 6,9 Teraflops en double précision.
http://www.01net.com/actualites/nvidia-tit...ia-1322346.html


C’est un très bon article. Par contre je ne sais pas d’ou viennent ces chiffres. Anandtech en donne d’autres légérements différents. À mon avis, comme c’est la puce de la V100 qui est downclockée, ils doivent faire une règle de 3 à partir des perfs de la V100. Nvidia ne veut visiblement pas communiquer la dessus afin que tous les kékés gobent le 110 TFlops/s.

Reste qu’en 32-bits, on passerait d’une Titan X à 12 TFlops/s à une Titan V à 14 TFlops/s. Pas de quoi foueter un chat. Par contre la grosse nouveauté, ce serait une performance correcte en flottants 64 bits (pour le calcul HPC classique) et en 16 bits (pour le Deep Learning).
Pour le TPU, j’ai regardé les specs du V100 et ils font effectivement des vrais nombres flottants. Ce sont donc bien des Flops/s contrairement à d’autres implémentations. Grosso modo, ils font des produit scalaire avec des flottants 16 bits et le résultat est accumulé sur un flottant 32 bit. C’est un très bon compromis. Bref, cette carte va être une tuerie pour entrainer des réseaux de neurones.

Ce message a été modifié par DonaldKwak - 8 Dec 2017, 21:27.


--------------------
"Dites, monsieur le président, c'est vrai que comme dit mon papa vous nous espionnez sur internet ?"
"Il exagère. Et puis c'est pas ton père d'ailleurs"
Go to the top of the page
 
+Quote Post
Hebus
posté 9 Dec 2017, 10:48
Message #7


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 7 134
Inscrit : 24 Sep 2015
Lieu : Pays d'Aix
Membre no 196 570



Un truc marrant ...

Une lib publiée par Apple pour du ML, qui tourne aussi sous Linux et Windows et qui peut utiliser Cuda... biggrin.gif

https://github.com/apple/turicreate/blob/master/README.md

Vient de leur achat de Turi


--------------------
Bobo du Pays d'Aix et Fanboy Apple
Go to the top of the page
 
+Quote Post
DonaldKwak
posté 9 Dec 2017, 12:30
Message #8


Macbidouilleur de bronze !
**

Groupe : Membres
Messages : 392
Inscrit : 15 Aug 2017
Membre no 202 990



Citation (Hebus @ 9 Dec 2017, 10:48) *
Vient de leur achat de Turi


C'est comme les paniers garnis. La plupart est à jeter :-)


--------------------
"Dites, monsieur le président, c'est vrai que comme dit mon papa vous nous espionnez sur internet ?"
"Il exagère. Et puis c'est pas ton père d'ailleurs"
Go to the top of the page
 
+Quote Post

Reply to this topicStart new topic
1 utilisateur(s) sur ce sujet (1 invité(s) et 0 utilisateur(s) anonyme(s))
0 membre(s) :

 



Nous sommes le : 29th March 2024 - 11:57