IPB

Bienvenue invité ( Connexion | Inscription )

2 Pages V  < 1 2  
Reply to this topicStart new topic
> Nvidia va lancer son nouveau haut de gamme pour les joueurs, la RTX 2080, Réactions à la publication du 21/08/2018
Options
Hans1311
posté 21 Aug 2018, 18:23
Message #31


Macbidouilleur de bronze !
**

Groupe : Membres
Messages : 397
Inscrit : 16 Oct 2012
Lieu : Novigrad
Membre no 179 744



20% de coeurs en plus, légère augmentation de la finesse de gravure et VRAM plus rapide: j'ai hâte de voir les tests mais on peut sans doute tabler sur une augmentation de perfs de l'ordre de 25% dans les jeux non ray tracés.

Dans les jeux où l'option "ray tracing" sera disponible, je me demande quel impact elle pourrait avoir sur les performances dans la mesure où la partie conventionnelle de la carte n'aura plus à calculer les ombres. D'un autre côté, la carte devra alors calculer des éléments hors champ pour pouvoir les refléter, donc je ne sais pas trop, wait and see!

Pour la 1080Ti, je me demande si sa sortie n'augure pas une génération plus courte (1 an seulement) destinée à rentabiliser cette techno en la vendant très cher à un public très enthousiaste (surtout compte tenu du manque de jeux compatibles au lancement).
(Note: ou à un public très peu averti, vu l'efficacité de la com de Nvidia qui annonce une augmentation de perfs d'un facteur 10, ce qui est vrai mais seulement pour les jeux ray tracés).

Ce message a été modifié par Hans1311 - 21 Aug 2018, 18:27.


--------------------
Mon hackintosh
Yosemite / i5 4690 (quad core 3,5Ghz) / GTX 760 / 8Go RAM / Samsung 850 Evo 250Go + plusieurs DD.
Boîtier: Fractal Define R5 + 5 Noctua NF-A14 ULN
Go to the top of the page
 
+Quote Post
otto87
posté 21 Aug 2018, 18:42
Message #32


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 2 228
Inscrit : 12 Jun 2009
Membre no 137 508



Citation (Sethy @ 21 Aug 2018, 18:48) *
Citation (otto87 @ 21 Aug 2018, 14:01) *
Pour être plus précis, ils ont trouvés une approche efficace en deep learning pour supprimer le bruit inhérent au path tracing se passant ainsi d'attendre que ça converge, ce qui permet pour la première fois d'avoir un coût de rendu quasiment fixe par image et de donc enfin pouvoir rentrer sérieusement dans le gaming.
Et pendant ce temps là, le haut de gamme de chez AMD arrive difficilement au niveau d'une GTX 1080 sorti il y a 2 ans tout en consommant plus laugh.gif .
Ca doit jaser dans l'équipe chargé du projet VR d'Apple rolleyes.gif


Pour ma part, je fais du GPGPU avec OpenCL (oui, je sais CUDA tout ça ...).

Penses-tu que cette génération de cartes est intéressante pour cet usage (calcul scientifique en GPGPU) ?


J'ai pas trop regardé les specs et les questions qui se posent ou pas :
- les unités orienté IA aka float 8 bit de mémoire, inutile hors IA.
- les RT core sont-ils exploitables pour le reste? est-ce des cores cuda optimisés RT?

Dans l'immédiat elle seront sûrement meilleurs en compute que les générations précédentes mais de peu... ou en tout cas, pas de quoi justifier l'achat sachant que les 10X0 vont mécaniquement baisser;Après tout dépend du cadre, être au top quelque soit le prix, le meilleurs rapport compute/prix, deep learning ou pas... budget ou pas... domaine de GPGPU (limité par le compute ou les accès vram?)
Mais bon en simulation scientifique, tu dois souvent avoir de l'ecc : sur un jeux à 100 fps, une incertitude sur les 2 derniers bit de précision, ça ne compte pas, en scientifique ça peut devenir dramatique (dédicace au centre de calcul de Strasbourg qui a fait la bourde de faire l'économie de la mémoire ECC laugh.gif avec des conséquences dramatiques!)

Ce message a été modifié par otto87 - 21 Aug 2018, 18:43.


--------------------
Ne vous plaignez pas, pour une fois notre gouvernement nous écoute SYSTEMATIQUEMENT!!!!!!
Niveau GPGPU je bosse sur un des 500 plus gros calculateur du monde....
Mac Plus, SE 30,SI,CI,LC 1,2,3,4,imac G3, G4 Tour,imac intel, mac book 13",Dell Precision
Go to the top of the page
 
+Quote Post
iAPX
posté 21 Aug 2018, 19:37
Message #33


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 15 383
Inscrit : 4 Jan 2006
Lieu : dtq
Membre no 52 877



Citation (Hans1311 @ 21 Aug 2018, 13:23) *
20% de coeurs en plus, légère augmentation de la finesse de gravure et VRAM plus rapide: j'ai hâte de voir les tests mais on peut sans doute tabler sur une augmentation de perfs de l'ordre de 25% dans les jeux non ray tracés.

Dans les jeux où l'option "ray tracing" sera disponible, je me demande quel impact elle pourrait avoir sur les performances dans la mesure où la partie conventionnelle de la carte n'aura plus à calculer les ombres. D'un autre côté, la carte devra alors calculer des éléments hors champ pour pouvoir les refléter, donc je ne sais pas trop, wait and see!

Pour la 1080Ti, je me demande si sa sortie n'augure pas une génération plus courte (1 an seulement) destinée à rentabiliser cette techno en la vendant très cher à un public très enthousiaste (surtout compte tenu du manque de jeux compatibles au lancement).
(Note: ou à un public très peu averti, vu l'efficacité de la com de Nvidia qui annonce une augmentation de perfs d'un facteur 10, ce qui est vrai mais seulement pour les jeux ray tracés).

Pas que 25% de performances en plus en fait: tout comme pour le Ray Tracing, on pourra générer dans une résolution intermédiaire plus faible et avoir le résultat scalé puis "amélioré" par les Tensor Core, permettant en pratique de gagner incroyablement à même résolution finale (ou d'augmenter celle-ci très efficacement).

J'aurais tendance à dire que les RTX 2080 sont comme les GTX 8800, une révolution qui a marqué l'histoire des GPU et autorisé de nouveaux usages, sans être nécessairement intrinsèquement bien plus rapide pour les anciens usages.
Il faut rappeler aussi qu'Unreal Engine 4 supporte le Ray-Tracing des RTX de manière optimisée, l'offrant ainsi à tous les jeux qui s'appuient dessus, avec déjà 21 jeux annoncés comme tels (supportant le Ray-Tracing des nVidia RTX).

Même si on ne s'intéresse qu'aux jeux en 3D, sans compter cuda, OpenCL ou l'utilisation des Tensor Core (ça m'a scié ça en grand-public dès 2018), je pense que les RTX sont d'excellentes cartes.

Ce message a été modifié par iAPX - 21 Aug 2018, 19:37.


--------------------
Utilisateur de Mac depuis 1985 et possesseur de Mac depuis 2005. Utilisateur d'un PC Lenovo au travail, sous Windows, qui renforce ma passion pour les Mac!
Go to the top of the page
 
+Quote Post
Sethy
posté 21 Aug 2018, 19:51
Message #34


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 2 168
Inscrit : 12 Jul 2011
Membre no 168 767



Citation (otto87 @ 21 Aug 2018, 19:42) *
J'ai pas trop regardé les specs et les questions qui se posent ou pas :
- les unités orienté IA aka float 8 bit de mémoire, inutile hors IA.
- les RT core sont-ils exploitables pour le reste? est-ce des cores cuda optimisés RT?

Dans l'immédiat elle seront sûrement meilleurs en compute que les générations précédentes mais de peu... ou en tout cas, pas de quoi justifier l'achat sachant que les 10X0 vont mécaniquement baisser;Après tout dépend du cadre, être au top quelque soit le prix, le meilleurs rapport compute/prix, deep learning ou pas... budget ou pas... domaine de GPGPU (limité par le compute ou les accès vram?)
Mais bon en simulation scientifique, tu dois souvent avoir de l'ecc : sur un jeux à 100 fps, une incertitude sur les 2 derniers bit de précision, ça ne compte pas, en scientifique ça peut devenir dramatique (dédicace au centre de calcul de Strasbourg qui a fait la bourde de faire l'économie de la mémoire ECC laugh.gif avec des conséquences dramatiques!)


C'est un peu (sans pouvoir l'expliquer) ce que je subodorais : Une très bonne carte pour certains usages.

Alors que jusqu'à présent, j'ai plutôt l'impression que tous les usages profitaient "équitablement" de l'augmentations de puissance qu'apportait une génération par rapport à la précédente.


--------------------
iMac 21,5" mid 2011 - core i7 - 24 GB - HD 6970M - Maverick
MacBook Air 2014 - core i3 - 8 GB - 128 GB - Maverick
iPad mini 1- 64 GB - iOS 7
Hack X99 - 970 GTX 2015 - Gigabyte X99-UD4 - i7 5830K - Yosemite - Unibeast Lien
DS-918+ - Syno Primary - DS-412+ - Syno Back-up

Go to the top of the page
 
+Quote Post
otto87
posté 21 Aug 2018, 20:01
Message #35


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 2 228
Inscrit : 12 Jun 2009
Membre no 137 508



Citation (iAPX @ 21 Aug 2018, 20:37) *
J'aurais tendance à dire que les RTX 2080 sont comme les GTX 8800, une révolution qui a marqué l'histoire des GPU et autorisé de nouveaux usages, sans être nécessairement intrinsèquement bien plus rapide pour les anciens usages.
Il faut rappeler aussi qu'Unreal Engine 4 supporte le Ray-Tracing des RTX de manière optimisée, l'offrant ainsi à tous les jeux qui s'appuient dessus, avec déjà 21 jeux annoncés comme tels (supportant le Ray-Tracing des nVidia RTX).

Même si on ne s'intéresse qu'aux jeux en 3D, sans compter cuda, OpenCL ou l'utilisation des Tensor Core (ça m'a scié ça en grand-public dès 2018), je pense que les RTX sont d'excellentes cartes.


C'est bien résumé et de toutes façons ce sont les meilleurs cartes du marché... de très très loin... AMD vient de se prendre une grosse claque...

Citation (Sethy @ 21 Aug 2018, 20:51) *
C'est un peu (sans pouvoir l'expliquer) ce que je subodorais : Une très bonne carte pour certains usages.

Alors que jusqu'à présent, j'ai plutôt l'impression que tous les usages profitaient "équitablement" de l'augmentations de puissance qu'apportait une génération par rapport à la précédente.


C'était déjà le cas avant, avec la titan de l'époque de la 980, je construisais une structure accélératrice construites pour chaque image avant de l'interroger : sur la 980 la construction était plus lente mais le parcours plus rapide que sur la Titan à cause d'une répartition différentes des core cuda et des cores pour les fragments de l'époque.
Mais bon ces nouvelles cartes garantissent d'avoir le top du top pendant 2 ans (le temps des 21X00) AMD ayant difficilement de quoi rivaliser d'ici là... au pire rattraper le retard... et d'avoir des GPU encore valable dans 6 ans, ce qui est énorme pour de l'informatique!

Ce message a été modifié par otto87 - 21 Aug 2018, 20:03.


--------------------
Ne vous plaignez pas, pour une fois notre gouvernement nous écoute SYSTEMATIQUEMENT!!!!!!
Niveau GPGPU je bosse sur un des 500 plus gros calculateur du monde....
Mac Plus, SE 30,SI,CI,LC 1,2,3,4,imac G3, G4 Tour,imac intel, mac book 13",Dell Precision
Go to the top of the page
 
+Quote Post
iAPX
posté 21 Aug 2018, 20:06
Message #36


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 15 383
Inscrit : 4 Jan 2006
Lieu : dtq
Membre no 52 877



Citation (otto87 @ 21 Aug 2018, 15:01) *
Citation (iAPX @ 21 Aug 2018, 20:37) *
J'aurais tendance à dire que les RTX 2080 sont comme les GTX 8800, une révolution qui a marqué l'histoire des GPU et autorisé de nouveaux usages, sans être nécessairement intrinsèquement bien plus rapide pour les anciens usages.
Il faut rappeler aussi qu'Unreal Engine 4 supporte le Ray-Tracing des RTX de manière optimisée, l'offrant ainsi à tous les jeux qui s'appuient dessus, avec déjà 21 jeux annoncés comme tels (supportant le Ray-Tracing des nVidia RTX).

Même si on ne s'intéresse qu'aux jeux en 3D, sans compter cuda, OpenCL ou l'utilisation des Tensor Core (ça m'a scié ça en grand-public dès 2018), je pense que les RTX sont d'excellentes cartes.


C'est bien résumé et de toutes façons ce sont les meilleurs cartes du marché... de très très loin... AMD vient de se prendre une grosse claque...
...

Plus qu'une claque, ils ont au moins un an de retard et probablement 2ans ou 3ans avec tout ce qui est intégré dans les RTX.

Et Intel qui vient de se vanter de prévoir faire une "carte graphique" pour des "pixels" en 2020, ils vont méchamment ramer si jamais ils visaient le grand-public (fort improbable), mais aussi pour vendre des unités NPU ou pour être compétitif en Tensor avec AVX-512 sur leurs CPU.

Ce message a été modifié par iAPX - 21 Aug 2018, 20:07.


--------------------
Utilisateur de Mac depuis 1985 et possesseur de Mac depuis 2005. Utilisateur d'un PC Lenovo au travail, sous Windows, qui renforce ma passion pour les Mac!
Go to the top of the page
 
+Quote Post
Hans1311
posté 21 Aug 2018, 20:09
Message #37


Macbidouilleur de bronze !
**

Groupe : Membres
Messages : 397
Inscrit : 16 Oct 2012
Lieu : Novigrad
Membre no 179 744



Citation (iAPX @ 21 Aug 2018, 20:37) *
Pas que 25% de performances en plus en fait [...]
Même si on ne s'intéresse qu'aux jeux en 3D, sans compter cuda, OpenCL ou l'utilisation des Tensor Core (ça m'a scié ça en grand-public dès 2018), je pense que les RTX sont d'excellentes cartes.


A l'évidence excellentes oui, hâte de voir précisément ce qu'elles donnent à l'usage, et surtout les cartes moins dotées que la 1080Ti utilisée lors des démos! smile.gif


--------------------
Mon hackintosh
Yosemite / i5 4690 (quad core 3,5Ghz) / GTX 760 / 8Go RAM / Samsung 850 Evo 250Go + plusieurs DD.
Boîtier: Fractal Define R5 + 5 Noctua NF-A14 ULN
Go to the top of the page
 
+Quote Post
sebacar
posté 21 Aug 2018, 20:59
Message #38


Macbidouilleur d'argent !
***

Groupe : Membres
Messages : 711
Inscrit : 27 Oct 2003
Membre no 10 936



Citation (otto87 @ 21 Aug 2018, 15:06) *
Citation (sebacar @ 21 Aug 2018, 14:47) *
Interessant, tu bosses ou et dans quoi exactement ? Tu as des softs de prédilections ? Ton moteur de rendu préféré, c'est octane ou redshift ? smile.gif


En fait je suis dans la recherche en informatique graphique, je suis plus celui qui fait des portions de moteurs qu'un utilisateur. Avec l'avantage d'avoir de bonne connections chez NV et de me taper les papiers de recherche. On se doutait bien du passage au RT, NV ayant fait le papier sur le denoising de RT wink.gif il y a quelque mois.Pour les moteur de rendu pro (genre pixar et co), l'annonce des modèles haut de gamme avec 48 Go de VRAM sont une très bonnes nouvelles : un des freins à l'utilisation des GPU sur les gros rendu étant la faible quantité de RAM comparé à la taille des assets! Mais bon 20k euros la carte laugh.gif

Pour ceux qui s'étonne de ne pas voir de bench mis en avant, c'est assez logique : on ne compare pas la rasterisation en millions de pixels par seconde à des millions de rayons par seconde. Ce n'est tout simplement pas comparable!

C'est bien sympa tout ça smile.gif
Go to the top of the page
 
+Quote Post
Alucard314159265
posté 22 Aug 2018, 01:39
Message #39


Adepte de Macbidouille
*

Groupe : Membres
Messages : 87
Inscrit : 15 Jul 2003
Lieu : Lyon 7ème
Membre no 8 600



Citation (iAPX @ 21 Aug 2018, 21:06) *
Citation (otto87 @ 21 Aug 2018, 15:01) *
Citation (iAPX @ 21 Aug 2018, 20:37) *
J'aurais tendance à dire que les RTX 2080 sont comme les GTX 8800, une révolution qui a marqué l'histoire des GPU et autorisé de nouveaux usages, sans être nécessairement intrinsèquement bien plus rapide pour les anciens usages.
Il faut rappeler aussi qu'Unreal Engine 4 supporte le Ray-Tracing des RTX de manière optimisée, l'offrant ainsi à tous les jeux qui s'appuient dessus, avec déjà 21 jeux annoncés comme tels (supportant le Ray-Tracing des nVidia RTX).

Même si on ne s'intéresse qu'aux jeux en 3D, sans compter cuda, OpenCL ou l'utilisation des Tensor Core (ça m'a scié ça en grand-public dès 2018), je pense que les RTX sont d'excellentes cartes.


C'est bien résumé et de toutes façons ce sont les meilleurs cartes du marché... de très très loin... AMD vient de se prendre une grosse claque...
...

Plus qu'une claque, ils ont au moins un an de retard et probablement 2ans ou 3ans avec tout ce qui est intégré dans les RTX.

Et Intel qui vient de se vanter de prévoir faire une "carte graphique" pour des "pixels" en 2020, ils vont méchamment ramer si jamais ils visaient le grand-public (fort improbable), mais aussi pour vendre des unités NPU ou pour être compétitif en Tensor avec AVX-512 sur leurs CPU.

Si Intel y arrive, ça veut dire concurrence pour nVidia et baisse de prix pour nous.
Comme avec Ryzen par exemple.

En parlant de Ryzen, c'est un peu Jim Keller qui en est l'origine et il s'est fait débauché par Raja Koduri pour bosser avec lui chez Intel pour faire des CPU/GPU d'après la presse.
Donc, moi et mon portefeuille on a envie d'y croire pour Intel 2020 (surtout que Raja Koduri s'est barré parce qu'il ne voyait pas d'avenir chez AMD donc je compte pas trop sur ce dernier)

En attendant, le raytracing j'en rêve depuis que je sais que ça existe et j'ai commencé la hype il y a plus de dix ans avec Quake 3: Ray Traced donc on va se faire une raison et remplacer la 1070 Ti par une 2070 (J'ai dit non à la VR et à la 4K, je ne peux pas résister à tout et surtout pas à ça).
Et puis je n'aimerais pas rater le come back des lens flare, miroirs, téléporteurs/portails et lampe de poches que les DA ne manqueront pas de nous coller partout biggrin.gif
30 ans de modes dans les moteurs 3D à remettre au goût du jour en ray tracing photo réaliste!


--------------------
Tout est bien qui fini bien. Si c'est pas bien, c'est que ce n'est pas fini.
Go to the top of the page
 
+Quote Post
iAPX
posté 22 Aug 2018, 02:51
Message #40


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 15 383
Inscrit : 4 Jan 2006
Lieu : dtq
Membre no 52 877



+1000


--------------------
Utilisateur de Mac depuis 1985 et possesseur de Mac depuis 2005. Utilisateur d'un PC Lenovo au travail, sous Windows, qui renforce ma passion pour les Mac!
Go to the top of the page
 
+Quote Post
Papalou
posté 22 Aug 2018, 07:28
Message #41


Macbidouilleur d'argent !
***

Groupe : Membres
Messages : 727
Inscrit : 8 Aug 2007
Membre no 92 144



Citation (otto87 @ 21 Aug 2018, 16:54) *
Citation (Papalou @ 21 Aug 2018, 16:35) *
Même si ce n'est pas comparable comme tu le dis, pour beaucoup d'utilisateurs hors 3D, il serait néanmoins intéressant d'avoir une idée des éventuels progrès de rendu sur le reste des "modules" de ces cartes.


Je comprends bien, et je pense ne pas trop me tromper en disant que les gains seront relativement faibles. Les 20% de bande passante mémoire vont bien aider. Par contre le deep learning antialiasing pourrait jouer fortement sur les rendus au maximum

Mais ce qu'il faut comprendre c'est que c'est un saut technique :
- le coté RT qui mettra quelque années a se généraliser
- le coté IA qui lui aussi va décoller (la dernière puce des iphones à une partie optimisé pour l'IA)
Comparer cette génération à la précédente uniquement sur les anciennes utilisations revient à comparer un 4x4 à une twingo sur un parking et de conclure que la twingo est meilleure!


J'ai hâte de voir des benchs du coup… Parce que ma Twingo commence à dater et le 4x4 Quadro RTX5000 me fait de l'oeil


--------------------
Mac Mini 2012
Macbook Air 2013
Mac Pro 1,1
Mac Pro 5,1
HP EliteBook 840 G2
NUC7i3BNH - Core i3-7100U @ 2.4GHz - 16Go RAM - SSD Sata Sandisk 480Go
et tout une tripotée de stations i7 et Xeon.
Go to the top of the page
 
+Quote Post
Webtourist
posté 22 Aug 2018, 11:00
Message #42


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 1 736
Inscrit : 28 Oct 2008
Membre no 124 528



Citation (Lionel @ 21 Aug 2018, 07:20) *
Nvidia va lancer d'un moment à l'autre sa nouvelle carte graphique haut de gamme pour les joueurs, la RTX 2080.

Tous les détails ne sont pas encore connus

On en connait déjà quelques-uns:

RTX 2080 Ti : 4352 cores / 1350 MHz (boost 1545) / 11 Go GDDR6 (@616Go/s)
RTX 2080 : 2944 cores / 1515 MHz (boost 1710) / 8 Go GDDR6 (@448Go/s)
RTX 2070 : 2304 cores / 1410 MHz (boost 1620) / 8 Go GDDR6 (@448Go/s)

Chaque carte est aussi déclinée en version "FE", cad avec un boost supplémentaire de 100MHz wacko.gif

la question qui va se poser selon l'écart de performances et de prix (surtout si les "coeurs RT" ne sont pas une priorité):
GTX 1080 Ti vs. RTX 2080 ?
GTX 1080 vs. RTX 2070 ?

Ce message a été modifié par Webtourist - 22 Aug 2018, 11:15.


--------------------
AdBlock désactivé sur MB
Go to the top of the page
 
+Quote Post
Webtourist
posté 22 Aug 2018, 11:21
Message #43


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 1 736
Inscrit : 28 Oct 2008
Membre no 124 528



Citation (Lionel @ 21 Aug 2018, 07:20) *
la RTX 2080 [...] Ce sera la plus rapide Geforce jamais proposée et elle sera disponible à 1200$.

La plus rapide, commercialisée à 1260€ ici, sera plus exactement la : RTX 2080 Ti "Founders Edition"

C'est à dire une "RTX 2080 Ti" dont le boost monte 90MHz plus haut que la version non "FE"

Ce message a été modifié par Webtourist - 22 Aug 2018, 11:22.


--------------------
AdBlock désactivé sur MB
Go to the top of the page
 
+Quote Post
iAPX
posté 22 Aug 2018, 11:58
Message #44


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 15 383
Inscrit : 4 Jan 2006
Lieu : dtq
Membre no 52 877



Citation (Webtourist @ 22 Aug 2018, 06:00) *
...
la question qui va se poser selon l'écart de performances et de prix (surtout si les "coeurs RT" ne sont pas une priorité):
GTX 1080 Ti vs. RTX 2080 ?
GTX 1080 vs. RTX 2070 ?

Le rapport avec la GeForce 8800 GTX est évident, car les 79xx ont eu une très grande durée de vie, et je pense que les GTX 1080 (et 1080 Ti) seront mieux placées en rapport perf/prix sur les anciennes technologies 3D.
On devrait d'ailleurs en trouver d'occasion dans les mois qui vont venir, pour moi la meilleure opération si on ne veut pas de Ray Tracing et de Tensor Core.


--------------------
Utilisateur de Mac depuis 1985 et possesseur de Mac depuis 2005. Utilisateur d'un PC Lenovo au travail, sous Windows, qui renforce ma passion pour les Mac!
Go to the top of the page
 
+Quote Post
Anozer
posté 22 Aug 2018, 12:23
Message #45


Macbidouilleur de bronze !
**

Groupe : Membres
Messages : 323
Inscrit : 12 Aug 2007
Membre no 92 465



Quelqu'un a les volumes de ventes des GTX 10xx ?
Ici tout le monde semble d'accord sur le fait que NVidia a enterré tout le monde parce qu'ils ont des puces plus performantes. Mais personnellement je serais curieux de savoir qu'est-ce que le haut de gamme représente vraiment dans leur vente par rapport à des cartes plus accessibles pour les joueurs. Et comparer avec AMD dont on a quand même beaucoup parlé en 2017.
Cela permettrait peut être de mettre en perspective ces annonces de cartes hors normes et hors de prix.


--------------------
Comprendre l'audio sur Mac
Go to the top of the page
 
+Quote Post
otto87
posté 22 Aug 2018, 12:33
Message #46


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 2 228
Inscrit : 12 Jun 2009
Membre no 137 508



Citation (Anozer @ 22 Aug 2018, 13:23) *
Quelqu'un a les volumes de ventes des GTX 10xx ?
Ici tout le monde semble d'accord sur le fait que NVidia a enterré tout le monde parce qu'ils ont des puces plus performantes. Mais personnellement je serais curieux de savoir qu'est-ce que le haut de gamme représente vraiment dans leur vente par rapport à des cartes plus accessibles pour les joueurs. Et comparer avec AMD dont on a quand même beaucoup parlé en 2017.
Cela permettrait peut être de mettre en perspective ces annonces de cartes hors normes et hors de prix.


C'est pas très compliqué, le plus gros vendeur de GPU c'est intel...AMD doit être assez présent dans le moyen de gamme en jouant sur des marges faibles...NV truste le haut de gamme autour des 70% de PDM avec des marges hautes...
Et dans les domaines pros (rien avoir avec le pro d'apple hein, on parle de budget bien supérieur) comme le rendu ou la science, NV doit avoir 90% à 100% du marché suivant comment on le segmente... et là, la marge est énorme!


--------------------
Ne vous plaignez pas, pour une fois notre gouvernement nous écoute SYSTEMATIQUEMENT!!!!!!
Niveau GPGPU je bosse sur un des 500 plus gros calculateur du monde....
Mac Plus, SE 30,SI,CI,LC 1,2,3,4,imac G3, G4 Tour,imac intel, mac book 13",Dell Precision
Go to the top of the page
 
+Quote Post
otto87
posté 22 Aug 2018, 14:17
Message #47


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 2 228
Inscrit : 12 Jun 2009
Membre no 137 508



Si on regarde les bench de NV sur la comparaison raytraing Pascal/Turing, un élément semble fort intéressant ; les phase de rendu sont séparé en 3 :
- R pour rasterisation (méthode plus rapide pour les rayons primaires)
- S pour Shading basique
- RT pour Ray Tracing
Sur Turing la somme R+S est plus rapide que R seulement sur pascal! Même si on a pas les détails sur les 2 cartes utilisées, ca peut augurer de belles performances dans un usage "classique".


--------------------
Ne vous plaignez pas, pour une fois notre gouvernement nous écoute SYSTEMATIQUEMENT!!!!!!
Niveau GPGPU je bosse sur un des 500 plus gros calculateur du monde....
Mac Plus, SE 30,SI,CI,LC 1,2,3,4,imac G3, G4 Tour,imac intel, mac book 13",Dell Precision
Go to the top of the page
 
+Quote Post
otto87
posté 23 Aug 2018, 12:32
Message #48


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 2 228
Inscrit : 12 Jun 2009
Membre no 137 508



NV commence à balancer quelques résultats : en gros +50% pour la RTX 2080 par rapport à une GTX 1080 sur des jeux "classiques" en 4K avec des pointes à + de 100% pour les jeux qui acceptent l'antialiasing par deep learning. C'est donc une très bonne nouvelle!

Ce message a été modifié par otto87 - 23 Aug 2018, 12:34.


--------------------
Ne vous plaignez pas, pour une fois notre gouvernement nous écoute SYSTEMATIQUEMENT!!!!!!
Niveau GPGPU je bosse sur un des 500 plus gros calculateur du monde....
Mac Plus, SE 30,SI,CI,LC 1,2,3,4,imac G3, G4 Tour,imac intel, mac book 13",Dell Precision
Go to the top of the page
 
+Quote Post
comprendrien
posté 30 Aug 2018, 11:00
Message #49


Macbidouilleur de bronze !
**

Groupe : Membres
Messages : 387
Inscrit : 31 Jan 2005
Membre no 32 059



Citation (otto87 @ 22 Aug 2018, 13:33) *
Citation (Anozer @ 22 Aug 2018, 13:23) *
Quelqu'un a les volumes de ventes des GTX 10xx ?
Ici tout le monde semble d'accord sur le fait que NVidia a enterré tout le monde parce qu'ils ont des puces plus performantes. Mais personnellement je serais curieux de savoir qu'est-ce que le haut de gamme représente vraiment dans leur vente par rapport à des cartes plus accessibles pour les joueurs. Et comparer avec AMD dont on a quand même beaucoup parlé en 2017.
Cela permettrait peut être de mettre en perspective ces annonces de cartes hors normes et hors de prix.


C'est pas très compliqué, le plus gros vendeur de GPU c'est intel...AMD doit être assez présent dans le moyen de gamme en jouant sur des marges faibles...NV truste le haut de gamme autour des 70% de PDM avec des marges hautes...
Et dans les domaines pros (rien avoir avec le pro d'apple hein, on parle de budget bien supérieur) comme le rendu ou la science, NV doit avoir 90% à 100% du marché suivant comment on le segmente... et là, la marge est énorme!


Dans les PC portable je trouve que la Geforce MX150 est installé sur pas mal de modèle "entrée de gamme" ou "ultrabook", c'est la première carte graphique installée quand on veut un truc différent de Intel j'ai l'impression.
D'ailleurs si on regarde chez Darty, on a :
- 85 modèle de PC avec du AMD
- 415 Intel + 344 "intégré" ( le plus souvent intel à priori)
- 173 nVidia

Go to the top of the page
 
+Quote Post
triphon
posté 27 Dec 2018, 18:41
Message #50


Adepte de Macbidouille
*

Groupe : Membres
Messages : 44
Inscrit : 10 Sep 2003
Membre no 9 523



Citation (shawnscott @ 21 Aug 2018, 09:28) *
Concrètement, je l'installe comment dans mon Mac? biggrin.gif

Apparemment cette carte est reconnue sous Moyave avec un Mac Pro 5.1.
Et on a le boot screen en plus. Que rêver de plus ?
Source
Go to the top of the page
 
+Quote Post

2 Pages V  < 1 2
Reply to this topicStart new topic
1 utilisateur(s) sur ce sujet (1 invité(s) et 0 utilisateur(s) anonyme(s))
0 membre(s) :

 



Nous sommes le : 24th April 2024 - 23:09