IPB

Bienvenue invité ( Connexion | Inscription )

2 Pages V   1 2 >  
Reply to this topicStart new topic
> iMac Retina: la bonne pioche pour conquérir de nouveaux marchés, Réactions à la publication du 20/10/2014
Options
Lionel
posté 19 Oct 2014, 22:58
Message #1


BIDOUILLE Guru
*****

Groupe : Admin
Messages : 55 351
Inscrit : 14 Jan 2001
Lieu : Paris
Membre no 3



La dernière fois qu'Apple avait sorti un ordinateur réellement innovant c'était en 2012 avec le MacBook Pro Retina. Non seulement la société avait réussi à faire fort avec une machine très fine et dotée d'un écran à la définition inédite mais elle avait aussi réussi à donner au marché toute une nouvelle orientation. Aujourd'hui, tous les fabricants de PC ont des dalles dont la définition a explosé et indirectement Apple a aussi donné le coup d'envoi à la démocratisation des téléviseurs ultra HD juste grâce à la crainte de l'arrivée d'une iTV.
Avec l'iMac Retina la société a certainement renouvelé cet exploit. Cette machine dans sa configuration de base est au prix auquel Dell doit sortir son écran 5K dans quelques semaines ! Là encore, avec cette dalle 5K et ce prix canon, la société va certainement chambouler tout le marché. Certes, celui des concurrents directs aux iMac est à peine développé mais c'est aussi tout le marché des moniteurs qui sera chamboulé. Il sera pratiquement impossible de vendre un écran 5K à 2500$ et toute l'industrie va devoir trouver le moyen d'en abaisser les tarifs d'au moins 1000$ !
L'autre effet qu'aura la sortie de cette machine à la dalle 5K sera certainement de provoquer une accélération énorme de l'adoption du Displayport 2.0. En effet, il semble à peu près certain qu'Apple utilise dans sa machine deux connexions 1.2 pour alimenter sa dalle. C'est assez facile à réaliser dans une machine intégrée, cela l'est moins pour un écran externe qui doit utiliser deux câbles. Il faut donc que les fabricants de cartes graphiques et ceux d'écrans passent très vite au Displayport 2.0 pour assurer leurs ventes.


Pour finir, nous sommes nombreux à déplorer le choix fait par Apple au niveau des cartes graphiques. Les produits AMD sont bien moins véloces aujourd'hui que ceux de Nvidia. Il a certainement été dicté par des facilités de gestion de la dalle 5K et dans une prochaine génération, certainement dès l'an prochain et l'arrivée du Displayport 2.0, Apple repassera certainement chez Nvidia pour assurer plus de puissance pour cet écran qui sera incroyablement gourmand en ressources GPU. De toute façon il ne faut pas se leurrer. Il faudra certainement attendre encore 5 ou 6 générations d'iMac pour espérer pouvoir jouer dans sa définition native à un quelconque jeu 3D. Sur PC, ceux qui veulent s'y frotter utlisent un SLI d'au moins deux cartes graphiques Nvidia haut de gamme. Il manque donc à cet iMac une puissance d'un facteur 4 à 6 au niveau graphique pour y arriver.
Lien vers le billet original


--------------------
C'est parce que la vitesse de la lumière est plus grande que celle du son que tant de gens paraissent brillants avant d'avoir l'air con
Go to the top of the page
 
+Quote Post
dedal
posté 19 Oct 2014, 23:21
Message #2


Macbidouilleur de vermeil !
****

Groupe : Membres
Messages : 942
Inscrit : 12 Nov 2002
Membre no 4 640




SSD et Retina - enfin bon, affichage haute définition quoi - sont amha les deux (seuls) paliers décisifs récents en informatiques.
Le SSD a enfin fait sauter le goulet d'étranglement des disques durs et les écrans retina sont incontournables quand on y a gouté. J'ai vendu l'iMac 27" que j'adorais il y a quelques mois, pour patienter sur un MBPro retina… qu'un iMac retina sorte.

Bon, pour autant, je ne vais pas me précipiter et attendre les retours sur la fluidité qu'on obtient sur cette version 1.
Mais… wow, ça donne envie quand même

Accessoirement, sur le retina Apple a pas mal joué son rôle pour faire la trace, avec les iPhones, puis les MBPro et maintenant l'iMac.


--------------------
Membre du club des AIPBP (Anciens Inscrits Pas Beaucoup de Posts) Voir la liste
Go to the top of the page
 
+Quote Post
Pom2Ter
posté 19 Oct 2014, 23:33
Message #3


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 1 684
Inscrit : 5 Feb 2005
Lieu : Montréal, Québec
Membre no 32 472



Clairement au niveau quantité et bande passante mémoire avec 2 Go de VRAM - 154 Gb/s pour la M9 290x et et 4 Go - 175 Gb/s pour la M9 295x ça va ramer grave... dry.gif

On est au dessous du niveau de la Geforce GTX 680MX pour la M9 290x et à peine quelques crans au dessus pour la M9 295x
Dire que la M9 295x n'est pas encore officiellement disponible on se demande pourquoi Apple n'a pas choisi la GTX 970m ou la GTX 980m, quitte même a prendre une GTX 880m plus vieille qui aurait été plus puissante qu'une M9 295x...

Ce message a été modifié par Pom2Ter - 19 Oct 2014, 23:39.


--------------------
Mac Pro 5,1 2x Xeon Hexa 3.46Ghz / 48 Go DDR3 1333 / AMD Radeon R9 280X 3Gb / Kingston Predator m.2 480Gb / Apple SAS / 4x 4Tb WD 7.2k Black / WiFi AC BT 4.0 / USB3 / 2xApple LED 27"
Mac Mini 2020 M1 16Gb 1Tb ACD 27 + Samsung 4K U28E590D
MacBook Air Retina 13" 2018 Core i5 1.6 / 16 Gb DDR3 2133 / 1 Tb
MacBook Pro M1 Max 2021 32GPU/32Gb 2Tb SSD
iPhone 12 Pro 128 Gb black / iWatch series 5 SS / iPad Pro 256Gb WiFi SG / 2xaTV 4k
Go to the top of the page
 
+Quote Post
dedal
posté 19 Oct 2014, 23:38
Message #4


Macbidouilleur de vermeil !
****

Groupe : Membres
Messages : 942
Inscrit : 12 Nov 2002
Membre no 4 640




Jouer… non, ok.
Travailler en 2D - photo, PAO, etc… ?




--------------------
Membre du club des AIPBP (Anciens Inscrits Pas Beaucoup de Posts) Voir la liste
Go to the top of the page
 
+Quote Post
Pom2Ter
posté 19 Oct 2014, 23:41
Message #5


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 1 684
Inscrit : 5 Feb 2005
Lieu : Montréal, Québec
Membre no 32 472



Citation (dedal @ 19 Oct 2014, 18:38) *
Jouer… non, ok.
Travailler en 2D - photo, PAO, etc… ?

Sauf que la VRAM ne sert pas seulement à jouer... en 2014 tout ce qui est rendu accéléré et tâches assisté par GPU utilise de la VRAM...
Plus la résolution est élevé et plus la tâche est complexe, plus la VRAM est utilisé...

Un petit exemple rapide...
Avec une résolution aussi élevée on a facilement la résolution équivalente a 5-6 écrans full HD donc on peut ouvrir en parallèle 6 fenêtres de parallels, chrome, final cut, aperture, photoshop, etc... Ce sont toutes des applications qui utilisent OpenCL et le GPU... des applications qui font travailler ce même GPU en même temps et le font chauffer... Donc il est très possible de le faire travailler au dessus de ce qu'il est capable de supporter très rapidement, Le plus puissant ce GPU est, le plus de tâches nous pouvons donc exécuter sur ce même écran 5k avant qu'il ne soit affecté par ce manque de puissance...

Ce message a été modifié par Pom2Ter - 19 Oct 2014, 23:49.


--------------------
Mac Pro 5,1 2x Xeon Hexa 3.46Ghz / 48 Go DDR3 1333 / AMD Radeon R9 280X 3Gb / Kingston Predator m.2 480Gb / Apple SAS / 4x 4Tb WD 7.2k Black / WiFi AC BT 4.0 / USB3 / 2xApple LED 27"
Mac Mini 2020 M1 16Gb 1Tb ACD 27 + Samsung 4K U28E590D
MacBook Air Retina 13" 2018 Core i5 1.6 / 16 Gb DDR3 2133 / 1 Tb
MacBook Pro M1 Max 2021 32GPU/32Gb 2Tb SSD
iPhone 12 Pro 128 Gb black / iWatch series 5 SS / iPad Pro 256Gb WiFi SG / 2xaTV 4k
Go to the top of the page
 
+Quote Post
Dools
posté 19 Oct 2014, 23:50
Message #6


Macbidouilleur de bronze !
**

Groupe : Membres
Messages : 357
Inscrit : 9 Sep 2008
Membre no 121 282



Le problème du choix d'AMD est moins les performances que la consommation. A performances environ égales, une carte dans l'architecture Maxwell de Nvidia consomme (et donc chauffe !) quasiment 2 fois moins que son pendant AMD. Or la chauffe a toujours été une pierre d'achoppement pour Apple, ce qui rend ce choix compréhensible seulement par un contrat en béton/un gros chèque liant les 2 sociétés.
Go to the top of the page
 
+Quote Post
Pom2Ter
posté 20 Oct 2014, 00:04
Message #7


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 1 684
Inscrit : 5 Feb 2005
Lieu : Montréal, Québec
Membre no 32 472



Citation (Dools @ 19 Oct 2014, 18:50) *
Le problème du choix d'AMD est moins les performances que la consommation. A performances environ égales, une carte dans l'architecture Maxwell de Nvidia consomme (et donc chauffe !) quasiment 2 fois moins que son pendant AMD. Or la chauffe a toujours été une pierre d'achoppement pour Apple, ce qui rend ce choix compréhensible seulement par un contrat en béton/un gros chèque liant les 2 sociétés.

Sauf qu'on reste tout de même dans les environs de 100w de TDP pour la GTX 980m et 75w pour la GTX 970m... Ce qui n'est pas très différent de l'ancien haut de gamme nVidia qui passe de 110w environs à 100w maintenant... Et je ne sais pas ce qui t'as laissé penser que les GPUs maxwell nVidia haut de gamme avaient un TDP 2 fois moins élevé que ceux d'ATI (C'est vrai pour les GPU de la gamme Desktop) mais pour la gamme mobile c'est une histoire différente...

Voir ici...
http://www.notebookcheck.net/NVIDIA-GeForc...M.126692.0.html
The power consumption of the GeForce GTX 980M including its MXM board and memory should be about the same as a GTX 880M with a specified TDP of 100 Watt.

Ce message a été modifié par Pom2Ter - 20 Oct 2014, 00:09.


--------------------
Mac Pro 5,1 2x Xeon Hexa 3.46Ghz / 48 Go DDR3 1333 / AMD Radeon R9 280X 3Gb / Kingston Predator m.2 480Gb / Apple SAS / 4x 4Tb WD 7.2k Black / WiFi AC BT 4.0 / USB3 / 2xApple LED 27"
Mac Mini 2020 M1 16Gb 1Tb ACD 27 + Samsung 4K U28E590D
MacBook Air Retina 13" 2018 Core i5 1.6 / 16 Gb DDR3 2133 / 1 Tb
MacBook Pro M1 Max 2021 32GPU/32Gb 2Tb SSD
iPhone 12 Pro 128 Gb black / iWatch series 5 SS / iPad Pro 256Gb WiFi SG / 2xaTV 4k
Go to the top of the page
 
+Quote Post
bbn
posté 20 Oct 2014, 00:29
Message #8


Macbidouilleur de bronze !
**

Groupe : Membres
Messages : 361
Inscrit : 6 Aug 2007
Membre no 92 032



Bonsoir,

Un bel écran certes, le tout dans un boîtier difficile à refroidir et une carte vidéo à la ramasse tout juste bonne pour du Facebook ou de la navigation. Question lissage elle va ramer grave et avec 3DS mdr. J'aimerai bien voir le topo avec un shop et une quinzaine de calques et un illustrator à fond en même temps, et un lissage avec artlantis.....vmax et tout le toutim.

Et que dire de la longévité d'un boitier qui va chauffer à mort^^^

Bref, il va falloir attendre de voir comme se comporte les premiers imac livrés et surtout vérifier si il y a pas des effets de ghost et autres.....Comme dab, je me souviens des premiers macbook rétina, alors avant de s'emballer....va falloir vérifier la réelle qualité du matoscar désormais avec apple grosse méfiance.....

Cdlt
Go to the top of the page
 
+Quote Post
Xdave
posté 20 Oct 2014, 00:31
Message #9


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 1 944
Inscrit : 2 Oct 2004
Membre no 24 540



Nvidia? AMD?
Ben c'est quoi dans un MacPro? (c'est un indice pour le pourquoi du choix)...
Go to the top of the page
 
+Quote Post
iAPX
posté 20 Oct 2014, 00:38
Message #10


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 15 385
Inscrit : 4 Jan 2006
Lieu : dtq
Membre no 52 877



Citation (Pom2Ter @ 19 Oct 2014, 18:33) *
Clairement au niveau quantité et bande passante mémoire avec 2 Go de VRAM - 154 Gb/s pour la M9 290x et et 4 Go - 175 Gb/s pour la M9 295x ça va ramer grave... dry.gif

On est au dessous du niveau de la Geforce GTX 680MX pour la M9 290x et à peine quelques crans au dessus pour la M9 295x
Dire que la M9 295x n'est pas encore officiellement disponible on se demande pourquoi Apple n'a pas choisi la GTX 970m ou la GTX 980m, quitte même a prendre une GTX 880m plus vieille qui aurait été plus puissante qu'une M9 295x...

Oui j'espérais une GTX 970M ou 980M sur les nouveaux iMac 27", ça aurait été un choix logique, mais Apple semble développer son partenariat avec AMD.

Ceci dit ce n'est pas une machine de jeu, et j'ai hâte de mettre mes mains dessus, je réfléchis à l'idée d'avoir de nouveau un Desktop + un laptop. Avec un tel écran, pour la programmation ou la photo, ça sera une machine incroyablement efficace. Il m'est plus important de voir bien que d'agir très vite, si tant est que ça ne soit pas trop lent quand-même wink.gif


--------------------
Utilisateur de Mac depuis 1985 et possesseur de Mac depuis 2005. Utilisateur d'un PC Lenovo au travail, sous Windows, qui renforce ma passion pour les Mac!
Go to the top of the page
 
+Quote Post
Pom2Ter
posté 20 Oct 2014, 00:46
Message #11


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 1 684
Inscrit : 5 Feb 2005
Lieu : Montréal, Québec
Membre no 32 472



Citation (Xdave @ 19 Oct 2014, 19:31) *
Nvidia? AMD?
Ben c'est quoi dans un MacPro? (c'est un indice pour le pourquoi du choix)...

Dans un Mac Pro c'est du AMD FirePro mais encore une fois ça change d'une génération à l'autre...


--------------------
Mac Pro 5,1 2x Xeon Hexa 3.46Ghz / 48 Go DDR3 1333 / AMD Radeon R9 280X 3Gb / Kingston Predator m.2 480Gb / Apple SAS / 4x 4Tb WD 7.2k Black / WiFi AC BT 4.0 / USB3 / 2xApple LED 27"
Mac Mini 2020 M1 16Gb 1Tb ACD 27 + Samsung 4K U28E590D
MacBook Air Retina 13" 2018 Core i5 1.6 / 16 Gb DDR3 2133 / 1 Tb
MacBook Pro M1 Max 2021 32GPU/32Gb 2Tb SSD
iPhone 12 Pro 128 Gb black / iWatch series 5 SS / iPad Pro 256Gb WiFi SG / 2xaTV 4k
Go to the top of the page
 
+Quote Post
r@net54
posté 20 Oct 2014, 02:45
Message #12


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 3 458
Inscrit : 23 Mar 2004
Lieu : Paris / Vancouver
Membre no 16 640



Citation (Pom2Ter @ 19 Oct 2014, 23:33) *
Clairement au niveau quantité et bande passante mémoire avec 2 Go de VRAM - 154 Gb/s pour la M9 290x et et 4 Go - 175 Gb/s pour la M9 295x ça va ramer grave... dry.gif

On est au dessous du niveau de la Geforce GTX 680MX pour la M9 290x et à peine quelques crans au dessus pour la M9 295x
Dire que la M9 295x n'est pas encore officiellement disponible on se demande pourquoi Apple n'a pas choisi la GTX 970m ou la GTX 980m, quitte même a prendre une GTX 880m plus vieille qui aurait été plus puissante qu'une M9 295x...


Pour une question de prix tout simplement.
Apple vend l'iMac au prix d'un écran 4k IGZO, il a fallut raboter les cout de productions partout. L'AMD est une pantoufle, mais Apple a du avoir un tarif très très avantageux d'AMD. On se souvient qu'AMD a négocié un tarif aussi très avantageux pour avoir le marche des consoles… Vu a situation de la société, Apple est une carotte qui nécessite de gros sacrifices… Et Apple a compensé les faiblesses du GPU avec un ensemble de systèmes maison.
La question est de savoir si AMD va s'en sortir..

Il y a un gros problème avec l'AMD et le processeur: la température.
AMD est moins performant en terme de puissance mais surtout en terme de consommation par rapport a Nvidia. Et avec Maxwell Nvidia a encore creuse l'écart.
Le Core i7 a 4ghz lui aussi est un petit radiateur, et dans l'espace réduit sans watercooling c'est de mauvaise augure… Le risque est qu'Apple ait du sous cadencer ces composants. Plus encore, on peut suspecter que le GPU est prioritaire et que c'est le CPU qui est le plus asservi pour éviter le dépassement de 96º. On risque donc d'avoir un Core i7 dont les performances chutent face a des traitements graphiques un peu soutenus, ce qui va être relativement régulier sur cette machine.

L'iMac est de toute façon l'équivalent de l'iPad retina premier: un bidouillage génial permettant de mettre sur le marche une techno non encore disponible en quantité et en attendant les normes et standards. Au NAB ça va parler et présenter les solutions 8K (déjà en 2014 quelques solutions et présentations y étaient présentes), les industriels vont proposer en masse du 4k jusqu'en juin avant commencer a basculer sur le 8k (Apple avec cet iMac accelere la compétition, et les producteurs de PC vont faire comme les producteurs de tablettes: s'aligner et essayer de dépasser Apple au niveau technologique) et Apple renouvellera l'iMac Retina dans 6 mois comme ça a été le cas de l'iPad retina...

Ce message a été modifié par r@net54 - 20 Oct 2014, 03:57.


--------------------
Agnostique multipratiquant: Unixs, Linux, Mac OS X, iOS et un peu de Windows. Des Macs, des iDevices, des PC et des "ordinosaures"…
Citation
« Celui qui t’entretient des défauts d’autrui entretient les autres des tiens. »,
« Quand on suit une mauvaise route, plus on marche vite, plus on s'égare. »
Diderot
Go to the top of the page
 
+Quote Post
aurelien28
posté 20 Oct 2014, 04:53
Message #13


Adepte de Macbidouille
*

Groupe : Membres
Messages : 184
Inscrit : 28 Jan 2002
Lieu : USA
Membre no 1 912



Citation (Pom2Ter @ 19 Oct 2014, 18:33) *
Clairement au niveau quantité et bande passante mémoire avec 2 Go de VRAM - 154 Gb/s pour la M9 290x et et 4 Go - 175 Gb/s pour la M9 295x ça va ramer grave... dry.gif

On est au dessous du niveau de la Geforce GTX 680MX pour la M9 290x et à peine quelques crans au dessus pour la M9 295x
Dire que la M9 295x n'est pas encore officiellement disponible on se demande pourquoi Apple n'a pas choisi la GTX 970m ou la GTX 980m, quitte même a prendre une GTX 880m plus vieille qui aurait été plus puissante qu'une M9 295x...



On ne peut pas encore juger la R9 M295X, c'est une exclu Mac. Elle integre une nouvelle architecture Tongua XT (architecture differente de la M290X). Il va falloir attendre les premiers essais. A mon avis ca va etre une bonne surprise comme l'iMac fin 2012 avec l'exclu Apple pour la 680MX. On peut jouer tres bien jouer avec cette iMac en resolution 2560x1440 mais effectivement pas en 5K. Comme dit Lionel, jouer en 5K est quasiment impossible a date a moins d'avoir un SLI de 3 cartes Nvidia Titan...
Go to the top of the page
 
+Quote Post
FardocheX
posté 20 Oct 2014, 04:58
Message #14


Macbidouilleur de vermeil !
****

Groupe : Membres
Messages : 878
Inscrit : 4 Sep 2006
Membre no 67 286



J'me demande de quelle grandeur IRL est une cellule dans Excel sur un écran 5K de 27".
Est-ce que toute cette quantité de pixel est vraiment utilisable en considérant qu'il y a au moins 50 cm entre l'utilisateur et l'écran? (ma distance)
Go to the top of the page
 
+Quote Post
jeannot
posté 20 Oct 2014, 06:54
Message #15


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 7 960
Inscrit : 15 Dec 2002
Membre no 5 157



Pour ce qui est de la VRAM, je ne sais pas si ça posera problème... J'ai 2 Go sur mon iMac 27" et iStat indique toujours que la VRAM est à peine utilisée (genre moins de 5%). D'un côté, c'est une machine pour du travail de bureau et scientifique, et j'utilise photoshop et illustrator pour des figures de taille modestes.

Ce message a été modifié par jeannot - 20 Oct 2014, 06:55.
Go to the top of the page
 
+Quote Post
Bunios
posté 20 Oct 2014, 08:29
Message #16


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 5 789
Inscrit : 7 Apr 2003
Lieu : 01 AIN
Membre no 7 028



Citation (Pom2Ter @ 20 Oct 2014, 00:33) *
Clairement au niveau quantité et bande passante mémoire avec 2 Go de VRAM - 154 Gb/s pour la M9 290x et et 4 Go - 175 Gb/s pour la M9 295x ça va ramer grave... dry.gif

On est au dessous du niveau de la Geforce GTX 680MX pour la M9 290x et à peine quelques crans au dessus pour la M9 295x
Dire que la M9 295x n'est pas encore officiellement disponible on se demande pourquoi Apple n'a pas choisi la GTX 970m ou la GTX 980m, quitte même a prendre une GTX 880m plus vieille qui aurait été plus puissante qu'une M9 295x...


C'est clair….J'ai lu un article justement entre AMD, Intel et Nvidia sur les cartes graphiques. Clairement AMD est à la rue….Nvidia n'a aucune concurrence sur le créneau moyen et haut de gamme. Comme Intel ne l'a plus pour les processeurs moyen et haut de gamme.

Quand tu enlèves la concurrence c'est le consommateur qui en pâtit en règle générale.

Dommage que le choix Nvidia a été écarté.

Je pencherai d'ailleurs pour le coût moins important chez AMD que Nvidia…Chez Apple, un sous est un sous.
Citation (r@net54 @ 20 Oct 2014, 03:45) *
Pour une question de prix tout simplement.
Apple vend l'iMac au prix d'un écran 4k IGZO, il a fallut raboter les cout de productions partout. L'AMD est une pantoufle, mais Apple a du avoir un tarif très très avantageux d'AMD. On se souvient qu'AMD a négocié un tarif aussi très avantageux pour avoir le marche des consoles… Vu a situation de la société, Apple est une carotte qui nécessite de gros sacrifices… Et Apple a compensé les faiblesses du GPU avec un ensemble de systèmes maison.
La question est de savoir si AMD va s'en sortir..


Clairement, je pense qu'effectivement ça a été un choix du coût moindre chez AMD contre Nvidia au détriment de la puissance et la consommation de ces dernières qu'il faut avouer au-dessus du lot actuellement (article sur la domination de Nvidia sur le secteur des cartes graphiques moyen et haut de gamme).

Dommage en tout cas. Il faudra attendre la Révision B de l'iMac Rétina 5K pour que ça change réellement.

A+

Laurent


--------------------
(Jeudi 18 Avril 2013) Réception d'un Apple MacBook Pro 15" Core i7 Quad Core 2.6 Ghz Nvidia GT 650M 1024 Mo 8 Go SoDimm DDR3 PC 12800-1600 Mhz SSD Crucial M500 de 480 Go à la place du disque dur interne Hitachi 750 Go à 5400 tr/mn Superdrive à écran Brillant LED standart NEUF - 17,92 % Fnac. MERCI La FNAC. Très performant et Magnifique...Disque dur externe Lacie Rugged ThunderBolt USB 3 (ne fonctionne pas en USB 3 !!!).
Go to the top of the page
 
+Quote Post
Krazubu
posté 20 Oct 2014, 08:45
Message #17


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 3 523
Inscrit : 5 Sep 2005
Membre no 45 266



Dommage qu'Apple n'ait pas pris nVidia, du coup on n'aura pas le plaisir d'avoir des macs qui grillent à la chaine dans deux ou trois ans sad.gif

Ce message a été modifié par Krazubu - 23 Oct 2014, 10:30.
Go to the top of the page
 
+Quote Post
morane_j
posté 20 Oct 2014, 08:47
Message #18


Adepte de Macbidouille
*

Groupe : Membres
Messages : 207
Inscrit : 28 Sep 2012
Membre no 179 248



Ne pas prendre nVidia, mais prendre AMD, ça peut être une question de prix, mais ça peut être aussi une question de stratégie, garder un concurrent à nVidia le temps qu'il sorte une nouvelle architecture.
Ne pas oublier qu'il y a 2 ans, c'était l'inverse, AMD était largement devant nVidia, ce qui n'empêchait pas Apple de prendre du nVidia (malgré les problèmes récurrents dus à la chaleur avec nVidia)
Go to the top of the page
 
+Quote Post
jeannot
posté 20 Oct 2014, 08:52
Message #19


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 7 960
Inscrit : 15 Dec 2002
Membre no 5 157



Citation (Krazubu @ 20 Oct 2014, 09:45) *
Dommage qu'Apple ait pris nVidia, du coup on n'aura pas le plaisir d'avoir des macs qui grillent à la chaine dans deux ou trois ans sad.gif

Pourquoi griller? De mémoire, le plus gros souci qu'il y ait eu sur les GPUs de Mac venait justement de nVidia (geforce 8600M qui a grillé sur la majorité des portables équipés, Mac ou pas).
Go to the top of the page
 
+Quote Post
FolasEnShort
posté 20 Oct 2014, 09:05
Message #20


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 7 244
Inscrit : 26 Jan 2004
Membre no 13 782



Citation (jeannot @ 20 Oct 2014, 09:52) *
Citation (Krazubu @ 20 Oct 2014, 09:45) *
Dommage qu'Apple ait pris nVidia, du coup on n'aura pas le plaisir d'avoir des macs qui grillent à la chaine dans deux ou trois ans sad.gif

Pourquoi griller? De mémoire, le plus gros souci qu'il y ait eu sur les GPUs de Mac venait justement de nVidia (geforce 8600M qui a grillé sur la majorité des portables équipés, Mac ou pas).

biggrin.gif biggrin.gif biggrin.gif


--------------------
JE SUIS CHARLIE mais je suis toujours amateur d'andouillettes AAAAA.
Il vaut mieux mobiliser son intelligence sur des conneries que mobiliser sa connerie sur des choses intelligentes. (J.Rouxel)
Go to the top of the page
 
+Quote Post
marc_os
posté 20 Oct 2014, 09:13
Message #21


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 6 484
Inscrit : 21 Apr 2006
Membre no 59 799



Citation (Lionel @ 19 Oct 2014, 23:58) *
[...]
Pour finir, nous sommes nombreux à déplorer le choix fait par Apple au niveau des cartes graphiques. Les produits AMD sont bien moins véloces aujourd'hui que ceux de Nvidia. Il a certainement été dicté par des facilités de gestion de la dalle 5K et dans une prochaine génération, certainement dès l'an prochain et l'arrivée du Displayport 2.0, Apple repassera certainement chez Nvidia pour assurer plus de puissance pour cet écran qui sera incroyablement gourmand en ressources GPU. De toute façon il ne faut pas se leurrer. Il faudra certainement attendre encore 5 ou 6 générations d'iMac pour espérer pouvoir jouer dans sa définition native à un quelconque jeu 3D. Sur PC, ceux qui veulent s'y frotter utlisent un SLI d'au moins deux cartes graphiques Nvidia haut de gamme. Il manque donc à cet iMac une puissance d'un facteur 4 à 6 au niveau graphique pour y arriver.
Lien vers le billet original

Faudra m'expliquer un peu plus, car là ça m'a l'air bien contradictoire comme explication :
Nvidia n'est pas capable de gérer (facilement) les dalles 5K, c'est pourquoi Apple aurait pris AMD.
Or « les produits AMD sont bien moins véloces aujourd'hui que ceux de Nvidia »...
Et les « experts » de démontrer ensuite que Nvidia c'est bien mieux et que cet iMac ne permettra pas de jouer en 3D.
Feraient bien d'attendre les tests réels de performances ces experts.
Ceci dit, à quoi bon un truc performant mais pas capable de gérer la 5K ?

Jouer en 3D préoccupation limite obscène de gosses de riches ! ph34r.gif

Ce message a été modifié par marc_os - 20 Oct 2014, 09:15.


--------------------
-----------------
--JE-------SUIS--
--AHMED-CHARLIE--
--CLARISSA-YOAV--
-----------------
Go to the top of the page
 
+Quote Post
Lionel
posté 20 Oct 2014, 09:20
Message #22


BIDOUILLE Guru
*****

Groupe : Admin
Messages : 55 351
Inscrit : 14 Jan 2001
Lieu : Paris
Membre no 3



Citation (marc_os @ 20 Oct 2014, 10:13) *
Citation (Lionel @ 19 Oct 2014, 23:58) *
[...]
Pour finir, nous sommes nombreux à déplorer le choix fait par Apple au niveau des cartes graphiques. Les produits AMD sont bien moins véloces aujourd'hui que ceux de Nvidia. Il a certainement été dicté par des facilités de gestion de la dalle 5K et dans une prochaine génération, certainement dès l'an prochain et l'arrivée du Displayport 2.0, Apple repassera certainement chez Nvidia pour assurer plus de puissance pour cet écran qui sera incroyablement gourmand en ressources GPU. De toute façon il ne faut pas se leurrer. Il faudra certainement attendre encore 5 ou 6 générations d'iMac pour espérer pouvoir jouer dans sa définition native à un quelconque jeu 3D. Sur PC, ceux qui veulent s'y frotter utlisent un SLI d'au moins deux cartes graphiques Nvidia haut de gamme. Il manque donc à cet iMac une puissance d'un facteur 4 à 6 au niveau graphique pour y arriver.
Lien vers le billet original

Faudra m'expliquer un peu plus, car là ça m'a l'air bien contradictoire comme explication :
Nvidia n'est pas capable de gérer (facilement) les dalles 5K, c'est pourquoi Apple aurait pris AMD.
Or « les produits AMD sont bien moins véloces aujourd'hui que ceux de Nvidia »...
Et les « experts » de démontrer ensuite que Nvidia c'est bien mieux et que cet iMac ne permettra pas de jouer en 3D.
Feraient bien d'attendre les tests réels de performances ces experts.
Ceci dit, à quoi bon un truc performant mais pas capable de gérer la 5K ?

Jouer en 3D préoccupation limite obscène de gosses de riches ! ph34r.gif

Tu as bien tout résumé, merci.
Il faut un Displayport par connecteur Thunderbolt plus deux autres pour l'écran 5K. Seul AMD peut gérer plus de trois écrans avec une seule carte graphique actuellement ou tout du moins quatre displayport en même temps.


--------------------
C'est parce que la vitesse de la lumière est plus grande que celle du son que tant de gens paraissent brillants avant d'avoir l'air con
Go to the top of the page
 
+Quote Post
Guest_Lawjazz_*
posté 20 Oct 2014, 09:29
Message #23





Guests






Citation
L'iMac est de toute façon l'équivalent de l'iPad retina premier: un bidouillage génial permettant de mettre sur le marche une techno non encore disponible en quantité et en attendant les normes et standards. Au NAB ça va parler et présenter les solutions 8K (déjà en 2014 quelques solutions et présentations y étaient présentes), les industriels vont proposer en masse du 4k jusqu'en juin avant commencer a basculer sur le 8k (Apple avec cet iMac accelere la compétition, et les producteurs de PC vont faire comme les producteurs de tablettes: s'aligner et essayer de dépasser Apple au niveau technologique) et Apple renouvellera l'iMac Retina dans 6 mois comme ça a été le cas de l'iPad retina...


Quelle que soit la techno chez Apple le principe a toujours été jamais la V1
Sur le fond, je suis rassuré de voir que Apple mise sur les macs, très bien.

Ce message a été modifié par Lawjazz - 20 Oct 2014, 09:31.
Go to the top of the page
 
+Quote Post
Crapouilleau
posté 20 Oct 2014, 09:49
Message #24


Adepte de Macbidouille
*

Groupe : Membres
Messages : 111
Inscrit : 8 Sep 2008
Membre no 121 187



Citation (Bunios @ 20 Oct 2014, 09:29) *
Citation (Pom2Ter @ 20 Oct 2014, 00:33) *
Clairement au niveau quantité et bande passante mémoire avec 2 Go de VRAM - 154 Gb/s pour la M9 290x et et 4 Go - 175 Gb/s pour la M9 295x ça va ramer grave... dry.gif

On est au dessous du niveau de la Geforce GTX 680MX pour la M9 290x et à peine quelques crans au dessus pour la M9 295x
Dire que la M9 295x n'est pas encore officiellement disponible on se demande pourquoi Apple n'a pas choisi la GTX 970m ou la GTX 980m, quitte même a prendre une GTX 880m plus vieille qui aurait été plus puissante qu'une M9 295x...


C'est clair….J'ai lu un article justement entre AMD, Intel et Nvidia sur les cartes graphiques. Clairement AMD est à la rue….Nvidia n'a aucune concurrence sur le créneau moyen et haut de gamme. Comme Intel ne l'a plus pour les processeurs moyen et haut de gamme.

Quand tu enlèves la concurrence c'est le consommateur qui en pâtit en règle générale.

Dommage que le choix Nvidia a été écarté.

Je pencherai d'ailleurs pour le coût moins important chez AMD que Nvidia…Chez Apple, un sous est un sous.
Citation (r@net54 @ 20 Oct 2014, 03:45) *
Pour une question de prix tout simplement.
Apple vend l'iMac au prix d'un écran 4k IGZO, il a fallut raboter les cout de productions partout. L'AMD est une pantoufle, mais Apple a du avoir un tarif très très avantageux d'AMD. On se souvient qu'AMD a négocié un tarif aussi très avantageux pour avoir le marche des consoles… Vu a situation de la société, Apple est une carotte qui nécessite de gros sacrifices… Et Apple a compensé les faiblesses du GPU avec un ensemble de systèmes maison.
La question est de savoir si AMD va s'en sortir..


Clairement, je pense qu'effectivement ça a été un choix du coût moindre chez AMD contre Nvidia au détriment de la puissance et la consommation de ces dernières qu'il faut avouer au-dessus du lot actuellement (article sur la domination de Nvidia sur le secteur des cartes graphiques moyen et haut de gamme).

Dommage en tout cas. Il faudra attendre la Révision B de l'iMac Rétina 5K pour que ça change réellement.

A+

Laurent

Arrêtez moi si je me trompe mais j'ai vraiment l'impression que cette avance de nVidia sur AMD est largement fantasmée. Je veux bien qu'à l'heure actuelle nVidia soit devant AMD mais faut arrêter d'imaginer qu'AMD est complétement absent du marché moyen/haut de gamme. Les R9 280X et 290X restent de très bons GPU et les derniers comparatifs que j'ai pu lire continuent de les recommander.
Alors certes, depuis ces derniers comparatifs les GTX 970 et 980 sont sorties, mais je ne vois pas comment la seule sortie de deux GPU nVidia fait complètement disparaître AMD. Il faut attendre de voir les prochaines évolutions d'AMD et pour l'instant tout ce qu'ils ont présenté c'est la R9 285. On attend toujours la R9 285X et la R9 295 et 295X.

Ce message a été modifié par Crapouilleau - 20 Oct 2014, 09:50.
Go to the top of the page
 
+Quote Post
AlbertRaccoon
posté 20 Oct 2014, 09:56
Message #25


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 3 515
Inscrit : 21 Sep 2005
Membre no 46 410



Citation (Crapouilleau @ 20 Oct 2014, 10:49) *
Arrêtez moi si je me trompe mais j'ai vraiment l'impression que cette avance de nVidia sur AMD est largement fantasmée. Je veux bien qu'à l'heure actuelle nVidia soit devant AMD mais faut arrêter d'imaginer qu'AMD est complétement absent du marché moyen/haut de gamme. Les R9 280X et 290X restent de très bons GPU et les derniers comparatifs que j'ai pu lire continuent de les recommander.
Alors certes, depuis ces derniers comparatifs les GTX 970 et 980 sont sorties, mais je ne vois pas comment la seule sortie de deux GPU nVidia fait complètement disparaître AMD. Il faut attendre de voir les prochaines évolutions d'AMD et pour l'instant tout ce qu'ils ont présenté c'est la R9 285. On attend toujours la R9 285X et la R9 295 et 295X.

On remarque quand même qu'il y a un décalage dans les gammes nVidia et AMD : une R9 M290X se compare à une GTX 870M.
Go to the top of the page
 
+Quote Post
dedal
posté 20 Oct 2014, 11:57
Message #26


Macbidouilleur de vermeil !
****

Groupe : Membres
Messages : 942
Inscrit : 12 Nov 2002
Membre no 4 640



Citation (Lawjazz @ 20 Oct 2014, 09:29) *
Quelle que soit la techno chez Apple le principe a toujours été jamais la V1
Sur le fond, je suis rassuré de voir que Apple mise sur les macs, très bien.

Par définition, c'est un principe "heureusement" peu suivi biggrin.gif


--------------------
Membre du club des AIPBP (Anciens Inscrits Pas Beaucoup de Posts) Voir la liste
Go to the top of the page
 
+Quote Post
jeannot
posté 20 Oct 2014, 13:47
Message #27


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 7 960
Inscrit : 15 Dec 2002
Membre no 5 157



Faut aussi voir ce qui prend comme une rev A. Tout peut être pris comme une Rev A. Le premier Mac Unibody, le premier MacBook Pro Haswell, le premier Mac Pro 8 coeurs.
Moi mon Mac Pro 1.1 de 2006 tourne toujours super.
Go to the top of the page
 
+Quote Post
iAPX
posté 20 Oct 2014, 13:50
Message #28


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 15 385
Inscrit : 4 Jan 2006
Lieu : dtq
Membre no 52 877



Citation (Crapouilleau @ 20 Oct 2014, 04:49) *
Citation (Bunios @ 20 Oct 2014, 09:29) *
Citation (Pom2Ter @ 20 Oct 2014, 00:33) *
Clairement au niveau quantité et bande passante mémoire avec 2 Go de VRAM - 154 Gb/s pour la M9 290x et et 4 Go - 175 Gb/s pour la M9 295x ça va ramer grave... dry.gif

On est au dessous du niveau de la Geforce GTX 680MX pour la M9 290x et à peine quelques crans au dessus pour la M9 295x
Dire que la M9 295x n'est pas encore officiellement disponible on se demande pourquoi Apple n'a pas choisi la GTX 970m ou la GTX 980m, quitte même a prendre une GTX 880m plus vieille qui aurait été plus puissante qu'une M9 295x...


C'est clair….J'ai lu un article justement entre AMD, Intel et Nvidia sur les cartes graphiques. Clairement AMD est à la rue….Nvidia n'a aucune concurrence sur le créneau moyen et haut de gamme. Comme Intel ne l'a plus pour les processeurs moyen et haut de gamme.

Quand tu enlèves la concurrence c'est le consommateur qui en pâtit en règle générale.

Dommage que le choix Nvidia a été écarté.

Je pencherai d'ailleurs pour le coût moins important chez AMD que Nvidia…Chez Apple, un sous est un sous.
Citation (r@net54 @ 20 Oct 2014, 03:45) *
Pour une question de prix tout simplement.
Apple vend l'iMac au prix d'un écran 4k IGZO, il a fallut raboter les cout de productions partout. L'AMD est une pantoufle, mais Apple a du avoir un tarif très très avantageux d'AMD. On se souvient qu'AMD a négocié un tarif aussi très avantageux pour avoir le marche des consoles… Vu a situation de la société, Apple est une carotte qui nécessite de gros sacrifices… Et Apple a compensé les faiblesses du GPU avec un ensemble de systèmes maison.
La question est de savoir si AMD va s'en sortir..


Clairement, je pense qu'effectivement ça a été un choix du coût moindre chez AMD contre Nvidia au détriment de la puissance et la consommation de ces dernières qu'il faut avouer au-dessus du lot actuellement (article sur la domination de Nvidia sur le secteur des cartes graphiques moyen et haut de gamme).

Dommage en tout cas. Il faudra attendre la Révision B de l'iMac Rétina 5K pour que ça change réellement.

A+

Laurent

Arrêtez moi si je me trompe mais j'ai vraiment l'impression que cette avance de nVidia sur AMD est largement fantasmée. Je veux bien qu'à l'heure actuelle nVidia soit devant AMD mais faut arrêter d'imaginer qu'AMD est complétement absent du marché moyen/haut de gamme. Les R9 280X et 290X restent de très bons GPU et les derniers comparatifs que j'ai pu lire continuent de les recommander.
Alors certes, depuis ces derniers comparatifs les GTX 970 et 980 sont sorties, mais je ne vois pas comment la seule sortie de deux GPU nVidia fait complètement disparaître AMD. Il faut attendre de voir les prochaines évolutions d'AMD et pour l'instant tout ce qu'ils ont présenté c'est la R9 285. On attend toujours la R9 285X et la R9 295 et 295X.

Ben justement, le probleme c'est que la R9 285 n'est pas plus performante qu'une R9 280, et consomme autant qu'une GeForce GTX 980 qui dispose de 33% plus de performances. Les deux etant sorti a un mois d'intervaille, on peut voir qu'AMD est actuellement largue en terme de performance/watt...

Mais aussi une AMD R9 M290X a la puissance d'une nVidia GTX 970M (au mieux), en consommant 33% de plus. Comme le TDP est un facteur determinant dans tous les Mac, meme de bureau, a cause de leur conception interne, c'est dommage d'avoir pris de l'AMD!

Ce message a été modifié par iAPX - 20 Oct 2014, 13:51.


--------------------
Utilisateur de Mac depuis 1985 et possesseur de Mac depuis 2005. Utilisateur d'un PC Lenovo au travail, sous Windows, qui renforce ma passion pour les Mac!
Go to the top of the page
 
+Quote Post
dedal
posté 20 Oct 2014, 14:46
Message #29


Macbidouilleur de vermeil !
****

Groupe : Membres
Messages : 942
Inscrit : 12 Nov 2002
Membre no 4 640



Citation (marc_os @ 20 Oct 2014, 09:13) *
Jouer en 3D préoccupation limite obscène de gosses de riches ! ph34r.gif

Wow, classe ! Je ne suis ni un gosse de riche, ni un joueur en 3D… je vais peut-être pouvoir me faire plaisir avec un écran et un affichage hors normes !

D'ici là, nul doute que le moindre soucis, ralentissement ou surchauffe aura été abondamment expertisé sur grincheland…


--------------------
Membre du club des AIPBP (Anciens Inscrits Pas Beaucoup de Posts) Voir la liste
Go to the top of the page
 
+Quote Post
ubik
posté 20 Oct 2014, 16:34
Message #30


Adepte de Macbidouille
*

Groupe : Membres
Messages : 187
Inscrit : 27 Nov 2003
Lieu : Paris
Membre no 12 011



D'abord, cet iMac Retina pourrait être une excellente machine de jeu. Il suffit de lui adjoindre un écran externe - c'est pas la mère à boire. N'importe quel modèle 27 à résolution classique fera l'affaire (1080, 1200 même 1440p). La M295X pourra faire tourner tout ce petit monde à fond sans problème surtout quand je vois comment se débrouillait la 680MX de mon iMac 2012 (et évidemment, je parle de jeu sous Bootcamp).

Je pense d'ailleurs qu'on va avoir quelques surprises - toujours avec cette M295X dont on ne sait pour le moment pas grand chose (bonjour les avis tranchés lu plus haut ou la comparaison approximative avec une R9 285). Je pense que sous FCP X par exemple, la machine pourrait se relever tout à fait étonnante !

J'ose espérer qu'Apple a aussi appris de la rev 1 du Macbook Pro Retina...

A suivre !

Ce message a été modifié par ubik - 20 Oct 2014, 16:37.
Go to the top of the page
 
+Quote Post

2 Pages V   1 2 >
Reply to this topicStart new topic
1 utilisateur(s) sur ce sujet (1 invité(s) et 0 utilisateur(s) anonyme(s))
0 membre(s) :

 



Nous sommes le : 5th May 2024 - 06:28