![]() |
Bienvenue invité ( Connexion | Inscription )
![]() |
![]()
Message
#1
|
|
![]() Macbidouilleur d'Or ! ![]() ![]() ![]() ![]() ![]() Groupe : Rédacteurs Messages : 1 837 Inscrit : 19 Nov 2020 Membre no 212 895 ![]() |
[Mise à jour par Philippe]
Intel a confirmé, indiquant que le gouvernement Américain investirait $8,9 milliards USD, correspondant à 9,9% des parts de la société au prix de $20,47 par part. En revanche le gouvernement US serait un investisseur silencieux, sans présence dans le Board, ni droits d'accès à l'information. Prendre près de 10% d'une société en mettant presque 9 milliards de dollars sur la table, et ne pas exiger une présence au Board? Ça sent la subvention déguisée.. [Article initial] Intel avait été le plus grand concepteur et fabricant de microprocesseurs, mais aussi le premier d'entre eux via son i4004. Las depuis une grosse décennie les choses vont de mal en pis: performances médiocres face à l'offre d'AMD, tout en consommant largement plus, et incapacité à produire des CPU ou SoC de pointe, faisant appel à TSMC pour cela bien qu'ayant ses propres usines! Le M1 d'Apple a montré qu'il était possible de faire énormément mieux en terme de performances/Watt, et donc d'autonomie en usage réel. Pour bien moins cher. Une gifle pour Intel qui avait alors été sanctionné en bourse... Intel est littéralement en train de couler, et une rumeur indique que le gouvernement américain pourrait investir dans cette société qui est clé en terme d'industrie, mais aussi en terme de sécurité nationale. Lien vers le billet original -------------------- La liberté d'expression c'est l'extrémisme. La censure c'est la liberté.
|
|
|
![]() |
![]()
Message
#2
|
|
Macbidouilleur d'Or ! ![]() ![]() ![]() ![]() ![]() Groupe : Membres Messages : 2 590 Inscrit : 5 Sep 2004 Membre no 23 103 ![]() |
Citation Il faut rappeler que Intel s'est foiré au moins 5 ou 6 fois sur les GPU ou iGPU, sans jamais aucun succès! Je plussoie totalement l'analyse de la situation d'Intel faite sur ce thread. Et je rebondis sur cette phrase, qui pour moi en dit long. Autant se planter sur les technos de gravures ce n'est pas "grave": on rebat plus ou moins les cartes tous les 10 ans, et on ne sait pas à l'avance quelle voie technologique sera la bonne sur la génération d'après. Donc il y a un facteur chance prépondérant. Autant, sur les GPU(*), manger la poussière avec autant de constance relève du génie industriel comme commercial. Il y a un vrai problème de stratégie ou de gestion d'équipe (car on ne peut pas soupçonner les ingénieurs d'Intel d'être mauvais). Ce qui me rend, du coup, pessimiste pour la suite des événements, car des deux côtés de l'Atlantique, l'Etat-actionnaire ne brille pas sur ces deux tableaux... (*) sur les iGPU en revanche, on ne peut pas vraiment parler de plantade. Beaucoup de constructeurs, y compris Apple, ont cédé aux sirènes des iGPU Intel pour sortir des machines anémiques sur la partie vidéo -- trop heureux de gratter quelques $ sur la BOM. Les Iris ont atteint, à partir de 2013, un niveau de médiocrité suffisant pour les usages les plus légers. Ce message a été modifié par malloc - 19 Aug 2025, 08:04. -------------------- AMF: Ne possède pas d'actions Apple. Ne touche aucune rémunération, directe ou indirecte, d'Apple. Intervient ici depuis 20 ans à titre personnel. Ne partage pas son compte avec des tiers. N'a aucun lien avec les rédacteurs du blog MacBidouille.
Mes messages sont parfois édités par la modération dans le texte, et ce sans trace visible. Ce qui apparaît sous mon nom peut ne pas provenir de moi. |
|
|
![]()
Message
#3
|
|
![]() Macbidouilleur d'Or ! ![]() ![]() ![]() ![]() ![]() Groupe : Membres Messages : 2 723 Inscrit : 1 Nov 2021 Membre no 214 848 ![]() |
(*) sur les iGPU en revanche, on ne peut pas vraiment parler de plantade. Beaucoup de constructeurs, y compris Apple, ont cédé aux sirènes des iGPU Intel pour sortir des machines anémiques sur la partie vidéo -- trop heureux de gratter quelques $ sur la BOM. Les Iris ont atteint, à partir de 2013, un niveau de médiocrité suffisant pour les usages les plus légers. Perso si j'ai le choix, je préfère de loin un Macbook avec un chip graphique Iris. Windows y fonctionnera avec les pilotes standard et il sera bien moins gourmand en énergie. Je n'ai strictement aucune utilité d'une meilleure performance vidéo et ne suis pas le seul dans ce cas. Je te laisse les péjoratifs "anémique" et "médiocrité"... Pour mes usages -entre autres de compiler du c++ ou travailler aver de grosse tables Excel- cela ne me servirait strictement à rien. Même en KiCAD avec un rendering 4K je ne sens aucun manque de puissance. alors, à quoi bon?
Ce message a été modifié par Laszlo Lebrun - 19 Aug 2025, 09:41. -------------------- "Les gens douteront toujours de la vérité sur Internet car l'erreur est constamment prêchée autour de nous" Johann Wolfgang von Goethe
MBP 15" 2015 Retina ( Win11), Macbook Air 2015 (en voyage), iMac 2015 27" Retina (Win11), MacbookPro 2008 pour le piano... pour ne citer que les Macs. |
|
|
![]()
Message
#4
|
|
Macbidouilleur d'Or ! ![]() ![]() ![]() ![]() ![]() Groupe : Membres Messages : 2 590 Inscrit : 5 Sep 2004 Membre no 23 103 ![]() |
(*) sur les iGPU en revanche, on ne peut pas vraiment parler de plantade. Beaucoup de constructeurs, y compris Apple, ont cédé aux sirènes des iGPU Intel pour sortir des machines anémiques sur la partie vidéo -- trop heureux de gratter quelques $ sur la BOM. Les Iris ont atteint, à partir de 2013, un niveau de médiocrité suffisant pour les usages les plus légers. Perso si j'ai le choix, je préfère de loin un Macbook avec un chip graphique Iris. Windows y fonctionnera avec les pilotes standard et il sera bien moins gourmand en énergie. Je n'ai strictement aucune utilité d'une meilleure performance vidéo et ne suis pas le seul dans ce cas. Je te laisse le péjoratif "anémique"...Je suis sûr que tu comprends le choix du vocabulaire. Les iGPU sont parfaits pour faire de la bureautique, mais interdisent tout usage 3D intensif. Par rapport à des GPU dont le coût peut être à deux chiffres seulement, ils castrent les usages potentiels de machines parfois vendues fort cher chez Apple. Donc oui, anémique dans l'absolu car performances 3D objectivement ridicules par rapport aux chips dédiés. Et sens péjoratif assumé car il s'agissait d'une économie de bouts de chandelle (qui rapportait peu en $ mais coûtait cher en capacités du produit fini). Revers de la médaille, ce fut un excellent coup pour Intel. Pour faire le lien avec la discussion d'hier: "les performances 3D c'est comme le secret des communications: c'est pas parce qu'on n'en a pas besoin qu'il faut se réjouir d'en priver les autres" ![]() Et je dis ça avec d'autant plus de confiance que je n'avais pas non plus besoin de perfs GPU sur mes machines Intel, ne jouant pas et n'utilisant pas de LLM locales à l'époque. Mais je sais reconnaître une décision à faible gain/fort impact néfaste quand j'en vois une, y compris sur les usages qui ne sont pas les miens. Ce message a été modifié par malloc - 19 Aug 2025, 10:28. -------------------- AMF: Ne possède pas d'actions Apple. Ne touche aucune rémunération, directe ou indirecte, d'Apple. Intervient ici depuis 20 ans à titre personnel. Ne partage pas son compte avec des tiers. N'a aucun lien avec les rédacteurs du blog MacBidouille.
Mes messages sont parfois édités par la modération dans le texte, et ce sans trace visible. Ce qui apparaît sous mon nom peut ne pas provenir de moi. |
|
|
![]()
Message
#5
|
|
![]() Macbidouilleur d'Or ! ![]() ![]() ![]() ![]() ![]() Groupe : Membres Messages : 2 723 Inscrit : 1 Nov 2021 Membre no 214 848 ![]() |
Mais je sais reconnaître une décision à faible gain/fort impact néfaste quand j'en vois une, y compris sur les usages qui ne sont pas les miens. Néfaste? le plupart des utilisateurs non-gamers n'auront absolument aucun désavantage avec ce chip graphique. Il est largement suffisant pour visionner une vidéo en HD, et même en édition vidéo, si l'encodage final prend 8 minutes au lieu de 2, quelle importance? Par contre si la consommation est moindre, alors là oui, ça compte! Parcequ' Apple a toujours été de mauvaise foi quand à BootCamp: avec Windows c'est toujours le chip graphique non-intel qui est seul utilisé, même si le chip Iris existe bien. Avec comme corollaire une consommation plus élevée, donc une temps de batterie plus faible. -------------------- "Les gens douteront toujours de la vérité sur Internet car l'erreur est constamment prêchée autour de nous" Johann Wolfgang von Goethe
MBP 15" 2015 Retina ( Win11), Macbook Air 2015 (en voyage), iMac 2015 27" Retina (Win11), MacbookPro 2008 pour le piano... pour ne citer que les Macs. |
|
|
![]()
Message
#6
|
|
Macbidouilleur d'Or ! ![]() ![]() ![]() ![]() ![]() Groupe : Membres Messages : 2 590 Inscrit : 5 Sep 2004 Membre no 23 103 ![]() |
Mais je sais reconnaître une décision à faible gain/fort impact néfaste quand j'en vois une, y compris sur les usages qui ne sont pas les miens. Néfaste? le plupart des utilisateurs non-gamers n'auront absolument aucun désavantage avec ce chip graphique. Il est largement suffisant pour visionner une vidéo en HD, et même en édition vidéo, si l'encodage final prend 8 minutes au lieu de 2, quelle importance? Par contre si la consommation est moindre, alors là oui, ça compte! Encore une fois, tu attribues les bons et les mauvais points en fonction de tes usages (*). Je parle de manière plus large. (*) ils se trouve que c'était aussi les miens (hors Bootcamp). mais je n'en fais pas une généralité sur l'ensemble du marché des CPU x86 ![]() -------------------- AMF: Ne possède pas d'actions Apple. Ne touche aucune rémunération, directe ou indirecte, d'Apple. Intervient ici depuis 20 ans à titre personnel. Ne partage pas son compte avec des tiers. N'a aucun lien avec les rédacteurs du blog MacBidouille.
Mes messages sont parfois édités par la modération dans le texte, et ce sans trace visible. Ce qui apparaît sous mon nom peut ne pas provenir de moi. |
|
|
![]()
Message
#7
|
|
![]() Macbidouilleur d'Or ! ![]() ![]() ![]() ![]() ![]() Groupe : Membres Messages : 2 723 Inscrit : 1 Nov 2021 Membre no 214 848 ![]() |
Encore une fois, tu attribues les bons et les mauvais points en fonction de tes usages (*). Ce sont les usages de presque tout le monde. Rares sont ceux qui on vraiment besoin d'un coproesseur graphique performant sur un notebook. Si c'etait le cas les constructeurs auraient réagi.Je parle de manière plus large. -------------------- "Les gens douteront toujours de la vérité sur Internet car l'erreur est constamment prêchée autour de nous" Johann Wolfgang von Goethe
MBP 15" 2015 Retina ( Win11), Macbook Air 2015 (en voyage), iMac 2015 27" Retina (Win11), MacbookPro 2008 pour le piano... pour ne citer que les Macs. |
|
|
![]()
Message
#8
|
|
![]() Macbidouilleur d'Or ! ![]() ![]() ![]() ![]() ![]() Groupe : Membres Messages : 1 579 Inscrit : 23 Feb 2011 Lieu : Essonne Membre no 164 889 ![]() |
Encore une fois, tu attribues les bons et les mauvais points en fonction de tes usages (*). Ce sont les usages de presque tout le monde. Rares sont ceux qui on vraiment besoin d'un coproesseur graphique performant sur un notebook. Si c'etait le cas les constructeurs auraient réagi.Je parle de manière plus large. Assez d'accord, j'ai un mac pro 2008, qui fait usage, si je ne fait pas de jeux Mais il sait me faire de l'encodage vidéo dans un temps raisonnable et son usage courant est fluide pour toute appli standard Les besoins techno, sont surtout imposées par les gourmandises cpu plus ou moins justifiées des librairies os ou des api Tout ceci justifie d'ailleurs l'obsolescence programmées que l'on ne subit que trop Il faudrait proposer des machine perenes pour un usage leger Des machines musclées pour un usage spécialisé Aujourd'hui la machine de mr tout le monde est sur vitaminées pour faire ce que tout un chacun fait au quotidien -------------------- un I-Book : 500 pages format 20x30, papier velin 160g
|
|
|
![]() ![]() |
Nous sommes le : 3rd September 2025 - 02:36 |