IPB

Bienvenue invité ( Connexion | Inscription )

> De la mémoire MLC supportant 30000 cycles d'écriture, Réactions à la news du 20/10/2009
Options
Lionel
posté 20 Oct 2009, 05:00
Message #1


BIDOUILLE Guru
*****

Groupe : Admin
Messages : 55 528
Inscrit : 14 Jan 2001
Lieu : Paris
Membre no 3



L'un des reproches (pas réellement justifiés) que l'on fait à la mémoire NAND MLC dont sont dotés les disques SSD, c'est d'avoir un nombre de cycles d'écriture limités, aux alentours de 10000. Au delà les cellules sont usées et sont mises de côté par le contrôleur du disque. Dans les faits, les contrôleurs de ces disques savent gérer cette usure et la répartir équitablement sur toutes les cellules. C'est ce qui permet aux SSD de supporter des années de fonctionnement intensif. Micron vient cependant de prouver qu'on peut faire mieux et a annoncé de la NAND MLC destinée aux entreprises et qui sera capable de supporter jusqu'à 30000 cycles d'écriture. Gravée en 34nm, elle sera produite en masse début 2010.
Intel utilisant déjà dans ses SSD de la mémoire fabriquée avec Micron, ils seront certainement les premiers à proposer des SSD plus résistants à l'usure. De plus, maintenant que la chose est faisable, l'industrie de la mémoire NAND MLC devrait dans un futur proche fixer ses standards à 30000 cycles également.



Pour le jeu, faisons un petit calcul. Prenons un SSD de 160 Go capable d'écrire les données à 200 Mo/s. Il lui faut 800 secondes pour être rempli en totalité. En prenant quelques raccourcis, il lui faudrait donc 800x10000 secondes pour arriver à user toutes ses cellules. Ceci représente une durée de 278 jours à 8 heures par jour, sans prendre en compte le temps d'effacement. Sachant que personne ne fait ce genre de chose, vous comprenez que 10000 cycles peuvent largement assurer plusieurs années d'usage intense d'un SSD. Avec cette nouvelle mémoire, nous serons certain que le disque survivra à l'ordinateur qui l'aura hébergé et même au cycle d'obsolescence de 2 ou 3 machines.

Par Lionel


--------------------
C'est parce que la vitesse de la lumière est plus grande que celle du son que tant de gens paraissent brillants avant d'avoir l'air con
Go to the top of the page
 
+Quote Post
 
Start new topic
Réponse(s)
marcmame
posté 20 Oct 2009, 23:05
Message #2


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 3 475
Inscrit : 26 Sep 2003
Membre no 9 876



Votre argumentation purement théorique ne me convainc pas.
Pas plus qu'une batterie prévue pour tenir théoriquement 500 cycles de charge/décharge est très loin de le faire dans l'utilisation réelle, les cycles d'usures ne sont pas en mode tout ou rien ! Les disques SSD verront aussi une diminution progressive de leur débit tout comme leur capacité et pas un arrêt brutal de chaque cellule une fois atteint le chiffre fatidique.
On a l'impression que vous ne retenez pas les leçons du passé... rolleyes.gif
Go to the top of the page
 
+Quote Post
SartMatt
posté 20 Oct 2009, 23:22
Message #3


Macbidouilleur d'Or !
*****

Groupe : Rédacteurs
Messages : 32 233
Inscrit : 15 Nov 2005
Membre no 49 996



Citation (marcmame @ 21 Oct 2009, 00:05) *
Votre argumentation purement théorique ne me convainc pas.
Pas plus qu'une batterie prévue pour tenir théoriquement 500 cycles de charge/décharge est très loin de le faire dans l'utilisation réelle, les cycles d'usures ne sont pas en mode tout ou rien ! Les disques SSD verront aussi une diminution progressive de leur débit tout comme leur capacité et pas un arrêt brutal de chaque cellule une fois atteint le chiffre fatidique.
On a l'impression que vous ne retenez pas les leçons du passé... rolleyes.gif


Encore une fois, non.
D'abord, il y aura bel et bien un arrêt brutal des cellules au 10000ème cycle : c'est le contrôleur lui même qui va désactiver les cellules ayant atteint cette valeur, par sécurité.
Pour les performances, non, elles ne vont pas se dégrader. La seule chose qui se dégrade au fil de l'usure des cellules, c'est la durée pendant laquelle elles vont conserver les données après écriture, pas leur vitesse de lecture/écriture.
Une cellule neuve a une durée de rétention de dix ans minimum. Une cellule ayant subit 10 000 cycles doit avoir une durée de rétention d'au moins un an selon les normes de qualité imposées par le JEDEC (comme je le disait plus haut, une cellule à 10 000 cycles est donc loin d'être réellement morte, elle est simplement désactivée par sécurité).
En pratique, les contrôleurs des SSD gardent encore une marge de sécurité par rapport à cette durée de rétention, pour s'assurer qu'il n'y a pas de pertes de données (ie sur une cellule en fin de vie, ils attendront beaucoup moins d'un an avant d'aller recopier les données ailleurs).
Et la diminution progressive de la capacité, ça n'arrivera qu'une fois qu'un nombre suffisant de cellules auront été désactivées par le contrôleur, c'est-à-dire quand le nombre de cellules désactivées sera supérieur au nombre de cellules surnuméraires embarquées sur le SSD*. Donc quand quelques % des cellules du SSD auront atteint des 10 000 cycles. Et comme le wear-leveling fait plutôt bien son boulot, à ce stade là il faut commencer à envisager le remplacement du SSD, car même si seulement 5% des cellules ont atteint les 10 000 cycles, tu peux être à peu près certain que les 95% restant ont dépassé les 9000 cycles.

Donc au final, ce qu'il se passe c'est que pendant les premières années, la capacité va être constante et le nombre de cellules désactivées va rester proche de 0 (et en tout cas, très inférieur au nombre de cellules surnuméraires), tandis que sur la fin, les choses vont se précipiter, et les cellules vont se désactiver très vite. Mais cette fin, elle surviendra pas avant un paquet d'années pour un usage normal.

*un peu comme le mécanisme de réallocation de secteurs sur un disque dur, qui a une zone contenant des secteurs en plus, vers lesquels sont remappés les secteurs défectueux, à une différence près : sur un disque dur, on ne tape dans la zone de réallocation que quand un secteur est défectueux, alors que sur un SSD, il n'y a pas de zone dédiée à la réallocation, c'est juste que l'espace d'adressage logique (vu par l'OS) et mappé sur un espace d'adressage physique plus grand, ce qui fait que le nombre d'écritures moyen sur chaque adresse physique est inférieur au nombre d'écriture moyen effectuées sur une adresses logique. Par exemple, sur un SSD avec 10% de cellules supplémentaires, si tu écris 1100 fois chaque adresse logique, tu n'auras écris en moyenne que 1000 fois chaque adresse physique, avec un écart à la moyenne d'autant plus faible que l'algorithme de wear-leveling est efficace.

Ce message a été modifié par SartMatt - 20 Oct 2009, 23:24.


--------------------

Go to the top of the page
 
+Quote Post

Les messages de ce sujet


Reply to this topicStart new topic
1 utilisateur(s) sur ce sujet (1 invité(s) et 0 utilisateur(s) anonyme(s))
0 membre(s) :

 



Nous sommes le : 3rd August 2025 - 17:10