IPB

Bienvenue invité ( Connexion | Inscription )

> De la mémoire MLC supportant 30000 cycles d'écriture, Réactions à la news du 20/10/2009
Options
Lionel
posté 20 Oct 2009, 05:00
Message #1


BIDOUILLE Guru
*****

Groupe : Admin
Messages : 55 528
Inscrit : 14 Jan 2001
Lieu : Paris
Membre no 3



L'un des reproches (pas réellement justifiés) que l'on fait à la mémoire NAND MLC dont sont dotés les disques SSD, c'est d'avoir un nombre de cycles d'écriture limités, aux alentours de 10000. Au delà les cellules sont usées et sont mises de côté par le contrôleur du disque. Dans les faits, les contrôleurs de ces disques savent gérer cette usure et la répartir équitablement sur toutes les cellules. C'est ce qui permet aux SSD de supporter des années de fonctionnement intensif. Micron vient cependant de prouver qu'on peut faire mieux et a annoncé de la NAND MLC destinée aux entreprises et qui sera capable de supporter jusqu'à 30000 cycles d'écriture. Gravée en 34nm, elle sera produite en masse début 2010.
Intel utilisant déjà dans ses SSD de la mémoire fabriquée avec Micron, ils seront certainement les premiers à proposer des SSD plus résistants à l'usure. De plus, maintenant que la chose est faisable, l'industrie de la mémoire NAND MLC devrait dans un futur proche fixer ses standards à 30000 cycles également.



Pour le jeu, faisons un petit calcul. Prenons un SSD de 160 Go capable d'écrire les données à 200 Mo/s. Il lui faut 800 secondes pour être rempli en totalité. En prenant quelques raccourcis, il lui faudrait donc 800x10000 secondes pour arriver à user toutes ses cellules. Ceci représente une durée de 278 jours à 8 heures par jour, sans prendre en compte le temps d'effacement. Sachant que personne ne fait ce genre de chose, vous comprenez que 10000 cycles peuvent largement assurer plusieurs années d'usage intense d'un SSD. Avec cette nouvelle mémoire, nous serons certain que le disque survivra à l'ordinateur qui l'aura hébergé et même au cycle d'obsolescence de 2 ou 3 machines.

Par Lionel


--------------------
C'est parce que la vitesse de la lumière est plus grande que celle du son que tant de gens paraissent brillants avant d'avoir l'air con
Go to the top of the page
 
+Quote Post
 
Start new topic
Réponse(s) (1 - 15)
cadfael
posté 20 Oct 2009, 07:58
Message #2


Macbidouilleur de bronze !
**

Groupe : Membres
Messages : 273
Inscrit : 2 May 2004
Lieu : Montreuil sous bois 93100
Membre no 18 334



Citation (Lionel @ 20 Oct 2009, 06:00) *
Pour le jeu, faisons un petit calcul. Prenons un SSD de 160 Go capable d'écrire les données à 200 Mo/s. Il lui faut 800 secondes pour être rempli en totalité. En prenant quelques raccourcis, il lui faudrait donc 800x10000 secondes pour arriver à user toutes ses cellules. Ceci représente une durée de 278 jours à 8 heures par jour, sans prendre en compte le temps d'effacement. Sachant que personne ne fait ce genre de chose, vous comprenez que 10000 cycles peuvent largement assurer plusieurs années d'usage intense d'un SSD.

Ok pour ce raisonnement. Mais, si on utilise ce type de support pour le fonctionnement de l'ordinateur et non le stockage, il me semble que le système et même les applications (?) écrivent en permanence, ou presque, des trucs sur le DD pour les utiliser ensuite. Donc dans ce mode d'utilisation, d'écriture/effacement quasi permanent, l'usure doit se rapprocher des 278 jours. Non ?


--------------------
Go to the top of the page
 
+Quote Post
aranaud
posté 20 Oct 2009, 08:05
Message #3


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 4 890
Inscrit : 6 Oct 2003
Membre no 10 144



Expliquer de cette façon, je pense que ceux qui se focalisent sur les problèmes d'usures des SSD devrait être rassurer.

cadfael, sa m'étonnerai que le système ou application écrivent en permanence à 200 Mo/s.

Ce message a été modifié par aranaud - 20 Oct 2009, 08:06.


--------------------
Hackintosh cru 2013 i7 3,5 GHz, Gigabyte Z87X-UD5H, 32 Go, Radeon RX 580, Sonoma, opencore (1.0.1) Si bios briqué --- Mac Mini M4 Pro 48Go, Sequoia
MacBook Pro cru 2012 15" 2.6GHz, HD Antireflet, 16 Go, Sonoma avec OCLP (2.0.2) --- Mac Mini cru 2012 2,5 GHz, 4 Go, High Sierra --- iPad Air (4ᵉ génération).
Go to the top of the page
 
+Quote Post
donatien21
posté 20 Oct 2009, 08:14
Message #4


Nouveau Membre


Groupe : Membres
Messages : 28
Inscrit : 29 Mar 2009
Membre no 133 706



Le calcul suppose que l'algorithme qui répartit les écritures sur tous les bloques (wear leveling) soit parfait. Or dans la pratique ce n'est pas le cas, sans compter qu'il peut y avoir des bugs. Je connais un autoradio qui tombait rapidement en panne à cause d'un tel bug.
Go to the top of the page
 
+Quote Post
Mac Moins
posté 20 Oct 2009, 08:57
Message #5


Macbidouilleur de vermeil !
****

Groupe : Membres
Messages : 1 076
Inscrit : 16 Dec 2002
Membre no 5 167



Citation (Lionel @ 20 Oct 2009, 06:00) *
Pour le jeu, faisons un petit calcul.


Pour le jeu seulement.

Pour une évaluation sérieuse du vieillissement et du taux de panne prévisible, c'est très différent. Il faut voir que le système passe son temps à réécrire les mêmes fichiers de base, donc probablement travaille sur les mêmes emplacements de mémoire. De même que sur un disque dur, ce sont les emplacements occupés par certains fichiers système qui sont les plus sollicités et donc risquent le plus d'avoir des pannes d'usure. L'utilisation n'est certainement pas uniforme, il y a des zones qui ne seront pratiquement jamais exploitées et d'autres au contraire qui seront lues-réécrites en permanence, donc fragilisées. On ne mastique pas avec la totalité de la surface émaillée des dents...

Par ailleurs les taux de 10 ou 30 000 sont des évaluations probabilistes, donc il y aura des pannes pour des disques jeunes et d'autres qui dureront des années, et il se passera des années avant que des mesures statistiques de taux de pannes remplacent des projections, que je sens plutôt optimistes et "commerciales"...

Annoncer un taux de 30000 brouzoufs alors que les concurrents publient 10000 fait monter les ventes, de là à le croire...


--------------------
Co-fondateur et Administrateur de l'U.P.L.
Membre du club des AIPBP (Anciens Inscrits Pas Beaucoup de Posts) Voir la liste
Go to the top of the page
 
+Quote Post
Lionel
posté 20 Oct 2009, 08:59
Message #6


BIDOUILLE Guru
*****

Groupe : Admin
Messages : 55 528
Inscrit : 14 Jan 2001
Lieu : Paris
Membre no 3



Citation (Mac Moins @ 20 Oct 2009, 09:57) *
Citation (Lionel @ 20 Oct 2009, 06:00) *
Pour le jeu, faisons un petit calcul.


Pour le jeu seulement.

Pour une évaluation sérieuse du vieillissement et du taux de panne prévisible, c'est très différent. Il faut voir que le système passe son temps à réécrire les mêmes fichiers de base, donc probablement travaille sur les mêmes emplacements de mémoire. De même que sur un disque dur, ce sont les emplacements occupés par certains fichiers système qui sont les plus sollicités et donc risquent le plus d'avoir des pannes d'usure. L'utilisation n'est certainement pas uniforme, il y a des zones qui ne seront pratiquement jamais exploitées et d'autres au contraire qui seront lues-réécrites en permanence, donc fragilisées. On ne mastique pas avec la totalité de la surface émaillée des dents...

Non non non ! Le contrôleur du disque veille justement à ce que les écritures se répartissent aussi équitablement que possible sur toutes les cellules via un système de rotation. Tu peux donc écrire 1000 fois un petit fichier, il sera écrit à 1000 endroits différents !

Citation (cadfael @ 20 Oct 2009, 08:58) *
Ok pour ce raisonnement. Mais, si on utilise ce type de support pour le fonctionnement de l'ordinateur et non le stockage, il me semble que le système et même les applications (?) écrivent en permanence, ou presque, des trucs sur le DD pour les utiliser ensuite. Donc dans ce mode d'utilisation, d'écriture/effacement quasi permanent, l'usure doit se rapprocher des 278 jours. Non ?

Il faut raisonner en volume de données, pas en fréquence. Tu n'écriras jamais 160 Go par jour en usage normal.


--------------------
C'est parce que la vitesse de la lumière est plus grande que celle du son que tant de gens paraissent brillants avant d'avoir l'air con
Go to the top of the page
 
+Quote Post
SartMatt
posté 20 Oct 2009, 09:07
Message #7


Macbidouilleur d'Or !
*****

Groupe : Rédacteurs
Messages : 32 233
Inscrit : 15 Nov 2005
Membre no 49 996



Citation (cadfael @ 20 Oct 2009, 08:58) *
Citation (Lionel @ 20 Oct 2009, 06:00) *
Pour le jeu, faisons un petit calcul. Prenons un SSD de 160 Go capable d'écrire les données à 200 Mo/s. Il lui faut 800 secondes pour être rempli en totalité. En prenant quelques raccourcis, il lui faudrait donc 800x10000 secondes pour arriver à user toutes ses cellules. Ceci représente une durée de 278 jours à 8 heures par jour, sans prendre en compte le temps d'effacement. Sachant que personne ne fait ce genre de chose, vous comprenez que 10000 cycles peuvent largement assurer plusieurs années d'usage intense d'un SSD.

Ok pour ce raisonnement. Mais, si on utilise ce type de support pour le fonctionnement de l'ordinateur et non le stockage, il me semble que le système et même les applications (?) écrivent en permanence, ou presque, des trucs sur le DD pour les utiliser ensuite. Donc dans ce mode d'utilisation, d'écriture/effacement quasi permanent, l'usure doit se rapprocher des 278 jours. Non ?


En pratique, on est très très très loin d'écrire en permanence à plein débit, surtout pas à 200 Mo/s (si c'était le cas, une machine de même puissance, avec un disque dur qui écrit à environ 100 Mo/s irait en permanence au mieux deux fois moins vite qu'avec un SSD...).
Sur ma machine principale (sous Windows, qui a la réputation de faire beaucoup d'écritures inutiles), si je monitore l'activité disque, en temps normal ça atteint pas plus de 200 Ko/s de moyenne lecture + écriture.


Juste pour rappel, pour les X25 de première génération en version 80 Go, Intel garanti 5 ans de bon fonctionnement à raison de 100 Go d'écriture par jour, soit une moyenne supérieure à 1 Mo/s.

Citation (Mac Moins @ 20 Oct 2009, 09:57) *
Pour une évaluation sérieuse du vieillissement et du taux de panne prévisible, c'est très différent. Il faut voir que le système passe son temps à réécrire les mêmes fichiers de base, donc probablement travaille sur les mêmes emplacements de mémoire. De même que sur un disque dur, ce sont les emplacements occupés par certains fichiers système qui sont les plus sollicités et donc risquent le plus d'avoir des pannes d'usure. L'utilisation n'est certainement pas uniforme, il y a des zones qui ne seront pratiquement jamais exploitées et d'autres au contraire qui seront lues-réécrites en permanence, donc fragilisées. On ne mastique pas avec la totalité de la surface émaillée des dents...


Google => "SSD wear-leveling"

Citation (Mac Moins @ 20 Oct 2009, 09:57) *
Par ailleurs les taux de 10 ou 30 000 sont des évaluations probabilistes, donc il y aura des pannes pour des disques jeunes et d'autres qui dureront des années, et il se passera des années avant que des mesures statistiques de taux de pannes remplacent des projections, que je sens plutôt optimistes et "commerciales"...


Alors déjà, les 10 000 cycles c'est pas probabiliste, c'est plutôt un minimum garanti, en pratique la majorité des cellules tiennent bien plus que ça.
Ensuite, absolument tous les SSD ont quelques % de cellules supplémentaires, ce qui fait que quand quelques cellules lâchent le SSD n'en est pas mort pour autant !


--------------------

Go to the top of the page
 
+Quote Post
aranaud
posté 20 Oct 2009, 09:32
Message #8


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 4 890
Inscrit : 6 Oct 2003
Membre no 10 144



Citation (SartMatt @ 20 Oct 2009, 10:07) *
Citation (Mac Moins @ 20 Oct 2009, 09:57) *
Par ailleurs les taux de 10 ou 30 000 sont des évaluations probabilistes, donc il y aura des pannes pour des disques jeunes et d'autres qui dureront des années, et il se passera des années avant que des mesures statistiques de taux de pannes remplacent des projections, que je sens plutôt optimistes et "commerciales"...


Alors déjà, les 10 000 cycles c'est pas probabiliste, c'est plutôt un minimum garanti, en pratique la majorité des cellules tiennent bien plus que ça.
Ensuite, absolument tous les SSD ont quelques % de cellules supplémentaires, ce qui fait que quand quelques cellules lâchent le SSD n'en est pas mort pour autant !

Et puis je présume que dans le pire des cas, à part une panne du contrôleur, si les cellules ne peuvent être remplacer, elles sont isolées et mit au rancart. On a une petite diminution de capacité mais sans perte de donnée.


--------------------
Hackintosh cru 2013 i7 3,5 GHz, Gigabyte Z87X-UD5H, 32 Go, Radeon RX 580, Sonoma, opencore (1.0.1) Si bios briqué --- Mac Mini M4 Pro 48Go, Sequoia
MacBook Pro cru 2012 15" 2.6GHz, HD Antireflet, 16 Go, Sonoma avec OCLP (2.0.2) --- Mac Mini cru 2012 2,5 GHz, 4 Go, High Sierra --- iPad Air (4ᵉ génération).
Go to the top of the page
 
+Quote Post
SartMatt
posté 20 Oct 2009, 09:46
Message #9


Macbidouilleur d'Or !
*****

Groupe : Rédacteurs
Messages : 32 233
Inscrit : 15 Nov 2005
Membre no 49 996



Citation (aranaud @ 20 Oct 2009, 10:32) *
Et puis je présume que dans le pire des cas, à part une panne du contrôleur, si les cellules ne peuvent être remplacer, elles sont isolées et mit au rancart. On a une petite diminution de capacité mais sans perte de donnée.


Oui. Exactement comme sur un disque dur, où les secteurs défectueux sont marqués par l'OS pour ne plus être utilisés.


--------------------

Go to the top of the page
 
+Quote Post
marcmame
posté 20 Oct 2009, 23:05
Message #10


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 3 475
Inscrit : 26 Sep 2003
Membre no 9 876



Votre argumentation purement théorique ne me convainc pas.
Pas plus qu'une batterie prévue pour tenir théoriquement 500 cycles de charge/décharge est très loin de le faire dans l'utilisation réelle, les cycles d'usures ne sont pas en mode tout ou rien ! Les disques SSD verront aussi une diminution progressive de leur débit tout comme leur capacité et pas un arrêt brutal de chaque cellule une fois atteint le chiffre fatidique.
On a l'impression que vous ne retenez pas les leçons du passé... rolleyes.gif
Go to the top of the page
 
+Quote Post
SartMatt
posté 20 Oct 2009, 23:22
Message #11


Macbidouilleur d'Or !
*****

Groupe : Rédacteurs
Messages : 32 233
Inscrit : 15 Nov 2005
Membre no 49 996



Citation (marcmame @ 21 Oct 2009, 00:05) *
Votre argumentation purement théorique ne me convainc pas.
Pas plus qu'une batterie prévue pour tenir théoriquement 500 cycles de charge/décharge est très loin de le faire dans l'utilisation réelle, les cycles d'usures ne sont pas en mode tout ou rien ! Les disques SSD verront aussi une diminution progressive de leur débit tout comme leur capacité et pas un arrêt brutal de chaque cellule une fois atteint le chiffre fatidique.
On a l'impression que vous ne retenez pas les leçons du passé... rolleyes.gif


Encore une fois, non.
D'abord, il y aura bel et bien un arrêt brutal des cellules au 10000ème cycle : c'est le contrôleur lui même qui va désactiver les cellules ayant atteint cette valeur, par sécurité.
Pour les performances, non, elles ne vont pas se dégrader. La seule chose qui se dégrade au fil de l'usure des cellules, c'est la durée pendant laquelle elles vont conserver les données après écriture, pas leur vitesse de lecture/écriture.
Une cellule neuve a une durée de rétention de dix ans minimum. Une cellule ayant subit 10 000 cycles doit avoir une durée de rétention d'au moins un an selon les normes de qualité imposées par le JEDEC (comme je le disait plus haut, une cellule à 10 000 cycles est donc loin d'être réellement morte, elle est simplement désactivée par sécurité).
En pratique, les contrôleurs des SSD gardent encore une marge de sécurité par rapport à cette durée de rétention, pour s'assurer qu'il n'y a pas de pertes de données (ie sur une cellule en fin de vie, ils attendront beaucoup moins d'un an avant d'aller recopier les données ailleurs).
Et la diminution progressive de la capacité, ça n'arrivera qu'une fois qu'un nombre suffisant de cellules auront été désactivées par le contrôleur, c'est-à-dire quand le nombre de cellules désactivées sera supérieur au nombre de cellules surnuméraires embarquées sur le SSD*. Donc quand quelques % des cellules du SSD auront atteint des 10 000 cycles. Et comme le wear-leveling fait plutôt bien son boulot, à ce stade là il faut commencer à envisager le remplacement du SSD, car même si seulement 5% des cellules ont atteint les 10 000 cycles, tu peux être à peu près certain que les 95% restant ont dépassé les 9000 cycles.

Donc au final, ce qu'il se passe c'est que pendant les premières années, la capacité va être constante et le nombre de cellules désactivées va rester proche de 0 (et en tout cas, très inférieur au nombre de cellules surnuméraires), tandis que sur la fin, les choses vont se précipiter, et les cellules vont se désactiver très vite. Mais cette fin, elle surviendra pas avant un paquet d'années pour un usage normal.

*un peu comme le mécanisme de réallocation de secteurs sur un disque dur, qui a une zone contenant des secteurs en plus, vers lesquels sont remappés les secteurs défectueux, à une différence près : sur un disque dur, on ne tape dans la zone de réallocation que quand un secteur est défectueux, alors que sur un SSD, il n'y a pas de zone dédiée à la réallocation, c'est juste que l'espace d'adressage logique (vu par l'OS) et mappé sur un espace d'adressage physique plus grand, ce qui fait que le nombre d'écritures moyen sur chaque adresse physique est inférieur au nombre d'écriture moyen effectuées sur une adresses logique. Par exemple, sur un SSD avec 10% de cellules supplémentaires, si tu écris 1100 fois chaque adresse logique, tu n'auras écris en moyenne que 1000 fois chaque adresse physique, avec un écart à la moyenne d'autant plus faible que l'algorithme de wear-leveling est efficace.

Ce message a été modifié par SartMatt - 20 Oct 2009, 23:24.


--------------------

Go to the top of the page
 
+Quote Post
zero
posté 21 Oct 2009, 10:59
Message #12


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 12 576
Inscrit : 25 Nov 2001
Membre no 1 397



Faut pas oublier que les cellules ne sont pas mises en quarantaine une par une mais bloc par bloc (Mémoire flash oblige). Et le Trim permet seulement de limiter la perte de performance mais, il y en a quand même à la longue. Donc ça va plus vite.

Ce message a été modifié par zero - 21 Oct 2009, 11:12.
Go to the top of the page
 
+Quote Post
SartMatt
posté 21 Oct 2009, 11:12
Message #13


Macbidouilleur d'Or !
*****

Groupe : Rédacteurs
Messages : 32 233
Inscrit : 15 Nov 2005
Membre no 49 996



Citation (zero @ 21 Oct 2009, 11:59) *
Faut pas oublier que les cellules ne sont pas mises en quarantaine une par une mais bloque par bloque (Mémoire flash oblige).


Non, pas bloc par bloc, mais page par page. Et ça tombe bien, car toutes les cellules d'une même page ont connu le même nombre d'écritures, vu que les écritures se font par pages entières. Et comme une page fait 2 Ko alors qu'une unité d'allocation de système de fichier en fait en général 4 Ko, le fait de fonctionner par pages n'induit pas un volume d'écriture physique supérieur au volume logique.

Par contre, avec le wear-leveling et les effacements par blocs, il y a effectivement un léger surcoût en écriture. Sur les X25 par exemple, Intel parle d'un volume physique qui est en moyenne supérieur de 10% au volume logique. Mais c'est en tenant compte de ça qu'ils garantissent 5 années de fonctionnement à 100 Go/jour sur le modèle 80 Go.

Citation (zero @ 21 Oct 2009, 11:59) *
Et le Trim permet seulement de limiter la perte de performance mais il y en a quand même à la longue.


Cette perte de performance n'a rien à voir avec l'usure des cellules. La perte de performance qu'on observe à l'usage est due à la fragmentation du SSD et au fait qu'il devient du coup impossible de trouver des blocs entièrement vides.
Un simple secure erase du SSD (opération qui prend tout au plus une dizaine de secondes, mais efface tout son contenu) suffit à restaurer les performances d'origine, même sur un SSD n'embarquant aucun algorithme d'optimisation des performances.


--------------------

Go to the top of the page
 
+Quote Post
zero
posté 21 Oct 2009, 11:55
Message #14


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 12 576
Inscrit : 25 Nov 2001
Membre no 1 397



Citation (SartMatt @ 21 Oct 2009, 19:12) *
Citation (zero @ 21 Oct 2009, 11:59) *
Faut pas oublier que les cellules ne sont pas mises en quarantaine une par une mais bloque par bloque (Mémoire flash oblige).


Non, pas bloc par bloc, mais page par page.

biggrin.gif Toujours à jouer sur les mots à ce que je vois.
Citation (Lionel @ 20 Oct 2009, 13:00) *
Au delà les cellules sont usées et sont mises de côté par le contrôleur du disque.

Je réagissais à cette phrase car un SSD accède à sa mémoire bloc par bloc (heu pardon page par page) et non pas cellule par cellule (une cellule contient de 1 à 4 bit selon les mémoires utilisées).

Ce message a été modifié par zero - 21 Oct 2009, 12:08.
Go to the top of the page
 
+Quote Post
SartMatt
posté 21 Oct 2009, 12:11
Message #15


Macbidouilleur d'Or !
*****

Groupe : Rédacteurs
Messages : 32 233
Inscrit : 15 Nov 2005
Membre no 49 996



Citation (zero @ 21 Oct 2009, 12:55) *
Citation (SartMatt @ 21 Oct 2009, 19:12) *
Citation (zero @ 21 Oct 2009, 11:59) *
Faut pas oublier que les cellules ne sont pas mises en quarantaine une par une mais bloque par bloque (Mémoire flash oblige).


Non, pas bloc par bloc, mais page par page.

biggrin.gif Toujours à jouer sur les mots à ce que je vois.


Non, là c'est pas jouer sur les mots. C'est juste que les notions de bloc et de pages au niveau des mémoire flash sont deux choses très différentes. Tu aurais parlés de bloc au lieu de secteur pour un disque dur, j'aurais pas réagi, mais sur une mémoire flash, un bloc c'est l'unité minimale d'effacement et une page, c'est l'unité minimale d'accès en lecture et en écriture.

Avec en général 1 page = 2 Ko et 1 bloc = 256 pages (mais ça peut aussi prendre des valeurs très différentes, selon l'utilisation à laquelle on va destiner la flash).


--------------------

Go to the top of the page
 
+Quote Post
zero
posté 21 Oct 2009, 12:21
Message #16


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 12 576
Inscrit : 25 Nov 2001
Membre no 1 397



Citation (zero @ 21 Oct 2009, 19:55) *
Citation (Lionel @ 20 Oct 2009, 13:00) *
Au delà les cellules sont usées et sont mises de côté par le contrôleur du disque.

Je réagissais à cette phrase car un SSD accède à sa mémoire bloc par bloc (heu pardon page par page) et non pas cellule par cellule (une cellule contient de 1 à 4 bit selon les mémoires utilisées).

Go to the top of the page
 
+Quote Post

Reply to this topicStart new topic
1 utilisateur(s) sur ce sujet (1 invité(s) et 0 utilisateur(s) anonyme(s))
0 membre(s) :

 



Nous sommes le : 3rd August 2025 - 17:07