Testez la durée de vie du lecteur ssd. Comment savoir combien de temps durera votre SSD

De nos jours, les disques SSD sont de plus en plus populaires parmi les utilisateurs. Et il y a de nombreuses raisons à cela, parmi lesquelles il convient de mentionner le silence, la fiabilité et la vitesse élevée de lecture et d'écriture. Pour cette raison, ces appareils sont idéaux pour une utilisation en tant que disques système, ainsi que pour enregistrer des programmes exigeant une vitesse d'échange d'informations sur eux.

Durée de vie des disques SSD

Cependant, en plus des avantages, ces entraînements ont il y a aussi des inconvénients. Ils sont non seulement plus chers que les disques durs conventionnels, mais aussi limités en nombre de cycles d'écriture. C'est à cause de cette limitation que de nombreux utilisateurs considèrent que les SSD sont de courte durée. Cependant, ce n'est pas tout à fait vrai, le nombre de cycles est limité, mais cela ne signifie pas que le support tombera en panne très rapidement. Il y a un peu caractéristiques importantes ce qui aidera à déterminer la durée de vie. Une ressource TBW (Total Bytes Written) qui indique la quantité totale de données pouvant être écrites sur le disque. Et DWPD (Disk Write per Day), qui indique le nombre d'écrasements autorisés par jour.

Comment calculer la ressource SSD

Pour les lecteurs conventionnels, le nombre moyen de cycles d'écriture est de trois mille. Pour certains modèles plus anciens, ce nombre est plus élevé et pour certains, il est inférieur. Mais ce n'est pas quelque chose auquel vous devriez faire attention, mais le DWPD peut être calculé à l'aide d'une formule.

Cependant, l'utilisateur peut trouver les mêmes données en ouvrant simplement la page dans le magasin.

Donc, voici un simple disque. D'après les caractéristiques, vous pouvez voir que tbw est de 256 et que dwpd est de 0,5. En fait, cela signifie que l'utilisateur peut écrire sur le support 256 téraoctets d'informations, tout en n'écrasant pas plus de la moitié du volume par jour, soit 240 Go. Une telle réserve devrait suffire pendant plusieurs années, si le SSD n'est pas utilisé pour l'échange constant de fichiers, dans lequel une donnée est remplacée par une autre 24 heures sur 24.

Nous pouvons donc conclure que les SSD sont assez durables. Si un système, plusieurs programmes et jeux y sont installés, ils pourront fonctionner pendant 3 à 5 ans (pour la plupart, les fabricants donnent une telle garantie). Dans le même temps, il faut comprendre qu'après un tel laps de temps, ils deviendront obsolètes non seulement physiquement, mais aussi moralement. À peu près la même chose, comment savoir exactement combien il reste pour servir un disque déjà utilisé, sera plus loin.

Durée de vie du SSD

Vous devez télécharger l'utilitaire sur le site officiel https://ssd-life.ru/rus/download.html. Le programme est facile à utiliser, il vous suffit de le télécharger et de l'exécuter. Puis elle va scanner le disque, montrera son état actuel (ligne de santé) et fera également une estimation de sa durée de vie Disque SSD sur la base des données disponibles.

Sentinelle du disque dur

Le téléchargement doit se faire depuis le site https://www.hdsentinel.com/. Cette application pourra évaluer les performances du SSD et montrer tous ses problèmes et défauts, ainsi que la température. Peut-être assumer la durée de vie. Le programme est payant, cependant, une version d'essai est disponible.

SSD-Z

Vous pouvez télécharger le programme à partir de la page du développeur http://www.aezay.dk/aezay/ssdz/. L'application affichera toutes les informations sur le disque. Içi vous pouvez voir le total informations déjà enregistrées et comparez-les avec le tbw spécifié, s'ils sont approximativement égaux, il vaut la peine de se préparer à remplacer le support.

Comment fonctionne le lecteur

Un disque SSD fonctionne sur un principe différent de tous les disques durs habituels. Il enregistre dans des cellules de mémoire spéciales, comme sur une clé USB. Nombre de lectures à partir de là illimité, mais la ressource diminue après chaque remplacement de cellule. C'est pourquoi il est préférable de stocker des fichiers et des programmes sur de tels disques, qui nécessitent souvent un accès rapide aux données, mais eux-mêmes ne sont pas écrasés. Ces disques durs sont idéaux pour installer des systèmes et des programmes volumineux qui consomment beaucoup de ressources, mais sont mal adaptés au stockage d'informations multimédias.

Il existe plusieurs fonctions qui vous permettent d'augmenter la durée de vie, par exemple, la garniture. Cette technologie permet notifier le lecteur que certains blocs n'ont plus besoin d'être stockés, cela se produit lorsque l'utilisateur supprime des informations. L'utilisateur peut également désactiver défragmentation et nettoyage de disque car cela n'a pas de sens pour le ssd. De plus, les contrôleurs modernes sont capables d'équilibrer indépendamment les cellules, de sorte que l'usure soit à peu près la même, ce qui vous permet de prolonger la durée de vie.

Mythes sur les disques SSD

Il existe plusieurs mythes qui méritent d'être évoqués séparément.

  1. Durée de vie courte. Cela a été discuté tout au long de l'article. Si un tel lecteur est utilisé correctement, sa durée de vie n'est en aucun cas inférieure à celle des disques ordinaires.
  2. Grand coût. Disques pour Utilisation à la maison pas si cher, dans ce cas, vous ne devriez pas chasser le volume, car la haute vitesse n'est utile que pour certains programmes et jeux. Habituellement, le disque système de l'utilisateur prend de 5 à 200 Go, et c'est le montant sur lequel vous devez vous concentrer lors de l'achat.
  3. Optimisation du système complexe. Il n'y a pas grand-chose à dire ici, si le système est installé sur un tel disque, vous devez activer le trim et désactiver la défragmentation programmée. De plus, sous Windows 10, tous les paramètres sont définis automatiquement.
  4. Une réinstallation du système est nécessaire après l'installation du lecteur. S'il s'agit d'un supplément, ce n'est pas obligatoire. De plus, il existe des utilitaires qui vous permettront de transférer le système d'un lecteur à un autre, en conservant tous les paramètres et programmes.
  5. Le variateur doit être surveillé en permanence. Comme les autres lecteurs, il ne nécessite pas de soins particuliers. L'essentiel est de s'assurer qu'il ne tombe pas, ne chauffe pas, ne reçoive pas d'eau dessus et qu'il n'y ait pas de surtensions. Cela s'applique à tout le matériel, pas seulement aux SSD.
  6. Les SSD n'améliorent pas les performances. Ils donnent une augmentation aux applications qui nécessitent un échange constant de données. Toutefois, si vous naviguez simplement sur Internet via un navigateur ou tapez document texte, alors l'augmentation peut ne pas être particulièrement perceptible.
  7. Ces disques ne sont pas fiables. Un autre mythe, car de tels appareils n'ont pas de pièces mobiles, ce qui augmente considérablement leur fiabilité et leur tolérance aux pannes.

3.12.2017.

15.11.2017. Une nouvelle version (déjà la troisième consécutive) a été ajoutée aux tests de ressources, équipée de la V-NAND 3D TLC à 64 couches la plus avancée. De tels disques ont commencé à apparaître sur les étagères des magasins au lieu des anciennes versions avec une mémoire à 48 couches, donc un test supplémentaire de ce modèle ne sera évidemment pas superflu. Les informations d'état des autres lecteurs testés ont été mises à jour.

2.11.2017 . Fin des tests, qui ont finalement établi un record d'endurance parmi les SSD basés sur une mémoire flash planaire avec des cellules à trois bits. Les informations sur le statut des autres participants au test sont ramenées à l'état actuel.

16.10.2017 . La prochaine mise à jour prévue du matériel, dans laquelle toutes les statistiques des modèles SSD participant aux tests sont mises à l'état actuel. En outre, de nombreux lecteurs testés ont été réapprovisionnés en raison d'une nouveauté très curieuse - . Ce SSD présente un grand intérêt car il utilise la nouvelle NAND TLC 3D 64 couches, récemment produite par Intel lui-même. Il s'agit du premier lecteur de mémoire 3D progressif à 64 couches que nous avons testé.

7.10.2017 . Un autre modèle de lecteur a été ajouté aux tests, ce qui intéresse depuis longtemps nos lecteurs. Il s'agit d'un vieil homme basé sur le contrôleur SF-2281 et la mémoire MLC. Pour une raison inconnue, un tel SSD est toujours vendu dans les magasins, malgré le fait que le contrôleur SandForce a déjà, effrayant à penser, sept ans. Dans le même temps, un autre lecteur basé sur le contrôleur Phison PS3111-S11 a terminé sa participation aux tests. Pour tous les autres participants au test qui continuent de travailler, les données ont été mises à jour.

18.09.2017 . En raison de nombreuses demandes de lecteurs, un nouveau participant a été ajouté aux tests - . Il se distingue par le fait qu'il utilise une mémoire eMLC avec une ressource déclarée de 10 000 cycles de réécriture. Des tests ont été effectués pour deux autres modèles, et dont l'endurance s'est avérée faible. La disparition rapide du Plextor S3C n'était pas du tout surprenante - ce modèle utilise une mémoire TLC de faible qualité, mais le mauvais résultat du Transcend SSD230 de Micron avec 3D TLC NAND vous fait vous poser des questions. Soit il y a des erreurs dans le contrôleur SMI SM2258, soit Micron fournit délibérément des puces de mémoire flash défectueuses sur le marché libre. Dans tous les cas, jusqu'à ce que plus d'informations soient disponibles, nous vous recommandons de ne pas acheter de disques basés sur une combinaison de SMI SM2258 et Micron 3D TLC NAND : ADATA Ultimate SU800, HP S700 Pro, Smartbuy Climb, Transcend SSD230, etc.

3.09.2017 . Les tests de durée de vie du SSD datent d'un an. C'est assez long, mais les statistiques de visites sur cette page suggèrent que l'intérêt pour le sujet de l'endurance différents modèles Il existe encore des disques SSD. Et cela signifie que les tests se poursuivront et que le matériel continuera d'être mis à jour deux fois par mois. Les données sur le kilométrage des sujets sont ramenées à l'état actuel.

17.08.2017 . Deux modèles intéressants et de haute qualité ont terminé leur participation aux tests à la fois - et. Les deux ont montré un très bon résultat, dont une analyse détaillée est ajoutée au matériel. De plus, les tests comprenaient deux SSD de la catégorie des nouveaux produits frais - et. Les informations sur la réussite des tests par tous les autres lecteurs ont été mises à jour.

3.08.2017

16.07.2017 . Une autre mise à jour du matériel. Il a abandonné les tests, mais cela ne l'a pas empêché d'établir un record d'endurance. Deux nouveaux modèles basés sur la popularité croissante de la 3D TLC NAND ont été ajoutés au nombre de participants au test : et . En cours de route, toutes les informations sur les disques qui continuent de fonctionner dans le cadre des systèmes de test ont été mises à jour.

6.07.2017 . Les informations sur la réussite du test sont ramenées à l'état actuel. Une paire de SSD SATA - et - a atteint sa limite de capacité d'écriture et a mis fin à sa participation au test. Les détails de la façon dont cela s'est produit sont ajoutés à la section pertinente du matériel. Dans un avenir proche, nous essaierons de compléter la composition des disques testés.

20.06.2017 . Les informations sur l'état actuel du SSD ont été mises à jour. Au cours des dernières années, le lecteur NVMe a abandonné les tests, une section basée sur les résultats de ses tests a été ajoutée sur la troisième page.

4.06.2017 . Données mises à jour sur l'état des disques testés.

16.05.2017 . Il n'y a eu aucune panne de disque depuis la dernière mise à jour de l'article, donc toutes les modifications concernent la durée de fonctionnement actuelle des modèles testés. Cependant, en plus de cela, un nouveau participant a été ajouté aux tests - un lecteur de référence basé sur la très populaire plate-forme Phison S10 avec mémoire MLC.

30.04.2017 . Données d'état mises à jour pour les disques qui subissent déjà des tests d'usure. En plus de ceux-ci, nous avons ajouté quelques nouveaux SSD supplémentaires que les lecteurs ont demandé à inclure. Il y a cinq nouveaux membres à la fois : (basé sur Micron MLC 3D NAND), (sans tampon, basé sur Micron TLC 3D NAND), (NVMe, basé sur Toshiba 15nm MLC NAND), (basé sur SanDisk 15nm TLC NAND) et (sans tampon , basé sur Toshiba 15nm TLC NAND).

16.04.2017 . Au cours des deux dernières semaines depuis la dernière mise à jour, quatre disques ont abandonné les tests en même temps. Et si en même temps, ils ont montré une fiabilité pratique très décente pour les modèles construits sur la mémoire TLC, alors les deux autres SSD ont échoué, et, enregistrés en toute confiance parmi les étrangers. Une histoire détaillée sur ces quatre a été déplacée dans la dernière partie de l'article. Les informations sur le statut actuel des autres participants ont été mises à jour.

31.03.2017 . Tests terminés pour un autre trajet. Décédé par épuisement des ressources, et les informations le concernant ont été déplacées dans la section nécrologique. Deux nouveaux participants ont été ajoutés aux tests : un populaire, dont nos lecteurs demandent depuis longtemps de vérifier la fiabilité, et un lecteur NVMe prometteur, qui a enfin commencé à être livré en Russie. Les informations sur le temps de fonctionnement de tous les autres participants au test vivant ont été mises à jour.

15.03.2017 . Beaucoup de mises à jour. Tout d'abord, deux autres disques ont été testés : et . Ils ont établi deux records à la fois - pour l'endurance maximale et minimale. Deuxièmement, un nouveau SSD original a été inclus dans les tests - basé sur la TLC 3D NAND de Micron. Troisièmement, nous avons transféré toutes les informations sur les disques qui ont déjà terminé leur cycle de vie vers . Et quatrièmement, les informations sur tous ces SSD qui continuent de fonctionner sous charge ont été mises à jour.

3.03.2017 . Données mises à jour sur l'état des disques testés.

15.02.2017 . Données mises à jour sur l'état des disques testés. A la demande des lecteurs, deux nouveaux modèles de SSD ont été ajoutés aux tests : et.

31.01.2017 . Un autre essai routier a épuisé ses ressources - . La section qui lui est consacrée a été déplacée vers le chapitre "". Au lieu de cela, un nouveau produit de Toshiba, un lecteur, a été ajouté aux tests. L'état des autres disques testés a été mis à jour.

15.01.2017 . Données mises à jour sur l'état des disques testés. De plus, en raison de l'intérêt accru pour notre test, il y a eu un renouvellement à grande échelle de la composition des participants au test. Six nouveaux SSD ont été ajoutés à leur nombre à la fois :, et. Nous continuons à écouter les opinions des lecteurs et, dans un proche avenir, l'ensemble des SSD en cours de test sera à nouveau complété.

6.01.2017 .Deux des disques participant aux tests ( et ) ont épuisé leur ressource. Analyse détaillée leur cycle de vie est placé dans la section "". À la fin de l'article, un tableau récapitulatif mis à jour a été ajouté avec une ressource pratique qui a été montrée par les participants au test qui ont réussi le test. L'état des autres disques testés a été mis à jour. De plus, l'ensemble des SSD testés devrait être réapprovisionné dans un proche avenir.

1.12.2016 . Données mises à jour sur l'état des disques testés. De plus, dans le cadre de l'étude en cours, nous avons décidé de mener une autre expérience liée à l'étude de l'endurance des SSD. Ils passeront les deux prochaines semaines hors ligne. Ainsi, nous vérifierons si la mémoire flash usée est capable de stocker des données au repos complet, lorsqu'elle est dans un état hors tension et n'est pas surveillée par le contrôleur.

15.11.2016 . Données mises à jour sur l'état des disques testés.

30.10.2016 . Données mises à jour sur l'état des disques testés.

15.10.2016 . Données mises à jour sur l'état des disques testés. Un nouveau lecteur a été ajouté aux tests - sur une NAND 3D TLC à 32 couches fabriquée par Micron.

30.09.2016 . Données mises à jour sur l'état des disques testés.

15.09.2016 . Données mises à jour sur l'état actuel des disques testés.

1.09.2016 . Première version.

Le Crucial BX500 est un nouveau disque grand public que Micron a l'intention de proposer au bas du marché des SSD SATA. En raison de son bon marché, il y avait même des rumeurs selon lesquelles il utilisait QLC 3D NAND, mais en réalité, cela s'est avéré ne pas être le cas. Le BX500 est un SSD à mémoire de cellule 3 bits sans tampon typique basé sur le contrôleur SMI SM2258XT. La mémoire flash qui sous-tend le BX500 est la NAND 3D TLC 64 couches propriétaire de deuxième génération de Micron, qui est utilisée, par exemple, dans le lecteur haut de gamme, le MX500. Et cela signifie que malgré son bon marché, le nouveau Crucial BX500 peut être assez durable.

Les tests d'endurance du Crucial BX500 240 Go se poursuivent. L'état actuel du lecteur est affiché sous forme de capture d'écran.

  • Le volume de l'enregistrement transféré par le lecteur est 958 To. C'est un ordre de grandeur supérieur à la ressource déclarée de 80 To, mais vous pouvez vous attendre à une bien meilleure endurance de la part du BX500. Ainsi, basé sur le même lecteur NAND 3D TLC à 64 couches, le Crucial MX500 a pu transférer 1 Po d'écrasements.
  • Selon S.M.A.R.T., la mémoire flash du lecteur ne présente aucun problème. Les valeurs zéro stockent les variables 01 (Raw Read Error Rate) - le nombre d'erreurs de lecture, 05 (Reallocated NAND Blocks) - le nombre de blocs réaffectés, AB (Program Fail Count) - le nombre d'erreurs d'écriture et AC (Erase Fail Count) - le nombre d'erreurs d'effacement de données.
  • Le nombre moyen de cycles d'effacement de programme pour les cellules TLC 3D NAND est actuellement de 4306. Le contrôleur de lecteur évalue cela comme un épuisement complet des ressources. Sans surprise, le firmware du BX500 spécifie que la mémoire NAND 3D TLC ne doit supporter que 1500 cycles d'écriture.

GOODRAM CX300 est un représentant de toute une classe de lecteurs économiques qui ont inondé les étagères des magasins ces derniers mois. Particularité Un tel SSD favorise la conception sans tampon et l'utilisation de la plate-forme Phison S11. La variante GOODRAM est en outre intéressante en ce qu'elle est basée sur la nouvelle NAND 3D TLC à 32 couches de Micron, ce qui la rend similaire à des disques tels que Corsair LE200, GALAX Gamer L, PNY CS3111b, Silicon Power S55, etc. Les plates-formes sans tampon affichent généralement une endurance pas trop impressionnante, mais qu'en est-il dans ce cas particulier ?

Les tests d'endurance du GOODRAM CX300 240 Go se poursuivent. L'état actuel du lecteur est affiché sous forme de capture d'écran.

Vous pouvez déchiffrer les données fournies comme suit :

  • Le volume de l'enregistrement transféré jusqu'à présent - 2575 To. Et c'est apparemment proche de la limite de ce SSD. En règle générale, les SSD construits sur la mémoire 3D TLC de Micron transfèrent entre 2 et 3 Po d'écritures, et nous en voyons ici une autre confirmation.
  • Comme le montre la pratique, l'attribut principal de S.M.A.R.T., par lequel vous devez surveiller l'état de la matrice de mémoire flash de lecteurs basés sur des contrôleurs Phison, est AA (Bad Block Count). À ce jour, 32 erreurs ont été enregistrées dans cette variable qui sont apparues pendant le fonctionnement. Des problèmes ont commencé à survenir après l'écriture de 2,4 Po de données sur le disque, et apparemment leur nombre va maintenant augmenter rapidement.
  • Le nombre moyen d'écrasements de cellules flash est de 10 669 (codé dans le paramètre AD). Cette valeur est évaluée en S.M.A.R.T. comme une usure complète de l'entraînement (voir paramètre E7, qui indique la ressource restante en pourcentage). GOODRAM pense que la NAND 3D TLC de Micron a été conçue pour 1 000 cycles d'écriture. La société Micron elle-même parle d'une ressource de 1500 cycles de programmation-effacement. Mais comme vous pouvez le voir dans les résultats des tests, la valeur des ressources de GOODRAM et de Micron est prise en compte avec une grande tolérance. Par exemple, lors des tests du Crucial MX300, une telle mémoire était capable de transférer environ 10 000 cycles d'écriture.

Kingston A1000 est l'un des SSD NVMe les plus populaires. C'est pourquoi nous l'avons inclus dans le test, même s'il faut admettre que ses performances réelles ne sont pas du tout aussi élevées que les autres SSD NVMe, puisque Kingston a choisi pour son produit un contrôleur Phison E8 dépouillé ne prenant en charge que deux voies. PCI express. Le secret de la demande de l'offre de Kingston réside dans son bon marché. Cependant, de tels produits éveillent généralement la méfiance : si le prix est inférieur à celui des concurrents, le constructeur a-t-il économisé sur quelque chose de significatif, par exemple sur la qualité de la mémoire ? De plus, ce lecteur est basé sur la mémoire tridimensionnelle BiCS3 de Toshiba (TLC 3D), qui se manifeste de manière très différente.

Les tests du Kingston A1000 240 Go se poursuivent. L'état actuel du lecteur est affiché sous forme de capture d'écran.

Vous pouvez déchiffrer les données fournies comme suit :

  • 968 To. Dans le même temps, une ressource de 150 To est déclarée pour le disque, mais en moyenne, les SSD avec une NAND 3D TLC à 64 couches similaire fabriquée par Toshiba peuvent transférer environ 750 To de réécriture en pratique.
  • Aucun signe de dégradation de la matrice flash dans les variables S.M.A.R.T. 0E (Erreurs d'intégrité du support et des données) et 03 (Rechange disponible) ne sont pas inclus. Les cellules de mémoire flash sont dans un état complètement "sain", ce qui n'est pas surprenant avec une telle exécution.
  • Les cellules de mémoire flash du lecteur ont été écrasées en moyenne 3 822 fois jusqu'à présent. Dans S.M.A.R.T. on considère que la ressource de mémoire flash a déjà été épuisée, ce qui n'est pas surprenant, puisque selon la spécification, la mémoire flash utilisée par TLC est conçue pour 3 000 cycles d'effacement de programme.

La marque russe Smartbuy continue de nous fournir des produits très intéressants à tester. Cette fois, nous avons pris un lecteur Smartbuy Leap à petit budget pour les tests, qui utilise la NAND MLC 3D à 32 couches de Micron, qui fonctionne bien dans d'autres lecteurs. Cependant, Leap a fait l'objet d'une attention particulière car il s'agit d'un modèle ultra-économique basé sur le contrôleur sans tampon Marvell 88NV1120. Il semble que ce SSD devrait être recommandé pour ceux qui ont un budget limité, mais placent tout de même la fiabilité du stockage des données à l'une des premières places. Nous avons juste besoin de vérifier si Leap est vraiment aussi robuste qu'il y paraît et que son fabricant le promet.

Les tests d'endurance du Smartbuy Leap 256 Go se poursuivent. L'état actuel du lecteur est affiché sous forme de capture d'écran.

Vous pouvez déchiffrer les données fournies comme suit :

  • Le volume de l'enregistrement transféré est 2661 To. C'est déjà plus que la ressource déclarée par le constructeur de 768 To de réécriture, mais moins que la ressource pratique affichée par d'autres SSD basés sur la même NAND 3D MLC 32 couches de Micron : ADATA XPG SX950 et ADATA Ultimate SU900.
  • Le nombre de secteurs réaffectés est de 0, ce qui signifie que l'état de la matrice mémoire flash peut être considéré comme excellent.
  • Le nombre moyen de réécritures de cellules de mémoire flash est de 11 187. Dans les diagnostics S.M.A.R.T. de Smartbuy Leap, cette exécution n'est interprétée d'aucune façon, mais Micron revendique une ressource garantie de 3 000 cycles d'effacement de programme pour sa MLC 3D NAND. Cependant, c'est aussi une sous-estimation : dans d'autres disques, une telle mémoire peut supporter des dizaines de milliers d'écrasements sans aucun problème.

⇡ Fiabilité du stockage des données sur les SSD désactivés

En plus de tester la ressource de réécriture, nous avons également vérifié si les lecteurs qui ont épuisé la ressource déclarée par le fabricant sont capables de stocker en toute confiance des données à l'état désactivé. A ce compte, il y a un grand nombre deÀ un moment donné, nous avons décidé d'arrêter les tests d'endurance de cycle pendant deux semaines et de voir si les SSD grand public vieillis lors de notre test pouvaient conserver les données qui leur étaient écrites pendant une période prolongée lorsque l'alimentation était coupée. Ainsi, six modèles de variateurs ont participé à ce test dont le temps de fonctionnement est plusieurs fois supérieur aux indicateurs d'endurance déclarés par les constructeurs.

  • Crucial MX300 275 Go après écriture de 487 To d'informations ;
  • KingDian S280 240 Go après avoir écrit 578 To d'informations ;
  • OCZ Trion 150 240 Go après écriture de 640 To d'informations ;
  • Plextor M7V 256 Go après écriture de 1026 To d'informations ;
  • Samsung 850 PRO 256 Go après avoir écrit 1049 To d'informations ;
  • Samsung 850 EVO 250 Go de deuxième génération après avoir enregistré 1969 To d'informations.

Deux semaines passées dans un état hors tension n'ont eu absolument aucun effet sur la sécurité des informations enregistrées sur le SSD. Les six disques ont pu lire à la fois les informations enregistrées juste avant l'arrêt et les fichiers qui y étaient stockés depuis le tout début de notre test d'endurance. Dans ce cas, aucune défaillance ou anomalie dans les sommes de contrôle n'a été enregistrée.

Cependant, nous ne pouvons toujours pas dire qu'un séjour de deux semaines sans connexion à une alimentation électrique n'a pas du tout affecté les disques. Pour deux des six modèles, un long temps d'arrêt a provoqué des changements dans la matrice de mémoire flash, ce qui s'est reflété dans la télémétrie S.M.A.R.T.


En d'autres termes, les processus de "vieillissement" se poursuivent avec le SSD même lorsqu'il est hors tension. Cependant, aucun changement catastrophique ne se produit. Le test a montré qu'un SSD inactif relativement long, qui a longtemps épuisé la totalité de la ressource déclarée, ne conduit pas au fait qu'ils échouent ou perdent les données enregistrées.

Mais en fait, personne ne s'attendait à autre chose. Le test a été effectué uniquement parce qu'il y a quelque temps, une étrange croyance a commencé à se répandre selon laquelle, lorsqu'ils sont éteints, les disques SSD perdent très rapidement leur capacité à stocker des données de manière fiable. De plus, de nombreux sites quasi-techniques ont sérieusement contribué à la propagation de cette idée fausse, qui a diffusé, et continue parfois obstinément à savourer l'information selon laquelle les SSD non connectés à l'alimentation peuvent perdre des données enregistrées pendant près de plusieurs jours.

En fait, ce problème est soufflé presque de nulle part. Bien sûr, le processus de charge provenant des cellules de mémoire flash lorsque le lecteur est déconnecté de l'alimentation a lieu, mais cela se produit beaucoup plus lentement et il ne peut être question d'aucune possibilité de perte de données pendant les jours.

Comme confirmation, on peut se référer aux spécifications du JEDEC - un comité qui comprend tous les principaux fabricants de semi-conducteurs et qui développe des normes uniformes pour les produits de l'industrie microélectronique. D'une part, ces normes sont obligatoires pour les fabricants, et d'autre part, elles constituent une ligne directrice pour les clients, puisqu'elles décrivent les principales qualités de consommation des appareils fabriqués par l'industrie.

En fait, la source de la panique sur la sécurité des informations sur les SSD éteints était un tableau "sorti de son contexte" tiré d'une des présentations de ce comité, qui indiquait les "durées de conservation" des données sur les disques éteints en fonction de la température ambiante.

La mémoire NAND, dont le principe est de maintenir les électrons dans une grille flottante, au repos (sans rafraîchissement périodique) perd progressivement la charge stockée. Et tôt ou tard, cela peut entraîner une mauvaise interprétation du contenu de la cellule et une perte de données. Les idées sur la manière et la vitesse à laquelle le processus de flux de charge se produit sont très bien définies et étayées par de nombreuses expériences. Les données accumulées montrent que l'un des principaux facteurs affectant la stabilité des cellules NAND est leur degré d'usure. Par conséquent, la capacité des disques SSD à stocker des informations à l'état éteint dépend fortement de l'étape de leur cycle de vie dans laquelle ils se trouvent. Les chiffres du tableau ci-dessus décrivent la situation avec des disques épuisés, pas neufs - et cela change presque tout.

En d'autres termes, si nous parlons d'un nouveau SSD, les données qu'il contient à l'état éteint peuvent être stockées pendant des années (dans la plage de température habituelle). Et ce n'est que lorsqu'il s'agit d'un lecteur qui a déjà épuisé les ressources définies par le fabricant que la «durée de conservation» indiquée dans la spécification commence à prendre un sens. Autrement dit, 52 semaines (un an) est la période minimale pendant laquelle un lecteur grand public typique est requis par les spécifications pour conserver les données à l'état désactivé après avoir déjà épuisé la totalité des ressources spécifiées dans les spécifications. Mais en fait, les informations pourront très probablement tenir beaucoup plus longtemps sur le SSD éteint: comme nous l'avons vu, les fabricants indiquent la ressource de réécriture avec une marge multiple. Et en termes de stockage, la situation est très probablement la même.

Si nous approfondissons les spécifications JEDEC, nous pouvons trouver une confirmation supplémentaire que même après un dépassement significatif de la limite d'écrasement déclarée, les disques ne sont pas soumis à la perte rapide d'informations enregistrées dessus. Alors que les SSD grand public ont une durée de vie minimale d'un an (à 30 degrés), pour les modèles de serveurs, qui sont généralement basés sur exactement la même mémoire flash, cet intervalle de temps est réduit à 3 mois (à 40 degrés).

La différence est due au fait que les SSD grand public et serveur devraient avoir une intensité de charge différente. L'endurance déclarée des disques grand public est généralement de plusieurs dizaines ou centaines de téraoctets de réécriture. Les SSD appartenant à la classe des serveurs ont une fiabilité déclarée d'un ordre de grandeur plus élevé, qui atteint des unités voire des dizaines de pétaoctets de réécriture. Il s'ensuit que même après avoir écrit sur un SSD standard une quantité de données qui dépasse considérablement ses ressources, il ne perdra pas la capacité de le conserver pendant au moins plusieurs mois - par analogie avec le modèle de serveur.

C'est pourquoi notre test de deux semaines sur la sécurité des informations à l'état éteint n'a révélé aucun problème. Après avoir écrasé des centaines de téraoctets, les SSD modernes sont simplement tenus de conserver les données bien plus longtemps que quelques semaines. Et force est de constater que les spécifications JEDEC en la matière sont respectées par les constructeurs.

Sur cette question de la sécurité des informations sur le SSD éteint, nous la considérons close. Il est clair que tester la ressource d'écrasement est une expérience beaucoup plus importante et plus significative d'un point de vue pratique, qui peut en dire beaucoup plus sur l'endurance des disques SSD modernes. De plus, notre méthodologie de test vérifie également la bonne lecture des fichiers stockés sur le SSD au tout début de l'expérimentation.

Néanmoins, nous considérons qu'il est de notre devoir de vous rappeler que les lecteurs de mémoire NAND ne sont toujours pas conçus pour stockage d'archives informations. Support magnétique informations - disques durs et lecteurs de bande - semblent être un meilleur choix à cette fin. Le SSD, quant à lui, est un support de stockage rapide, destiné principalement à travailler avec des données "chaudes".

En savoir plus quel genre Fonctionnalités Windows raccourcir la durée de vie d'un disque SSD et comment les désactiver. Si vous utilisez toujours un disque dur HDD traditionnel sur votre ordinateur, il est temps de penser à passer à un disque SSD - un disque SSD. Cela accélérera considérablement votre ordinateur ou votre ordinateur portable.

Les disques SSD sont-ils vraiment parfaits ? Pas vraiment. Comparé à Disque dur Les SSD présentent certains inconvénients, le principal étant le nombre limité de cycles d'écriture/écriture. Cela signifie que le nombre relatif de cycles d'effacement/d'écriture pour les disques SSD est inférieur à celui des disques durs. Dans cet article, nous allons essayer de décrire cet inconvénient des disques SSD et comment le contourner.

Contenu:

Enregistrement sur disque dur (HDD)

Le composant principal d'un disque dur (HDD) est les plateaux sur lesquels les informations sont réellement enregistrées. Ils sont soit en céramique soit en métal. Les disques sont recouverts d'une fine couche de métal aimantée et démagnétisée. Le processus d'écriture de données sur de tels disques est le suivant : la tête de lecture-écriture de l'appareil déplace et magnétise/démagnétise les secteurs des plaques à 1 et 0, stockant les informations dans un système binaire (binaire).

Lorsque les données sont écrasées (sauvegardées sur des données précédemment enregistrées), un processus similaire se produit. Celles. le processus d'enregistrement Disque dur est toujours le même, que le disque contienne des données ou non.

Ecrire sur disque SSD

L'écriture d'informations sur un disque SSD est un processus plus complexe et cela se produit d'une manière différente. Par conséquent, trois choses doivent être rappelées.

Si des données sont déjà enregistrées sur le SSD, le processus d'écriture consiste à supprimer les données précédemment enregistrées d'un emplacement mémoire et à écrire de nouvelles données. Les nouvelles données sont écrites dans la cellule uniquement après la suppression des données précédemment enregistrées. Par conséquent, le processus d'écriture sur un SSD est davantage un processus de suppression/écriture.

Le nombre de cycles d'effacement/écriture d'un disque SSD est limité. Chacun de ces cycles réduit la durée de vie d'une cellule mémoire, et lorsque le nombre de cycles de suppression/écriture dépasse le seuil, la cellule deviendra inopérante, plus aucune donnée ne sera écrite dessus.

Les cellules mémoire sont organisées en blocs. Les informations peuvent être écrites sur le disque par des cellules et supprimées uniquement par un bloc. Autrement dit, l'utilisateur a ouvert le document et y a apporté des modifications, puis pour l'enregistrer sur SSD, vous devez d'abord transférer toutes les informations d'un certain bloc vers un autre emplacement, effacer le bloc d'informations, puis renvoyer toutes les informations à il enregistre également le document avec les modifications. Cela s'appelle - Write Amplification et signifie que le SSD stocke beaucoup plus d'informations que nous stockons dessus, ce qui augmente le nombre de cycles de suppression / écriture.

Nivellement de l'usure

Mais ne vous inquiétez pas, le nombre de cycles de suppression / écriture de disque SSD n'est pas si petit. De plus, les disques SSD modernes disposent de technologies qui augmentent l'efficacité de l'écriture sur un disque et réduisent la charge sur les cellules d'informations. La plus importante de ces technologies est les algorithmes de nivellement de l'usure, qui écrivent les données uniformément sur le disque pour maximiser sa durée de vie. De plus, les disques SSD plus grands ont une durée de vie plus longue que les plus petits.

Combien de temps dure un disque SSD ? Pour que les utilisateurs puissent estimer la durée de vie d'un disque SSD, la plupart des fabricants l'affichent comme la quantité d'espace qui peut être écrite sur le disque pendant toute la durée de son utilisation. Cette valeur est calculée en TBW (Total Bytes Written).

Par exemple, 220 TBW signifie que 220 téraoctets de données peuvent être écrits sur le disque avant qu'il ne devienne non fiable. Cela signifie que si un utilisateur écrit 50 Go de données sur un disque chaque jour, un tel disque durera 12 ans.

La plupart des utilisateurs n'écrivent jamais plus de 50 Go sur le disque par jour. Et cela arrive rarement, et la plupart des autres jours, beaucoup moins ou rien n'est écrit sur le disque. De plus, lire des documents ou visionner des photos n'est pas un processus d'écriture, c'est une lecture qui n'affecte pas la durée de vie du disque. Seule la copie de fichiers à partir d'un autre lecteur, le téléchargement de fichiers ou la modification de documents implique l'écriture d'informations sur le lecteur.

Cela suggère que si vous utilisez un lecteur SSD dans le même mode qu'un lecteur HDD, leur durée de vie devrait être comparable.

Que doit faire l'utilisateur

Pour maximiser la durée de vie d'un disque SSD, il est nécessaire de s'abstenir de copier inutilement des fichiers, de télécharger des fichiers, etc. De plus, l'utilisateur doit savoir que le système d'exploitation dispose de fonctions spécialement conçues pour les disques durs qui n'ont pas besoin d'être utilisées avec des disques SSD.

Il:

Analyse comparative(analyse comparative). Souvent vitesse Travail SSD le support est vérifié en copiant des fichiers ou des programmes d'analyse comparative. Et bien que les informations obtenues pour l'utilisateur seront utiles, cette technique utilise des cycles d'écriture/suppression du disque SSD. Il vaut mieux ne pas utiliser de telles méthodes.

hibernation. Pendant l'hibernation, la mémoire système (où les programmes en cours d'exécution et les informations utilisées sont transférées) est écrite sur le support de stockage interne de l'ordinateur (HDD ou SSD). Une fois l'ordinateur restauré, le système recopie les données du disque vers la mémoire système et restaure l'ordinateur à son état de pré-hibernation. Après avoir copié les données dans la mémoire système, système opérateur les supprime du disque.

Le processus d'hibernation peut utiliser des gigaoctets de mémoire, ce qui se traduit par un grand nombre d'écritures sur le disque de l'ordinateur. Donc, un ordinateur avec 4 Go mémoire vive, l'hibernation peut nécessiter jusqu'à 4 Go d'espace disque.

L'hibernation de l'ordinateur peut être activée à la fois manuellement et automatiquement, mais sur un ordinateur avec un lecteur SSD, il est préférable de la désactiver complètement.

Pour ça:


Pour réactiver cette fonctionnalité, tapez retour powercfg -h sur.

Commandes AHCI et TRIM. AHCI (Advanced Host Controller Interface) permet au système d'exploitation d'accéder plus rapidement au disque et d'utiliser certaines options supplémentaires. L'une de ces fonctionnalités est la commande TRIM, qui permet au système d'exploitation d'informer le SSD des blocs de mémoire qui ne sont plus utilisés et qui peuvent être effacés. Cela permet au disque de fonctionner de manière plus productive en réduisant l'effet d'amplification d'écriture et en prolongeant sa durée de vie.

Par défaut, les deux commandes sont activées sur l'ordinateur. Vous pouvez vérifier cela ou modifier leur inclusion à partir du BIOS.

Sur différents ordinateurs, vous pouvez accéder au BIOS de différentes manières en appuyant sur la touche Supprimer ou alors F2 pendant que l'ordinateur démarre. Dans le BIOS, accédez à la section des supports de stockage et modifiez la valeur "Configurer SATA comme" au "AHCI". Il est préférable de le faire avant d'installer le système d'exploitation, sinon vous devrez réinstaller les pilotes multimédias.

Vous pouvez déterminer si la commande TRIM fonctionne en exécutant ligne de commande en tant qu'administrateur et en exécutant la commande : requête de comportement fsutil DisableDeleteNotify

Si à la suite de l'exécution de la commande, le message "DisableDeleteNotify = 0" s'affiche, alors TRIM est actif. Sinon, il peut être activé à l'aide de la commande fsutil comportement défini désactivéeletenotify 0


défragmentation. Dans le cas des disques durs, la défragmentation est le processus d'optimisation de la structure logique d'un disque afin de stocker des fichiers dans une séquence continue de clusters. Après la mise en œuvre défragmenter dur les informations de lecture / écriture du disque deviennent plus rapides, car elles réduisent le nombre de mouvements de la tête du disque.

Si nous parlons de disques SSD, ils n'ont pas besoin d'être défragmentés: ils n'ont pas de pièces mobiles et la vitesse d'accès aux informations qu'ils contiennent est toujours la même. De plus, la défragmentation de disque SSD implique un grand nombre de processus d'écriture/suppression.

Windows 10 a une option pour configurer la défragmentation automatique du disque. Il est préférable de désactiver cette fonction et il est déconseillé de la démarrer manuellement sans en avoir besoin.

Pour cela, faites un clic droit sur le disque (dans le dossier "Ce PC"), sélectionnez Propriétés / Un service / Optimiser. Accédez à la section Optimisation planifiée et cliquez sur le bouton Modifier les paramètres.


Superrécupération. Cette technologie, apparue pour la première fois en Windows Vista, permet au système d'exploitation de mieux utiliser la mémoire système et de précharger les données et applications fréquemment utilisées. Cependant, ce processus nécessite que le cache Superfetch soit écrit sur le disque et mis à jour régulièrement.

Si vous utilisez le disque dur de votre ordinateur comme disque dur principal, cette fonction vous sera utile. Pour les disques SSD, l'utilisation de cette technologie n'est pas nécessaire et ne fait qu'augmenter le nombre de cycles d'effacement/écriture.

Pour désactiver Superfetch, ouvrez Panneau de commande / Administration/ , et recherchez dans la liste Services de super-extraction. Double-cliquez dessus et appuyez sur Arrêter ou sélectionnez le type de lancement "Désactivé".


fichier d'échange. Dans Windows 10, le fichier d'échange est analogue à mémoire système. En fait, il s'agit d'une partie du disque de l'ordinateur que le système d'exploitation réserve pour être utilisée lorsque certaines applications nécessitent plus de RAM que ce qui est réellement installé sur l'ordinateur.

La taille du fichier de page est dynamique et peut changer, résultant en un enregistrement permanent d'informations sur disque interne l'ordinateur. Pour un disque SSD, il serait souhaitable de le désactiver, mais cela affectera les performances de l'ordinateur. Le moyen de sortir de cette situation consiste à définir une taille de fichier d'échange fixe, recommandée par le système. De plus, si l'ordinateur possède plusieurs disques avec un SSD principal, le fichier d'échange peut être transféré sur le disque dur.

La question la plus fréquente de notre support technique est probablement « pourquoi la santé de mon disque est-elle à 80 % » ? Ou en d'autres termes - comment considérez-vous la santé du disque ?
Et le deuxième plus populaire - d'où vient la date de vie du disque ? « Pourquoi m'écrit-il qu'il n'est « pas encore défini » ? Vous trouverez ici les réponses à toutes ces questions.

Court et simple.

1. Nous ne calculons pas le pourcentage de santé du disque. Il est compté et signalé par le lecteur SSD lui-même. Ou en d'autres termes, ce sont les données du fabricant du disque.

2. La durée de vie prévue est calculée en fonction de la dynamique des changements dans la santé du disque, qui à son tour indirectement dépend de l'activité d'écriture du disque. Si vous ne l'avez pas encore défini, cela signifie que peu de données sont écrites, attendez simplement - généralement un maximum d'une semaine après le premier lancement. (Pourquoi indirectement- en détails )

Plus de détails - pour ceux qui veulent comprendre ou spécialistes techniques.

Santé du disque.

Depuis l'époque des disques durs (HDD), le système d'autodiagnostic S.M.A.R.T. est connu. (SMART) intégré à tous rigide moderne disques. Il surveille en permanence divers paramètres de l'état technique du disque et les rapporte en termes relatifs. Dès que les valeurs des paramètres tombent en dessous d'un niveau critique, le disque est considéré comme peu fiable et le fabricant recommande de le remplacer. Cependant, dans la pratique, il arrive que le disque continue de fonctionner normalement et les fabricants eux-mêmes disent que SMART est un service de recommandation et non un prévisionniste absolument précis.

Contrairement aux disques durs, les choses sont plus certaines dans le monde des SSD. La mémoire flash, sur la base de laquelle les SSD sont construits, dispose d'une ressource d'utilisation bien connue - 10 000 réécritures (en termes simples, le nombre exact dépend du type de mémoire utilisée dans le SSD). Tous les disques contiennent un micrologiciel qui surveille l'utilisation uniforme de toutes les cellules de mémoire et garde une trace du nombre d'écrasements effectués, quelle est la ressource restante du disque SSD. Dans la forme finale, ce sont ces données qui sont rapportées par le firmware du disque dans l'un des paramètres S.M.A.R.T. avec le nom éloquent SSD Life Left (SSD life left) ou Media wear out indicator (Indicateur d'usure du support) - et c'est ce paramètre que le programme SSDLife affiche sous une forme conviviale et compréhensible.

Bien entendu, l'utilisateur aura tout d'abord une question : que se passera-t-il lorsque l'usure du disque atteindra 100 % ? (la santé deviendra 0%) Voir la réponse à cette question à la fin de cette page.

Durée de vie estimée (durée de vie)

Ainsi, nous connaissons exactement la ressource technique du disque SSD et pouvons suivre ses évolutions. En analysant la dynamique de diminution de la santé (augmentation de l'usure), il est possible de prédire par des calculs mathématiques la date à laquelle la santé diminuera à 0 % (l'usure sera de 100 %). C'est exactement ce que fait SSD Life.

remarque : d'ailleurs, certains fabricants mentionnent le montant total écrit sur le disque comme l'un des indicateurs de la durée de vie du disque. Par exemple, Intel sur les disques X25-M garantit un volume d'écriture total d'environ 37 To (20 Go par jour pendant 5 ans - "Le disque aura un minimum de 5 ans de durée de vie utile sous des charges de travail client typiques avec jusqu'à 20 Go d'écritures hôtes par jour ”). Cependant, pourquoi ne pouvez-vous pas vous fier à ces informations pour analyser l'état du disque -

Pourquoi la date ne peut-elle pas être calculée immédiatement ?

Il s'agit d'une simple raison mathématique - pour calculer immédiatement, nous devons connaître au moins la date à laquelle la première écriture sur le disque s'est produite - mais, malheureusement, cela ne fournit pas de telles informations. Par conséquent, après le premier lancement de SSDLife, nous devons surveiller l'intensité d'utilisation du disque SSD pendant un certain temps afin de déterminer sa charge moyenne. Bien sûr, en fonction de l'évolution de l'activité d'utilisation du disque, cette date changera également.

Pourquoi la date change-t-elle radicalement ?

Dans certains cas, la durée de vie peut changer considérablement - cela se produit si la quantité d'écriture sur le disque a fortement augmenté. Par exemple, vous avez installé un gros jouet. Mais ne vous inquiétez pas - dans quelques jours, SSD Life se rendra compte qu'il s'agissait d'une augmentation temporaire, le disque est revenu à ses volumes d'écriture normaux précédents et ajustera la date de fin de vie.

Est-il sûr de stocker des fichiers sur un SSD ?

Commençons par la trame de fond. Les SSD sont entrés en scène à un moment où Intel a introduit la nouvelle architecture de processeur Nehalem et a annoncé en même temps que le "goulot d'étranglement" des nouveaux PC n'était plus les processeurs, mais disques durs, dont les performances, en effet, n'ont guère progressé. Lors de l'Intel Developer Forum (IDF) 2008 à San Francisco, Intel a présenté les premiers disques SSD et a souligné les raisons pour lesquelles les disques durs conventionnels ralentissent les performances du système avec le nouveau processeur Core i7. Trois ans plus tard, de nombreux tests de SSD produits en série ont confirmé que les SSD libèrent vraiment le potentiel des nouveaux processeurs, améliorant considérablement les performances du système.

Mais les performances sont loin d'être la seule mesure pour un périphérique de stockage. En ce qui concerne vos données, même le stockage le plus rapide au monde ne vaut rien si vous ne pouvez pas être sûr qu'il peut stocker des informations en toute sécurité.

Ce sujet est encore plus pertinent aujourd'hui, dans le cadre de la transition massive vers la technologie de traitement 25 nm. Une technologie de processus plus mince implique une réduction du coût de fabrication de la mémoire NAND, donc la tendance est naturelle, et même avec des cellules de 25 nm, le processus ne s'arrêtera pas.

Au cours des deux dernières années, Intel est passé deux fois à un processus NAND plus fin pour les SSD, de 34 nm à 25 nm et de 25 nm à 20 nm.

Dans le même temps, il est de plus en plus difficile pour les ingénieurs de surmonter les problèmes liés à la mémoire produite à l'aide de la technologie 25 nm. Mais les acheteurs actuels peuvent toujours s'attendre à de meilleures performances et fiabilité des nouveaux SSD que la génération précédente. La diminution du nombre de cycles de réécriture de cellules, due à la transition vers une technologie de traitement plus fine, doit être compensée d'une manière ou d'une autre.

Type de SSD Nombre garanti de cycles de réécriture Totaux totaux écrits (formule JEDEC) Capacité de stockage (10 Go/jour, WA = 1,75)
25 nm, 80 Go 3000 68,5 To 18,7 ans
25 nm, 160 Go 3000 137,1 To 37,5 ans
34 nm, 80 Go 5000 114,2 To 31,3 ans
34 nm, 160 Go 5000 228,5 To 62,6 ans

Ainsi, vous n'avez pas à vous soucier du nombre de cycles d'écriture que votre SSD peut supporter. Pour la génération précédente de SSD utilisant une mémoire NAND 34nm, le nombre garanti de cycles d'écriture était de 5000. En d'autres termes, vous pouvez écrire et effacer une cellule NAND 5000 fois jusqu'à ce qu'elle commence à perdre sa capacité à stocker des données. Étant donné que l'utilisateur moyen écrit au maximum 10 Go par jour, il faudra environ 31 ans pour que le disque devienne inutilisable.

Pour une nouvelle génération de SSD avec une mémoire de 25 nm, la durée de vie d'un disque est d'environ 18 ans. Bien sûr, ici, nous simplifions grandement l'état réel des choses. Des problèmes spécifiques au SSD tels que l'amplification d'écriture, la compression des données et la récupération de place peuvent affecter le résultat réel. Cependant, il est clair qu'il n'y a aucune bonne raison immédiatement après l'achat d'un disque SSD pour commencer à décompter les heures jusqu'au moment où il se termine.

D'autre part, nous savons avec certitude que certains disques SSD sont déjà tombés en désuétude. Ceci est facile à vérifier en étudiant ce problème sur les forums ou dans les critiques des magasins en ligne. Mais le problème dans ce cas n'est pas l'épuisement de la ressource cellulaire. En règle générale, une erreur de micrologiciel entraîne une défaillance du disque. Nous connaissons des cas où les fabricants recommandent fortement de soumettre nouveau disque clignotant, ce qui améliore la fiabilité et parfois une amélioration notable des performances du lecteur.

Une autre raison de la panne du SSD est liée au remplissage électronique. Le condensateur ou la puce mémoire peut tomber en panne, entraînant une panne du disque. Bien sûr, nous attendons moins problèmes similaires par rapport aux disques durs conventionnels qui ont des pièces mobiles qui tombent inévitablement en panne après un certain temps.

Mais est-il vrai que l'absence de pièces mobiles rend disque dur plus fiable qu'un disque sur plaques magnétiques ? Cette question inquiète un nombre croissant d'amateurs d'informatique et d'informaticiens. C'est lui qui nous a fait analyser la fiabilité réelle du SSD afin de séparer la réalité de la fiction.

Que sait-on du stockage ?

Le SSD est une technologie relativement nouvelle (du moins par rapport aux disques durs qui approchent les 60 ans). Ainsi, nous devons comparer le nouveau type de lecteurs avec une technologie éprouvée.

Mais que savons-nous vraiment de la fiabilité des disques durs? Deux importantes études universitaires éclairent cette question.

En 2007 Google a publié une étude de fiabilité portant sur 100 000 disques PATA et SATA grand public utilisés dans les centres de données de Google.

À peu près à la même époque, le Dr Bianca Schroeder, en collaboration avec l'expert Dr Garth Gibson, a calculé la fréquence de remplacement de plus de 100 000 disques utilisés dans l'un des plus grands laboratoires nationaux des États-Unis.

La seule différence entre ces deux études est que dans le second cas, les disques SCSI et Fibre Channel ont été inclus dans l'étude, et pas seulement PATA et SATA.

Pour ceux qui veulent en savoir plus sur les résultats de la recherche universitaire, nous vous conseillons de lire au moins le deuxième - en 2007, ce rapport analytique a été reconnu comme le meilleur lors de la conférence File and Storage Technologies (FAST '07) aux États-Unis. Si la lecture de telles sources ne fait pas partie de vos plans, nous vous présentons ici les points clés qui touchent directement la question qui nous intéresse.

Temps moyen avant défaillance (MTTF)

Lorsqu'il s'agit de mesurer la fiabilité d'un variateur, on peut rappeler deux indicateurs tels que le temps moyen entre pannes (MTBF - Mean Time Between Failures), qui s'entend comme le temps moyen entre pannes, ainsi que le temps moyen jusqu'à la panne (MTTF - Mean Time To Failure ), dont la principale différence est l'hypothèse qu'après une panne, le système ne peut pas être restauré.

Voici ce que Wikipédia en dit :

À langue Anglaise le terme MTBF (Mean Time Between Failures) est utilisé - le temps moyen entre les pannes ou le temps entre les pannes, ainsi que MTTF (Mean Time To Failure) - le temps moyen jusqu'à la panne. Il faut cependant noter que les valeurs MTBF/MTTF publiées sont souvent basées sur les résultats de tests accélérés - pour un temps limité, permettant d'identifier majoritairement la proportion de défauts de fabrication. Dans ce cas, la valeur déclarée du MTBF ne parle pas tant de fiabilité elle-même, et encore moins de durabilité, mais du pourcentage de produits rejetés. Par exemple, un MTBF de l'ordre de 1 million/h pour un disque dur ne signifie évidemment pas 114 ans de fonctionnement continu sans problème - et pas seulement parce qu'une expérience d'une telle durée n'a pas pu être réalisée, mais aussi parce que le le fabricant attribue lui-même une ressource (durée de vie) ne dépassant pas 5 à 10 ans et la période de garantie est de 1 à 5 ans.

Prenons l'exemple du disque Seagate Barracuda 7200.7, qui a un MTBF revendiqué de 600 000 heures.

Dans tout grand échantillon de disques, la moitié de ces disques tomberont en panne au cours des 600 000 premières heures de fonctionnement. Étant donné que les statistiques des pannes de disque dur dans un grand échantillon sont relativement uniformément réparties, on peut s'attendre, par exemple, à ce qu'un disque tombe en panne toutes les heures. Avec cette valeur de MTBF, vous pouvez calculer le taux de défaillance annualisé (AFR), qui sera de 1,44 %.

Mais les recherches de Google et du Dr Bianca Schroeder ont révélé une métrique très différente. Le fait est que le nombre de disques défectueux ne correspond pas toujours au nombre de disques qui devaient être remplacés. C'est pourquoi Schroeder n'a pas mesuré le taux d'échec (AFR), mais le taux de remplacement annualisé (ARR). La cote ARR est basée sur le nombre réel de disques remplacés selon les journaux de service :

Alors que les valeurs AFR de la fiche technique varient de 0,58 % à 0,88 %, les taux de remplacement des disques ARR observés varient de 0,5 % à 13,5 %. Ainsi, l'ARR observé, selon la configuration des variateurs et leur type, peut être jusqu'à 15 fois supérieur aux valeurs AFR selon les fiches techniques.

Les fabricants de disques durs définissent le nombre de pannes différemment de nous, et il n'est donc pas surprenant que les données qu'ils fournissent ne correspondent pas à la fiabilité réelle des disques. Habituellement, la cote MTBF est déterminée sur la base de tests accélérés, d'informations de retour de disque dur ou en testant des disques sélectionnés. Les données sur le retour des disques sont des informations très douteuses. Selon Google, "nous avons vu ... des situations où le test de conduite a donné le feu vert à des disques qui ont inévitablement échoué dans la pratique".

Statistiques de défaillance du disque dur au fil du temps

La plupart des utilisateurs pensent que le graphique de la courbe de défaillance du disque dur a la forme d'une baignoire. Au début, nous nous attendons à ce que de nombreux disques tombent en panne en raison de la soi-disant "maladie infantile", c'est-à-dire de divers types de défauts d'usine et du processus de "effraction" lui-même. Ensuite, à la fin de la période initiale, le pourcentage de pannes de disque devrait être minime. Enfin, à la fin de la durée de vie prévue, la courbe de défaillance du disque dur grimpe inévitablement, car les pièces du disque disposent d'une certaine ressource. Un courant de pensée similaire, qui semble tout à fait logique, se reflète dans le graphique suivant.

Mais ce calendrier ne correspond pas à la situation réelle. Les recherches menées par Google et le Dr Bianca Schroeder ont montré que les pannes de disque dur augmentent régulièrement au fil du temps.

Fiabilité des disques d'entreprise

En comparant les deux études, on peut imaginer que le chiffre de 1 000 000 MTBF pour le disque Cheetah est beaucoup plus proche du MTBF de 300 000 heures revendiqué dans la fiche technique. Cela signifie que les disques « consommateurs » et d'entreprise ont à peu près le même pourcentage de pannes annuelles, en particulier lorsque des disques de taille à peu près égale sont comparés. Selon le directeur de la planification technique de NetApp, Val Bercovici, "... comment baies de disques faire face aux pannes correspondantes des disques durs continue de créer chez le consommateur la perception que les disques plus chers devraient être plus fiables. L'un des sales secrets de l'industrie est que la plupart des disques d'entreprise sont constitués des mêmes composants que les disques grand public. Cependant, leur interfaces externes(FC, SCSI, SAS et SATA) et, plus important encore, les spécificités du micrologiciel, ont le plus grand impact sur la façon dont les disques grand public et d'entreprise se comportent dans des conditions réelles.".

Sécurité des données et RAID

La recherche de Schroeder couvre les disques de classe entreprise utilisés dans les grandes baies RAID de l'un des plus grands laboratoires HPC au monde. Généralement, nous nous attendons à ce que le stockage dans les configurations RAID fournisse un niveau de sécurité plus élevé, mais le rapport Schroeder a trouvé quelque chose de surprenant.

La répartition du temps entre les remplacements de disque montre une diminution du taux d'échec, ce qui signifie que le temps prévu jusqu'au prochain remplacement de disque a progressivement augmenté depuis le remplacement du disque précédent.

Ainsi, la panne d'un disque dans une matrice augmente la probabilité qu'un autre disque tombe en panne. Plus le temps s'est écoulé depuis le dernier remplacement de disque, plus il s'écoulera de temps avant qu'un autre ne soit remplacé. Bien sûr, cela a des implications en termes de reconstruction RAID. Après la première panne, vous êtes quatre fois plus susceptible de rencontrer une autre panne de disque dans la même heure. Dans les 10 heures, la probabilité d'une panne de disque ne fait que doubler.

Température


Une autre conclusion inattendue peut être tirée du rapport de Google. Les chercheurs ont pris des relevés de température de SMART (Self-Monitoring, Analysis and Reporting Technology), une technologie prise en charge par la plupart des disques durs. Et ils ont découvert qu'une température de disque plus élevée n'est pas corrélée avec plus haute fréquence les échecs. Apparemment, la température affecte la fiabilité des anciens disques, mais dans ce cas, l'effet n'est pas si important.

La technologie SMART - vraiment intelligente ?

SMART signifie « intelligent » en anglais, mais cette technologie de surveillance de la santé des disques durs fait-elle vraiment son travail ? La réponse courte est non. SMART a été conçu pour signaler les erreurs de disque suffisamment tôt pour que vous puissiez sauvegarder vos données. Cependant, selon un rapport de Google, plus d'un tiers des disques défectueux n'ont pas activé le mode d'alarme SMART.

Ce fait n'est pas particulièrement surprenant, car de nombreux experts soupçonnent quelque chose de similaire depuis des années. En effet, la technologie SMART est optimisée pour détecter les problèmes mécaniques, tandis que l'essentiel des fonctionnalités du disque dur est assuré par le bourrage électronique. Voilà pourquoi travail incorrect Les disques durs et les problèmes inattendus tels qu'une panne de courant soudaine restent invisibles pour SMART tant qu'il n'y a pas d'erreurs liées à l'intégrité des données. Si vous comptez sur SMART pour vous dire quand un disque est sur le point de tomber en panne, vous devez toujours fournir une couche de protection supplémentaire si vous voulez être sûr que vos données sont en sécurité.

Voyons maintenant comment les disques SSD se comportent face aux disques durs.

En bref sur la fiabilité du SSD

Malheureusement, aucun des fabricants de disques durs ne publie de données de retour, mais il en va de même pour les fabricants de SSD. Cependant, en décembre 2010, Hardware.fr a publié un rapport sur le taux de défaillance des disques durs de la société mère LDLC, l'un des principaux détaillants d'ordinateurs en France. Le site a fait le commentaire suivant concernant la façon dont ils ont calculé ce chiffre :

La fréquence de retour couvre les disques vendus entre le 1er octobre 2009 et le 1er avril 2010 qui ont été retournés avant octobre 2010, ce qui signifie qu'ils ont été en service de 6 mois à un an. Les statistiques des fabricants sont basées sur un échantillon minimum de 500 pièces et les modèles sont basés sur un échantillon minimum de 100 pièces.

Comme vous pouvez le voir, nous ne parlons pas de l'intensité des échecs, mais du nombre de retours. Peut-être que la barrière de la langue est responsable de la façon dont les publications informatiques en anglais ont interprété ce fait. Des sites tels que Mac Observer et ZDNet ont incorrectement étiqueté ces données comme "taux de rebond", probablement basé sur traduction automatique Google.

Modèles d'entraînement Statistiques de retour
Hitachi Deskstar 7K1000.B 5,76%
Hitachi Deskstar 7K1000.C 5,20%
Seagate Barracuda 7200.11 3,68%
Samsung Spin Point F1 3,37%
Seagate Barracuda 7200.12 2,51%
WD Caviar Vert WD10EARS 2,37%
Seagate Barracuda LP 2,10%
Samsung Spin Point F3 1,57%
WD Caviar Vert WD10EADS 1,55%
WD Caviar Noir WD1001FALS 1,35%
Maxtor DiamondMax 23 1,24%
WD Caviar Noir WD2001FASS 9,71%
Hitachi Deskstar 7K2000 6,87%
WD Caviar Vert WD20EARS 4,83%
Seagate Barracuda LP 4,35%
Samsung EcoGreen F3 4,17%
WD Caviar Vert WD20EADS 2,90%
Disques SSD
Intel 0,59%
Corsaire 2,17%
Crucial 2,25%
Kingston 2,39%
OCZ 2,93%

Disques durs de 1 To
Modèles d'entraînement Statistiques de retour
Samsung Spin Point F1 5,20%
WD Caviar Vert (WD10EADS) 4,80%
Hitachi Deskstar 7K1000.C 4,40%
Seagate Barracuda LP 4,10%
WD Caviar RE3 WD1002FBYS 2,90%
Seagate Barracuda 7200.12 2,20%
WD Caviar Noir WD1002FAEX 1,50%
Samsung Spin Point F3 1,40%
WD Caviar Noir WD1001FALS 1,30%
WD Caviar Bleu WD10EALS 1,30%
WD Caviar Vert WD10EARS 1,20%
Disques durs de 2 To
Hitachi Deskstar 7K2000 5,70%
WD Caviar Vert WD20EADS 3,70%
Seagate Barracuda LP 3,70%
WD Caviar Noir WD2001FALS 3,00%
WD Caviar Vert WD20EARS 2,60%
WD Caviar RE4-GP WD2002FYPS 1,60%
Samsung EcoGreen F3 1,40%
Disques SSD
Intel 0,30%
Kingston 1,20%
Crucial 1,90%
Corsaire 2,70%
OCZ 3,50%

Une panne de disque implique que le périphérique n'est plus fonctionnel. Mais un retour peut impliquer de nombreuses raisons. Cela crée un certain problème, car nous ne disposons d'aucune information supplémentaire sur les raisons du retour des disques : ils peuvent être morts à leur arrivée au magasin, tomber en panne au cours de leur vie ou simplement une sorte d'incompatibilité avec le matériel qui a empêché l'acheteur d'utiliser le lecteur.

Ventes entre le 10.1.2009 et le 4.1.2010, retours jusqu'au 10.1.2010
Top 3 des leaders du retour SSD Statistiques de retour Top 3 des leaders de retour de disque dur Statistiques de retour
OCZ Vertex 2 90 Go 2,80% 8,62%
OCZ Agilité 2 120 Go 2,66% Samsung Spin Point F1 1 To 4,48%
OCZ Agilité 2 90 Go 1,83% Hitachi Deskstar 7K2000 3,41%
Ventes entre le 01/04/2010 et le 01/10/2010, retours jusqu'au 01/04/2011
OCZ Agilité 2 120 Go 6,70% Seagate Barracuda 7200.11 160 Go 16,00%
OCZ Agilité 2 60 Go 3,70% Hitachi Deskstar 7K2000 2 To 4,20%
OCZ Agilité 2 40 Go 3,60% WD Caviar Noir WD2001FASS 4,00%

Cette information ne fait que multiplier le nombre de questions. Si la majeure partie des ventes a été réalisée via une boutique en ligne, un mauvais emballage ou des dommages lors de la livraison pourraient avoir un impact significatif sur le taux de rebond. De plus, nous n'avons aucun moyen de savoir comment les acheteurs ont utilisé ces disques. Une variation significative du taux d'échec ne fait qu'accentuer ce problème. Par exemple, le nombre de retours pour le Seagate Barracuda LP est passé de 2,1 % à 4,1 %, tandis que pour le Western Digital Caviar Green WD10EARS, il est passé de 2,4 % à 1,2 %.

Quoi qu'il en soit, ces données ne nous disent rien sur la fiabilité. Mais pourquoi, dans ce cas, sont-ils nécessaires ? En fin de compte, en France, la plupart des acheteurs ont été plus que satisfaits de leur achat de SSD Intel et ne les ont pas retournés, contrairement aux disques d'autres marques. La satisfaction client est un sujet intéressant, mais beaucoup moins intéressant que le taux d'échec réel. Continuons donc notre analyse.

Avis sur les centres de données

Le coût par gigaoctet continue d'être un obstacle, empêchant même les grandes entreprises d'utiliser des milliers de disques SSD en même temps. Mais même si nous n'avons pas accès à des baies SSD à part entière, cela ne signifie pas que nous ne pouvons pas couvrir la fiabilité des SSD dans des conditions réelles sur la base de l'expérience des petites organisations. Nous avons décidé de contacter nos connaissances travaillant dans le domaine de l'informatique, et avons reçu pas mal critiques intéressantes plusieurs centres de données.

NoSupportLinuxHosting.com : moins de 100 SSD


Miroir partition de démarrage basé sur deux SSD Intel X25-V

L'hébergement "No Support Linux" ne répertorie pas le nombre exact de disques installés, mais la société affirme qu'elle utilise un "nombre considérable" de SSD. On sait qu'ils utilisent moins d'une centaine de SSD, qui sont utilisés comme suit :

  • Intel X25-V 40 Go sont utilisés comme miroir disquettes de démarrage pour les serveurs légers et les serveurs de stockage ZFS ;
  • Intel X25-M 160 Go utilisé comme cache L2ARC dans les serveurs ZFS ;
  • Intel X25-E 32 Go sont utilisés comme volumes ZIL en miroir dans les serveurs ZFS.

Tous ces disques ont été utilisés pendant au moins un an, et certains d'entre eux ont récemment eu deux ans. Cela dit, il convient de noter que la société n'a rencontré aucun fait de panne du lecteur SSD.

Lorsque nous avons demandé quels sont les avantages de l'utilisation de SSD dans les serveurs, nous avons reçu la réponse suivante :

En combinaison avec ZFS et les systèmes de stockage hybrides, l'utilisation de disques SSD vous permet d'obtenir une amélioration significative des performances par rapport aux disques à plateau magnétique traditionnels. Nous utilisons toujours les disques durs comme stockage principal, nous pouvons donc conserver leur avantage de prix tout en profitant des SSD en termes de vitesse. Tôt ou tard, nous prévoyons de transformer complètement nos serveurs SAN en disques SSD. Mais en 2011, nous nous en tiendrons au stockage hybride en utilisant ZFS.

InterServer.net

InterServer utilise uniquement des SSD sur les serveurs de base de données. En particulier, les serveurs basés sur le processeur Xeon utilisent des disques Intel X25-E (SSDSA2SH032G1GN), ce qui vous permet de tirer le meilleur parti de la haute bande passante lecteur. De quelles valeurs de performance parle-t-on ici ? InterServer nous indique que nous avons atteint 4514 requêtes par seconde pour le serveur MySQL. Sur un ancien serveur Xeon équipé de disques durs IDE, le nombre de requêtes MySQL par seconde est de 200-300. Nous savons qu'InterServer utilise des disques SSD depuis 2009 et qu'il n'y a pas eu une seule panne de disque depuis lors.

Ainsi, InterServer nous a communiqué les informations suivantes dans le cadre de l'utilisation d'un SSD :

Le SSD Intel est jour et nuit en termes de fiabilité lorsqu'il s'agit de le comparer à d'autres disques. Par exemple, les disques SSD SuperTalent ont un taux de défaillance très élevé, notamment les modèles FTM32GL25H, FTM32G225H et FTM32GX25H. Nous estimons qu'environ les deux tiers de ces disques sont tombés en panne depuis le début du service. De plus, après la panne des informations de ces disques, il était pratiquement impossible de les récupérer. Autrement dit, le lecteur a tout simplement disparu du système et ne peut plus être lu. Les disques durs « meurent » plus gracieusement et, dans la plupart des cas, les informations qu'ils contiennent sont faciles à récupérer. Mais nous ne pouvons pas les comparer aux SSD Intel, car nous ne les avons pas vus échouer jusqu'à présent.

Réseaux stables : plus de 100 SSD

Steadfast Networks utilise environ 150 SSD Intel, ce qui en fait un utilisateur de SSD légèrement plus important que les deux précédents. Les modèles des gammes X25-E (32 Go et 64 Go) et X25-M (80 Go et 160 Go) sont utilisés. En plus petit nombre, il existe des disques Intel X25-V40 Go, ainsi que d'autres marques de disques SSD installés par les clients de l'entreprise, tels que OCZ Vertex 2, SuperTalent et MTron Pro. Quelle que soit la marque, tous ces SSD sont utilisés uniquement dans les serveurs de bases de données ou comme cache.


Steadfast Networks - près de 150 SSD en production

En deux ans d'utilisation des SSD, Steadfast Networks n'a connu que deux pannes de disque nécessitant un remplacement, qui ont toutes deux entraîné la nécessité de récupérer les données du SSD. La possibilité de récupérer des données à partir d'un disque SSD défaillant dépend de l'interaction entre le contrôleur et le micrologiciel. Le scénario décrit par le représentant d'InterServer concernant les disques SuperTalent est le pire possible - les données n'ont pas pu être récupérées du tout. Mais ce cas n'est pas une règle générale pour les SSD.

Avec un large échantillon, nous avons finalement trouvé des cas de pannes de SSD. Mais par rapport aux plateaux magnétiques, leur pourcentage est encore assez faible. Cependant, le président de Steadfast Networks, Karl Zimmerman, estime que cela sous-estime encore les avantages du SSD et l'explique comme suit :

C'est juste que nous obtenons des performances d'E/S sensiblement meilleures [lors de l'utilisation d'un SSD] à un coût inférieur à celui que nous pourrions obtenir avec des disques durs conventionnels. Nous avons de nombreux clients qui ont besoin de plus de performances d'E/S que quatre disques SAS 15 000 tr/min dans une configuration RAID 10 peuvent fournir, sans compter que la mise à niveau elle-même nécessite de passer à des serveurs avec un grand châssis qui prend en charge plus de quatre disques, équipés d'un grande carte RAID, etc. D'autres configurations nécessitent plus de 16 disques avec une vitesse de broche de 15 000 tr/min pour fournir le niveau requis de performances d'E/S. La transition vers un SSD (ou quelques pièces dans une configuration RAID) simplifie grandement la configuration du serveur et, en général, la rend nettement moins chère. Qu'il suffise de dire qu'un SSD suffit généralement à remplacer au moins quatre disques durs, et que l'AFR pour quatre disques durs est d'environ 20 %, tandis que pour un seul SSD, il est de 1,6 %.

Softlayer : environ 5000 SSD !


Softlayer : plus de 1000 SSD !

Les gens de Softlayer sont nos amis de longue date et ils ont construit la plus grande société d'hébergement au monde. Donc, ils en savent beaucoup sur le stockage des données. Utilisant environ 5 000 SSD, ils nous ont fourni une quantité impressionnante de données à analyser. Voici un rapport fourni par Softlayer.

Périphérique de stockage Nombre de disques dans l'entreprise Notation AFR Durée de vie actuelle du disque
Intel 64 Go X25-E (SLC) 3586 2,19% 2
Intel 32 Go X25-E (SLC) 1340 1,28% 2
Intel 160 Go X25-M (MLC) 11 0% Moins que 1
Disques durs 117 989 voir le rapport Schroeder

L'expérience de Softlayer avec les taux de rebond Disques SAS et SATA est conforme au rapport de Google dont nous avons parlé au début de cet article. En termes simples, le taux de panne des disques durs est directement proportionnel à l'âge du disque, et en pratique, les résultats sont très proches de ce que les études Google et Schroeder ont prouvé. Au cours de la première année de vie, le taux de défaillance du disque (AFR) est de 0,5 à 1 % et augmente progressivement pour atteindre 5 à 7 % à la cinquième année de vie.

Le taux de défaillance du disque dur n'est pas surprenant, mais le taux de défaillance du SSD était assez proche des résultats de l'AFR du disque dur. Bien sûr, les disques SSD ne fonctionnent que depuis deux ans jusqu'à présent et vous devez attendre que 3-4 ans se soient écoulés depuis le début de l'exploitation pour savoir si les disques SSD continuent ou non d'avoir une augmentation de la tendance du taux d'échec. caractéristique des entraînements magnétiques.

Softlayer utilise presque entièrement des SSD basés sur SLC pour éviter les problèmes d'usure des cellules dus à de multiples écrasements. Sur la base des scénarios d'utilisation des disques de l'entreprise, nous savons qu'aucun des disques n'est tombé en panne en raison de l'usure des cellules. Mais de nombreux SSD défaillants ont échoué sans avertissement approprié de SMART. C'est exactement ce que nous avons entendu à plusieurs reprises de la part des employés des centres de données. Comme l'ont noté les spécialistes d'InterServer, les disques durs ont tendance à échouer plus "noblement". Les SSD « meurent » souvent soudainement, quelle que soit la cause de la panne, ce qui est noté par de nombreux utilisateurs finaux à travers le monde. L'expérience de Softlayer est plus variée que celle d'InterServer, avec certains disques récupérables et d'autres non. Aucun des 11 disques Intel X25-M de Softlayer n'est tombé en panne, mais il y a trop peu de disques dans cette gamme pour tirer des conclusions sur cette base, et ils fonctionnent depuis moins d'un an.

Quelle est l'importance de la fiabilité du stockage ?

Malgré le fait que les SSD basés sur SLC n'occupent qu'une fraction de Marché des SSD, nous avons reçu beaucoup plus d'informations sur ce type que les modèles qui utilisent une mémoire MLC moins chère. Même en tenant compte du fait que la sélection de disques dans notre examen est de 1/20 du nombre de disques durs dans les examens précédents, les informations disponibles suggèrent que les SSD basés sur SLC ne peuvent pas être qualifiés de plus fiables que les disques durs SAS et SATA.

Si vous êtes un consommateur, ce fait vous permet de tirer des conclusions importantes. Les fabricants de SSD tentent de se concentrer sur deux avantages principaux de cette technologie : meilleure performance et fiabilité. Cependant, si le stockage de données sur un SSD n'est pas plus sécurisé qu'un disque dur ordinaire, les performances deviennent la seule véritable raison d'acheter un SSD.

Nous ne suggérons pas ici que les performances du SSD sont sans importance (ou peu impressionnantes). Cependant, la technologie SSD elle-même a actuellement une spécificité étroite. Si vous deviez opposer les SSD aux disques durs en termes de vitesse, vous découvririez un fait intéressant : en termes de performances, un disque SSD de classe économique surpasse un disque dur d'environ 85 %. Le disque SSD Hi-End offre un avantage de 88% sur le disque dur, ce qui n'est pas non plus très impressionnant.

Cette différence plutôt subtile explique pourquoi des entreprises telles qu'Intel se concentrent sur la fiabilité des disques SSD. Lors de la récente présentation de la nouvelle gamme de SSD 320, Intel a encore tenté de jouer avec ce motif, utilisant les informations sur les retours de disques du site Hardware.fr comme preuve de la fiabilité de leurs produits. Sans aucun doute, c'est l'excellente réputation des SSD Intel qui est la réponse à la question de savoir pourquoi nous avons autant d'informations sur cette marque de SSD. Mais les données Hardware.fr citées par Intel ne semblent pas correspondre à la réalité.

Les performances des disques SSD ne feront que croître, tandis que les fabricants les plus avancés réduiront le coût de ces disques. Cependant, cela signifie que les fabricants devront trouver d'autres moyens de différencier leurs produits.

Tant que les nouveaux SSD - même haut de gamme - continueront de présenter des bogues évidents avec le micrologiciel et d'autres lacunes, les consommateurs qui s'intéressent principalement à la fiabilité du stockage des données considéreront que la technologie SSD n'est pas suffisamment mature. Par conséquent, nous pensons qu'aujourd'hui c'est la fiabilité qui devrait devenir la cible principale de l'évolution du SSD.

Intel a donné aux consommateurs un sérieux regain de confiance en augmentant la période de garantie de la nouvelle gamme SSD 320 de trois à cinq ans il y a quelques mois. Modèles SSD grand public concurrents basés sur des contrôleurs SandForse de première et deuxième génération et un contrôleur Marvell avec Interface SATA 6 Gbps continuent d'être vendus avec une garantie de trois ans. Les disques d'entreprise sont également généralement assortis d'une garantie de cinq ans. Naturellement, cela encourage les vendeurs à vendre des systèmes équipés de disques plus fiables afin de réduire le coût de service de garantie d'ici trois ou cinq ans. Mais, bien sûr, il est difficile de fermer les yeux sur les "maladies infantiles" de la technologie SSD, telles que le besoin de mises à jour du micrologiciel, qui, dans l'ensemble, affectent les performances des SSD.

Explications sur la question de la fiabilité

Les disques durs et les disques basés sur NAND échouent parfois et cela est dû à divers facteurs en raison de leur architecture et de leur conception uniques. Quand on parle de fiabilité des disques durs, on pense au fait qu'ils reposent sur des pièces mécaniques dont certaines sont en mouvement lors du fonctionnement du disque. Bien que les disques durs soient construits selon des tolérances très strictes, chaque pièce a une certaine durée de vie.

Nous savons également que les SSD n'ont pas ces problèmes. Leur nature "à semi-conducteurs" élimine essentiellement le risque d'endommagement de la tête de lecture ou de défaillance de la broche.

Mais stocker des données sur un SSD est intrinsèquement lié à la virtualisation, puisqu'ici on ne peut pas délimiter physiquement un espace LBA statique, comme sur un disque dur. Par conséquent, il existe d'autres facteurs qui déterminent la fiabilité du lecteur. Le micrologiciel est le plus important d'entre eux, et nous voyons l'impact de ce facteur chaque fois que nous entendons parler de problèmes de SSD.

Au cours des trois dernières années, tous les bugs des SSD Intel ont toujours été résolus avec une mise à jour du firmware. Les problèmes de gestion de l'alimentation m4 de Crucial ont été résolus avec la sortie de nouveau micrologiciel. Et nous avons vu que le partenaire SandForce le plus célèbre, OCZ, a répondu aux nombreuses plaintes des consommateurs avec la sortie de plusieurs firmwares à la fois. En fait, le cas SandForce est le plus révélateur. Étant donné que les fabricants de SSD peuvent utiliser différents micrologiciels pour différencier les modèles, les disques basés sur des contrôleurs SandForce de différents fabricants peuvent évidemment présenter divers bogues inhérents à firmware spécifique. Ce fait, bien sûr, ne fait que compliquer la tâche d'augmenter la fiabilité des disques SSD.

Laissant de côté les spécificités des SSD, nous devons maintenant déterminer la fiabilité des disques de différents fabricants. Le problème ici est que la façon dont chaque fournisseur, revendeur ou client mesure cette métrique varie quelque peu, rendant la comparaison objective presque impossible.

En particulier, nous avons été très impressionnés par la présentation des SSD Intel à l'IDF 2011, qui mettait l'accent sur la fiabilité. Mais lors d'une discussion avec ZT Systems, dont les données ont été fournies par Intel, nous avons découvert que la note AFR de 0,26% ne tient pas compte du nombre de disques et que nous ne parlons que d'erreurs "confirmées". En fait, si vous êtes responsable informatique, la fréquence des erreurs "non signalées" est également importante pour vous. Nous parlons de situations où vous envoyez un produit défectueux au vendeur, et il répond que tout est en ordre avec le disque. Cela ne signifie pas que le variateur est exempt de problèmes, car la cause peut être une configuration spécifique ou d'autres facteurs d'application. En fait, il existe de nombreux exemples concrets de ce genre.

Les bogues "non signalés" ont tendance à se produire 2 à 3 fois plus souvent que les bogues "approuvés". En fait, la société ZT System donne d'autres données sur la fréquence des erreurs "non approuvées" - 0,43% pour 155 000 disques Intel X25-M. Mais encore une fois, nous sommes confrontés au fait que ces données ne sont pas triées par durée de vie du disque, puisque les disques sont considérés par groupes. Selon Casey Cerretani, CTO de ZT System, la valeur finale n'est actuellement qu'en cours de calcul, mais on peut approximativement parler d'un AFR de 0,7% la première année d'exploitation. Bien sûr, ce nombre ne signifie toujours rien en termes de fiabilité à long terme, qui est l'un des principaux problèmes lors de l'évaluation de la fiabilité des SSD par rapport aux HDD.

La principale conclusion est que nous savons maintenant quel effet diverses méthodes les évaluations de la fiabilité des variateurs ont un impact sur le résultat final. De plus, seul le temps nous dira si les SSD sont plus fiables que les HDD. Mais maintenant, vous savez avec certitude qu'il est désormais impossible de tirer une conclusion sans ambiguïté, car une grande partie des données initiales est mise en doute.

Comme conclusion

Notre rapport sur les centres de données ne couvre que le taux de défaillance des SSD Intel, car les disques de ce fabricant sont actuellement les plus fiables des grandes entreprises. Compte tenu des problèmes de détermination de la fiabilité des SSD, nous ne nous fixons délibérément pas la tâche de trouver le fabricant le plus fiable, mais les employés du service marketing d'Intel ne reçoivent apparemment pas leur salaire pour rien.

L'étude de Google note ce qui suit : "On sait que le taux de panne dépend fortement du modèle, du fabricant et de l'âge du disque. Nos données ne contredisent pas ce fait. Mais la plupart des pannes observées au fil du temps sont liées à l'âge du disque."

L'expérience que nous avons apprise des centres de données s'applique à tous les SSD. L'un des directeurs d'usine nous a dit qu'il pensait que le prix de l'OCZ Vertex 2 était excellent, mais que leur fiabilité était terrible. À la fin de l'année dernière, son entreprise a lancé une nouveau système, à l'occasion de laquelle environ 200 disques Vertex 2 ont été achetés, dont 20 ne fonctionnaient pas à leur arrivée. Et ce n'est pas la première personne à dire une chose pareille.

Qu'est-ce que cela signifie en pratique pour un SSD ?

Examinons tout ce qui est dit ici dans une perspective rationnelle. Voici ce que nous avons appris sur la fiabilité des disques durs grâce aux recherches de Google et Schroeder :

  1. MTBF ne dit rien sur la fiabilité ;
  2. Taux de défaillance annuel (AFR) supérieur aux affirmations du fabricant ;
  3. Les disques n'ont pas tendance à tomber en panne au cours de la première année de fonctionnement. Le taux d'échec augmente progressivement avec l'âge du disque ;
  4. SMART n'est pas un système fiable pour déterminer si un disque est sur le point de tomber en panne ;
  5. Les taux de défaillance des disques "consommateurs" et des disques "entreprise" sont très proches ;
  6. La défaillance d'un disque dans une matrice augmente le risque de comportement similaire d'autres disques ;
  7. La température n'a pratiquement aucun effet sur la fiabilité du variateur.

Grâce à Softlayer avec sa flotte de 5000 SSD, nous savons que les quatre premières déclarations s'appliquent également aux SSD. Comme nous l'avons vu dans les deux études sur les disques durs, le contrôleur, le micrologiciel et l'interface (SAS vs SATA) ont un impact significatif sur leur fiabilité. Pour les disques SSD, les principaux facteurs sont également le contrôleur et le micrologiciel, et leur rôle est encore plus important. S'il est vrai que l'usure des cellules due à de multiples écrasements ne joue aucun rôle dans les statistiques de défaillance des SSD et que la qualité de la mémoire MCL utilisée dans les disques "consommateurs" est comparable à celle du SLC, la conclusion suggère que les SSD de classe entreprise, en général, pas plus fiable que "consommateur".

Moins de disques - plus de fiabilité

Bien sûr, pour les systèmes de stockage de classe entreprise, non seulement la fiabilité est importante, mais également les performances. Pour obtenir des performances d'E/S élevées, les professionnels de l'informatique doivent créer des matrices RAID basées sur des disques durs avec une vitesse de broche de 15 000 tr/min. Il n'est pas rare qu'une mise à niveau d'E/S entraîne l'achat d'un nouveau serveur avec une carte RAID plus puissante et une plus grande capacité de stockage. Compte tenu des performances d'E/S supérieures des SSD, leur utilisation serait une configuration de serveur beaucoup plus modeste, sans parler de l'économie d'énergie et de la baisse des températures.

Il y a un autre point intéressant ici.

Les taux de panne de disque individuels pour une grande baie seront plus élevés : selon les recherches de Schroeder, après qu'un disque tombe en panne dans une baie, la probabilité que d'autres disques tombent en panne augmente. De plus, la probabilité de défaillance de l'un des disques de la matrice sera nettement plus élevée, car le facteur mathématique commence à jouer un rôle ici.

Dans ce cas, nous n'abordons pas le sujet de la sécurité des données, qui dépend de Niveau RAID et d'autres facteurs. Il est clair que du point de vue de la sécurité des données, un SSD ne remplacera pas deux disques durs en miroir, malgré le fait que la probabilité de panne pour celui-ci sera plus faible que pour l'un des disques du système. Cependant, si nous parlons d'un grand système RAID, alors il est bien évident qu'il est plus fiable d'avoir une configuration sur quatre SSD qu'un système avec 16 disques durs de vitesse comparable.

Le simple fait d'utiliser un SSD ne supprime pas le besoin de redondance des données pour le RAID ou la sauvegarde. Mais au lieu de créer des configurations RAID volumineuses sur le disque dur, vous pouvez vous limiter à bien plus solutions simples basé sur des disques SSD. Comme l'écrit Robin Harris sur le site Web de StorageMojo : "Oubliez RAID, copiez simplement les données trois fois".

La redondance du stockage des données sur un SSD n'entraîne pas un coût élevé. Si vous dirigez une moyenne à grande entreprise, tout ce que vous avez à faire est de copier les informations du SSD productif sur le disque dur pour la sauvegarde.

L'idée d'obtenir de meilleures performances pour moins d'argent n'est pas nouvelle. Les SSD fournissent des E/S extrêmement élevées, une grande fiabilité et une redondance de stockage à un coût inférieur à celui d'une configuration RAID encombrante. Cependant, une matrice HDD peut surpasser son homologue SSD en termes de volume. espace disque. Aujourd'hui, le prix par gigaoctet des disques SSD est encore trop élevé, et la question du placement des données sur les SSD doit être abordée avec sagesse, car il est peu probable que toutes les données y soient stockées.

À peu près la même chose pour les ordinateurs de bureau

Tout ce qui précède s'applique aux serveurs. Laissons la responsabilité de prendre la décision de passer ou non au SSD aux employés du centre de données.

Si la conversation se tourne vers les systèmes de bureau, nous n'avons aucune raison de supposer que les SSD sont plus fiables que les disques durs. D'une manière ou d'une autre, les événements récents avec des rappels de SSD et des bugs dans le firmware ont montré assez clairement que le nombre limité de cycles de réécriture de cellules NAND est actuellement loin d'être le principal inconvénient de la technologie.

Après tout, tout stockage est appareil électronique s'il y a des pièces mobiles ou non. Et le fait que les SSD n'aient pas de telles pièces ne parle pas entièrement de leur fiabilité.

Nous avons posé une question aux spécialistes du CMRR (Center for Magnetic Recording Research) - un centre scientifique qui dispose d'informations complètes sur les systèmes de stockage de données sur support magnétique.

Le Dr Gordon Hughes, l'un des principaux développeurs des technologies SMART et Secure Erase, note que le disque dur et le SSD repoussent les limites de leurs technologies respectives dans leur évolution. Et lorsque cela se produit, l'objectif n'est pas de créer les disques les plus fiables au monde.

Comme le souligne le Dr Steve Swanson, chercheur NAND : "Ce n'est pas comme si les fabricants rendaient leurs disques aussi fiables qu'ils le pouvaient. Ils rendent les disques aussi fiables que cela a de sens sur le plan financier.". Le marché détermine le coût des composants du variateur et il ne peut pas être supérieur à une certaine valeur.

Par exemple, les fabricants de mémoire NAND continuent de produire des puces de 50 nm qui ont un cycle de vie de réécriture plus élevé que les puces de 34 nm et 25 nm. Mais le coût de 7 à 8 dollars par gigaoctet ne permettra pas l'utilisation de tels modules dans les lecteurs grand public.

Le plus gros désagrément est peut-être le fait que chaque fournisseur vend des disques durs et des SSD sans présenter de données objectives sur leur fiabilité, bien qu'ils connaissent certainement tous la véritable situation, vendant des millions d'appareils par an (selon IDC, en 2009, il en a vendu 11 millions SSD) et corrigeant chaque retour.

Sans aucun doute, la fréquence des pannes dépend de nombreux facteurs dont certains échappent à la compétence du constructeur (qualité de la livraison, spécificités de fonctionnement du variateur). Mais dans des circonstances favorables, les disques durs atteignent 3% AFR à la cinquième année de fonctionnement, ce qui est assez comparable à celui des SSD. Sans surprise, les experts du CMRR affirment qu'aujourd'hui, les SSD n'offrent pas une fiabilité supérieure à celle des disques durs.

La fiabilité des disques est un sujet sensible, et nous avons passé beaucoup de temps à parler aux fournisseurs et aux détaillants dans le but de faire nos propres recherches sur les SSD grand public. Et la seule conclusion que l'on peut tirer à l'heure actuelle est que toute information du fabricant de SSD doit être traitée avec un certain scepticisme.

Il convient de noter que les SSD Intel sont actuellement les plus fiables des consommateurs, et les informations des garderies sont invariablement basées sur les disques SLC de cette marque comme "l'étalon-or" pour les SSD. Mais selon le Dr Hughes, il n'y a aucune raison de croire que les produits Intel sont plus fiables que meilleurs modèles Disque dur. Nous n'avons pas la capacité d'examiner le taux de défaillance des SSD en service depuis plus de deux ans, il est donc possible que cette statistique change d'une manière ou d'une autre.

Dois-je désormais m'abstenir d'acheter un SSD ? Si vous protégez vos données en sauvegardant régulièrement vos fichiers, il n'y a aucune raison d'éviter d'utiliser des SSD. Par exemple, nous utilisons des SSD dans toutes nos plateformes de test et dans la plupart des postes de travail.

Cible cet avisétait de déterminer si les SSD sont vraiment si fiables qu'environ sauvegarde les informations qui y sont stockées peuvent être oubliées comme une relique du passé. Nous connaissons maintenant la réponse à cette question.

La fiabilité des disques durs a été bien étudiée dans des études massives, et ce n'est pas surprenant, car ce type de disque est utilisé depuis très longtemps. Au fil du temps, nous en apprendrons sans doute beaucoup plus sur la fiabilité des SSD.

gastrogourou 2017