Agrandir
/
Ni le chronomètre ni la veste en jean ne sont strictement nécessaires, si nous sommes honnêtes à ce sujet.
Aurich Lawson / Getty
commentaires des lecteurs
259
avec 108 affiches participantes, y compris l'auteur de l'histoire
Partagez cette histoire
Partager sur Facebook
Partager sur Twitter
Partager sur Reddit
Fondamentaux du stockage
OpenZFS 2.1 est sorti - parlons de ses tout nouveaux vdevs dRAID
Retour à RAID : Les lecteurs Ars « Et si ? » édition
ZFS contre RAID : huit disques Ironwolf, deux systèmes de fichiers, un gagnant
ZFS 101—Comprendre le stockage et les performances ZFS
Comprendre le RAID : comment les performances passent d'un disque à huit
Voir plus d'histoires
Cela a été long à préparer, c'est l'heure des résultats des tests. Pour vraiment comprendre les principes fondamentaux du stockage informatique, il est important de
explorer l'impact de divers RAID conventionnels
(Redundant Array of Inexpensive Disks) sur les performances. Il est également important de
comprendre ce qu'est ZFS et comment il fonctionne
. Mais à un moment donné, les gens (en particulier les passionnés d'informatique sur Internet) veulent des chiffres.
Tout d'abord, une note rapide : ce test, naturellement, s'appuie sur ces principes fondamentaux. Nous allons nous inspirer largement des leçons apprises en explorant les topologies ZFS ici. Si vous n'êtes pas encore tout à fait au courant de la différence entre les pools et les vdevs ou ce que signifient ashift et recordsize, nous
fortement
vous recommandons de revoir ces explicateurs avant de plonger dans les tests et les résultats.
Et bien que tout le monde aime voir les chiffres bruts, nous vous invitons à vous concentrer davantage sur
comment
ces chiffres se rapportent les uns aux autres. Tous nos graphiques associent les performances des topologies de pool ZFS à des tailles allant de deux à huit disques aux performances d'un seul disque. Si vous modifiez le modèle de disque, vos chiffres bruts changeront en conséquence, mais pour la plupart, leur relation avec les performances d'un seul disque ne changera pas.
Équipement tel que testé
Oui, je travaille dans un sous-sol en grande partie inachevé. Au moins, j'ai des fenêtres dans la cour. Ne me @ pas.
Il s'agit du Hot Rod de stockage de l'été 2019, avec les douze baies chargées et chaudes. Les quatre premiers sont mes propres affaires ; les huit derniers sont les appareils testés aujourd'hui. (La machine au-dessus est banshee, mon poste de travail Ryzen 7 3700X, dans un châssis identique à 12 baies.)
Lectures complémentaires
J'ai mis à jour mon vieux serveur Pentium G croustillant - les résultats valent la peine d'être partagés
Nous avons utilisé les huit baies vides de notre
Hot Rod de stockage été 2019
pour cet essai. Il a des tonnes de RAM et plus qu'assez de puissance CPU pour passer à travers ces tests de stockage sans transpirer.
Spécifications en un coup d'œil : Hot Rod de stockage d'été 2019, tel que testé
Système d'exploitation
Ubuntu 18.04.4 LTS
CPU
AMD Ryzen 7 2700X—
250 $ sur Amazon
RAM
Kit UDIMM DDR4 ECC 64 Go—
459 $ sur Amazon
Adaptateur de stockage
Adaptateur de bus hôte 8 ports LSI-9300-8i—
148 $ sur Amazon
Espace de rangement
8x 12 To Seagate Ironwolf—
320 $ chacun sur Amazon
Carte mère
Asrock Rack X470D4U—
260 $ sur Amazon
bloc d'alimentation
Bloc d'alimentation semi-modulaire EVGA 850GQ—
140 $ chez Adorama
Châssis
Rosewill RSV-L4112—
Typiquement 260 $
, actuellement indisponible en raison de CV19
Le Storage Hot Rod est également doté d'un
LSI-9300-8i
Adaptateur de bus hôte (HBA) qui n'est utilisé que pour les disques testés. Les quatre premières baies du châssis contiennent nos propres données de sauvegarde, mais elles étaient inactives pendant tous les tests ici et sont connectées au contrôleur SATA de la carte mère, entièrement isolées de nos baies de test.
Publicité
Comment nous avons testé
Lectures complémentaires
Quelle est la vitesse de vos disques ? Découvrez la manière open source, avec fio
Comme toujours, nous avons utilisé
fio
pour effectuer tous nos tests de stockage. Nous les avons exécutés localement sur le Hot Rod et nous avons utilisé trois types de tests à accès aléatoire de base : lecture, écriture et écriture synchronisée. Chacun des tests a été exécuté avec des blocs de 4K et 1M, et j'ai exécuté les tests à la fois avec un seu
l processus et iodepth=1 ainsi qu'avec huit processus avec iodepth=8.Pour tous les tests, nous utilisons ZFS sur Linux 0.7.5, comme cela se trouve dans les référentiels principaux pour Ubuntu 18.04 LTS. Il convient de noter que ZFS sur Linux 0.7.5 a maintenant deux ans : il y a des fonctionnalités et des améliorations de performances dans les nouvelles versions d'OpenZFS qui n'étaient pas disponibles dans la 0.7.5.
Nous avons de toute façon testé avec 0.7.5 - au grand dam d'au moins un développeur OpenZFS très expérimenté - car lorsque nous avons effectué les tests, 18.04 était la plus récente Ubuntu LTS et l'une des distributions stables les plus récentes en général. Dans le prochain article de cette série sur le réglage et l'optimisation de ZFS, nous mettrons à jour le tout nouveau Ubuntu 20.04 LTS et un ZFS beaucoup plus récent sur Linux 0.8.3.
Configuration initiale : ZFS vs mdraid/ext4
Lorsque nous avons testé mdadm et ext4, nous n'avons pas vraiment utilisé l'intégralité du disque : nous avons créé une partition de 1 To en tête de chaque disque et utilisé ces partitions de 1 To. Nous avons également dû invoquer des arguments obscurs—
mkfs.ext4 -E lazy_itable_init=0,lazy_journal_init=0
—pour éviter que la préallocation d'ext4 ne contamine nos résultats.
L'utilisation de ces partitions relativement petites au lieu des disques entiers était une nécessité pratique, car ext4 doit ramper sur l'ensemble du système de fichiers créé et disperser les blocs de métadonnées préalloués. Si nous avions utilisé les disques complets, l'espace utilisable sur la topologie RAID6 à huit disques aurait été d'environ 65 To - et le formatage aurait pris plusieurs heures, avec des attentes angoissantes similaires pour
tous
topologie testée.
ZFS, heureusement, n'a pas besoin ou ne veut pas préallouer des blocs de métadonnées - il les crée à la volée au fur et à mesure qu'ils deviennent nécessaires. Nous avons donc alimenté ZFS chaque disque Ironwolf de 12 To dans son intégralité, et nous n'avons pas eu besoin d'attendre de longues procédures de formatage.
Publicité
ZFS vs RAID conventionnel
Lectures complémentaires
Bitrot et COW atomiques : à l'intérieur des systèmes de fichiers de « nouvelle génération »
Lectures complémentaires
ZFS 101—Comprendre le stockage et les performances ZFS
Une matrice RAID conventionnelle est une simple couche d'abstraction qui se situe entre un système de fichiers et un ensemble de disques. Il présente l'ensemble de la baie comme un périphérique de « disque » virtuel qui, du point de vue du système de fichiers, est indiscernable d'un disque individuel réel, même s'il est beaucoup plus volumineux que le plus gros disque.
ZFS est un animal entièrement différent, et il englobe des fonctions qui pourraient normalement occuper trois couches distinctes dans un système traditionnel de type Unix. C'est un gestionnaire de volume logique, un système RAID et un système de fichiers tout en un. La fusion de couches traditionnelles comme celle-ci a poussé de nombreux administrateurs seniors à grincer des dents d'indignation, mais il y a de très bonnes raisons à cela.
il y a un absolu
tonne
des fonctionnalités offertes par ZFS, et les utilisateurs qui ne les connaissent pas sont fortement encouragés à jeter un œil à notre 2014
couverture
des systèmes de fichiers de nouvelle génération pour un aperçu de base ainsi que notre récent ZFS 101
article
pour une explication beaucoup plus complète.
Mégaoctets contre Mebioctets
Comme dans le dernier article, nos unités de mesure de performance ici sont les kibioctets (KiB) et les mebioctets (MiB). Un kibioctet vaut 1 024 octets, un mebioctet vaut 1 024 kibioctets, etc.
Les kibioctets et leurs grands frères et sœurs ont toujours été les unités standard pour le stockage informatique. Avant les années 1990, les informaticiens les appelaient simplement K et M et utilisaient les préfixes métriques inexacts lorsqu'ils les épelaient. Mais chaque fois que votre système d'exploitation fait référence à Go, Mo ou Ko, que ce soit en termes d'espace libre, de vitesse du réseau ou de quantités de RAM, il s'agit en réalité de GiB, MiB et KiB.
Les fournisseurs de stockage, malheureusement, ont finalement saisi la différence entre les métriques comme un moyen de produire à moindre coût des disques « gigaoctets », puis des disques « téraoctets ». les nouveaux tests d'aujourd'hui ne sont vraiment que de 10,9 Tio chacun.