Abstrakt
Die ftScalableTM Storage und ftScalable Storage G2 Arrays sind hochflexible, skalierbare Hardware-Speicher-Subsysteme. Wenn Sie die Vorteile und Fallstricke der verschiedenen RAID-Typen und Konfigurationsoptionen verstehen, insbesondere wie sie mit dem OpenVOS-Betriebssystem interagieren, können Sie eine optimale Festplattentopologie erstellen.
Diese white paper beschreibt die verschiedenen RAID-Typen, die von ftScalable Storage unterstützt werden, ihre Stärken und Schwächen, typische Anwendungsfälle und Möglichkeiten, eine Festplattentopologie zu entwerfen, die am besten für Ihre OpenVOS-Anwendung geeignet ist.
Terminologie
Das folgende Glossar definiert einige gängige Begriffe aus der Speicherbranche, die in diesem Dokument verwendet werden.
Degradierter Modus. Der Betriebsmodus einer VDISK nach dem Ausfall eines ihrer physischen Laufwerke, aber vor Beginn eines Wiederherstellungsvorgangs. In diesem Betriebsmodus ist die VDISK nicht vollständig redundant, und ein weiterer Ausfall eines physischen Laufwerks könnte zum Verlust dieser VDISK führen.
HBA oder Host-Bus-Adapter. Eine PCI-X- oder PCI-e-Leiterplatte oder ein integrierter Schaltkreisadapter, der die Eingabe/Ausgabe-Verarbeitung (E/A) und die physische Verbindung zwischen einem Server und einem Speichergerät ermöglicht.
Logische Festplatte. Ein logisches OpenVOS-Volume, das eine oder mehrere Mitgliedsfestplatten enthält. Jede Mitgliedsplatte ist entweder eine einzelne physische Platte in einem D910 Fibre Channel Disk Enclosure, eine LUN in einem ftScalable Storage Array oder ein duplexiertes Paar eines Typs oder beider Typen.
LUN oder logische Einheit. Entweder eine Unterteilung oder eine ganze VDISK in einem ftScalable Storage Array.
Logischer Datenträger mit mehreren Mitgliedern. Ein logisches OpenVOS-Volume, das aus mindestens zwei Paaren von Duplex-Laufwerken besteht, wobei die Daten über alle Laufwerkspaare verteilt sind.
RAID-Overhead. Die Menge an physischer Laufwerkskapazität, die in einem bestimmten RAID-Typ verwendet wird, um Redundanz zu gewährleisten. Bei einer RAID1-VDISK wären dies z. B. 50 % der Gesamtkapazität der physischen Laufwerke, aus denen die VDISK besteht, da die Daten auf jedem Laufwerk auf einem gespiegelten Partnerlaufwerk dupliziert werden.
Wiederherstellungsmodus. Der Betriebsmodus der VDISK, während sie nach einem Laufwerksausfall wiederhergestellt wird. In diesem Betriebsmodus ist die VDISK nicht vollständig redundant, und ein anschließender physischer Laufwerksausfall könnte zum Verlust dieser VDISK führen.
Striping. Eine Methode zur Verbesserung der E/A-Leistung durch Aufteilung der Daten in Blöcke und Schreiben der Blöcke auf mehrere physische Festplatten.
VDISK oder virtuelle Festplatte. Eine Gruppe von einem oder mehreren physischen Laufwerken in einem ftScalable Storage-Array, die unter Verwendung eines bestimmten RAID-Typs so organisiert sind, dass sie für das Betriebssystem als eine oder mehrere Festplatten erscheinen, je nach der Anzahl der definierten LUNs.
Die Begriffe "VOS" und "OpenVOS" werden in diesem Dokument in Bezug auf die Betriebssysteme VOS und OpenVOS von Stratussynonym verwendet.
1.0 RAID-Typen
Das ftScalable Storage-Array unterstützt eine Vielzahl von RAID-Typen. Dazu gehören: nicht fehlertolerante RAID-Typen (RAID-0, NRAID), paritätsbasierte RAID-Typen (RAID-3, RAID-5 und RAID-6), spiegelnde RAID-Typen (RAID-1) und kombinierte RAID-Typen (RAID-10, RAID-50). Sie müssen bei der Erstellung jeder VDISK einen RAID-Typ angeben.
Jeder RAID-Typ hat einzigartige Eigenschaften in Bezug auf Verfügbarkeit, Kosten, Leistung, Skalierbarkeit und Wartungsfreundlichkeit. Wenn Sie diese kennen, können Sie bei der Erstellung Ihrer Array-Festplattentopologie eine fundierte Auswahl treffen.
1.1 Nicht-fehlertolerante RAID-Typen
Es gibt zwei nicht-fehlertolerante RAID-Typen in ftScalable Storage, RAID-0 und NRAID.
1.1.1 RAID-0
Eine RAID-0-VDISK besteht aus mindestens zwei physischen Laufwerken, wobei die Daten über alle physischen Laufwerke des Satzes verteilt sind. Sie bietet den höchsten Grad an E/A-Leistung, aber keine Fehlertoleranz. Der Verlust eines physischen Laufwerks führt zum vollständigen Verlust der Daten in dieser VDISK.
Da es sich bei RAID-0 um einen nicht fehlertoleranten RAID-Typ handelt, kann das ftScalable-Storage-Array grenzwertige oder ausfallende physische Laufwerke nicht automatisch außer Betrieb nehmen und die Daten proaktiv mit einem verfügbaren Ersatzlaufwerk wiederherstellen. Stattdessen hängt die Wiederherstellung vollständig von dem traditionellen OpenVOS-System der Fehlertoleranz über duplexierte Festplatten ab.
Infolgedessen ist eine Reihe von manuellen Servicevorgängen (Löschen der defekten VDISK, physisches Entfernen der defekten physischen Festplatte, Installieren eines physischen Ersatzlaufwerks, Neuerstellung der VDISK, Neuformatierung der logischen Festplatte, erneutes Duplexen über VOS) erforderlich, um eine RAID-0-VDISK neu zu erstellen und wiederherzustellen. Ihre Daten sind simplexiert, bis alle diese Wiederherstellungsvorgänge abgeschlossen sind. Weitere Informationen zu den Auswirkungen, die das Einsetzen oder Entfernen von physischen Laufwerken auf die E/A-Verarbeitung hat, finden Sie in Abschnitt 11.0, "Einsetzen und Entfernen von physischen Laufwerken: Auswirkung auf die E/A-Leistung".
Stratus empfiehlt nicht, diesen RAID-Typ zu verwenden, ohne auch die in OpenVOS verfügbare softwarebasierte Spiegelung zu nutzen. Selbst bei der OpenVOS-Spiegelung sollten Sie angesichts der manuellen Wartungsarbeiten und der damit verbundenen Zeit, die für die Wiederherstellung der vollständigen Redundanz Ihrer Daten erforderlich ist, das Potenzial für Datenverluste in Betracht ziehen.
1.1.2 NRAID
Eine NRAID-VDISK ist im Grunde ein einzelnes physisches Laufwerk ohne Fehlertoleranz. Sie bietet kein Striping und hat daher die Leistungsmerkmale eines einzelnen physischen Laufwerks. NRAID-VDISKs haben die gleichen Verfügbarkeits- und Wartungseigenschaften wie eine RAID-0-VDISK.
1.2 Parity-basierte RAID-Typen: RAID-3, RAID-5, RAID-50 und RAID-6
Das ftScalable Storage-Array unterstützt vier Arten von Paritäts-basierten VDISKs: RAID-3, RAID-5, RAID-50 und RAID-6. Angesichts der geringen Nutzung von RAID-3 und RAID-50 konzentriert sich dieses Whitepaper auf die häufiger verwendeten Typen RAID-5 und RAID-6.
Diese RAID-Typen verwenden paritätsbasierte Algorithmen und Striping, um hohe Verfügbarkeit bei geringeren Kosten im Vergleich zur Spiegelung zu bieten. Eine RAID-5-VDISK verwendet das Kapazitätsäquivalent eines physischen Laufwerks für die Speicherung von XOR-generierten Paritätsdaten, während eine RAID-6-VDISK das Äquivalent von zwei physischen Laufwerken verwendet, da sowohl XOR- als auch Reed-Solomon-Paritätsdaten erzeugt und gespeichert werden. Sowohl RAID-5- als auch RAID-6-VDISKs verteilen Paritäts- und Datenblöcke auf alle physischen Festplattenlaufwerke im Satz.
VDISKs, die paritätsbasierte RAID-Typen verwenden, benötigen im Vergleich zu spiegelnden RAID-Typen weniger Speicherkapazität für RAID-Overhead. Die Mindestanzahl an physischen Festplattenlaufwerken zur Erstellung einer RAID-5-VDISK beträgt drei, während für ein RAID-6 mindestens vier erforderlich sind.
Eine RAID-5-VDISK kann einen einzelnen Festplattenausfall ohne Datenverlust überstehen, während eine RAID-6-VDISK zwei Festplattenausfälle überstehen kann. Das ftScalable Storage-Array kann proaktiv ein marginales oder fehlerhaftes physisches Laufwerk aus der VDISK entfernen, ohne die Verfügbarkeit der Daten zu beeinträchtigen. Wenn ein Ersatzlaufwerk verfügbar ist, wird der Wiederherstellungsmodus automatisch gestartet, ohne dass ein Bedienereingriff erforderlich ist, physische Laufwerke eingefügt werden müssen oder logische Laufwerke in OpenVOS neu dupliziert werden müssen, da der Vorgang für das Betriebssystem transparent ist. Sie können dann einen Zeitpunkt für den Austausch des ausgefallenen Laufwerks und die Erstellung eines neuen Ersatzlaufwerks festlegen. Siehe jedoch Abschnitt 11.0, "Einsetzen und Entfernen von physischen Laufwerken: Auswirkungen auf die E/A-Leistung", finden Sie weitere Informationen zu den Auswirkungen, die das Entfernen und Einsetzen eines physischen Laufwerks auf die E/A-Verarbeitung hat.
Beide Typen bieten eine hervorragende Leseleistung, aber die Schreibleistung wird dadurch beeinträchtigt, dass nicht nur der Datenblock geschrieben werden muss, sondern auch die für den/die Paritätsblock/-blöcke erforderlichen Berechnungs- und Lese-/Änderungs-/Rückschreibvorgänge. Eine RAID-5- oder RAID-6-VDISK, die nach dem Ausfall eines einzelnen physischen Laufwerks im degradierten Modus betrieben wird, hat eine mittlere Auswirkung auf den Durchsatz. Eine VDISK im Wiederherstellungsmodus, bei der die Daten wiederhergestellt werden, hat jedoch eine hohe Auswirkung auf den Durchsatz.
Eine RAID-6-VDISK, die aufgrund von zwei ausgefallenen physischen Festplatten im degradierten Modus läuft, hat eine mittlere bis hohe Auswirkung auf den Durchsatz, während eine VDISK, die im Wiederherstellungsmodus läuft und bei der zwei Laufwerke wiederhergestellt werden, eine extrem hohe Auswirkung auf den Durchsatz hat.
In Tabelle 1 finden Sie die geschätzten Auswirkungen auf die E/A, wenn Sie mit einer RAID-5- oder RAID-6-VDISK entweder im degradierten oder im Wiederherstellungsmodus arbeiten.
HINWEIS: Hierbei handelt es sich um Schätzungen, und die tatsächlichen Auswirkungen in Ihrer Umgebung können je nach Konfiguration, Arbeitslast und E/A-Profil Ihrer Anwendung variieren.
Tabelle 1. Geschätzte Beeinträchtigung der E/A-Leistung
RAID 5 / RAID 6 Degraded Modus Ausfall eines einzelnen Laufwerks |
RAID 5 / RAID 6 Wiederherstellungsmodus Ausfall eines einzelnen Laufwerks |
RAID 6 Degradierter Modus Ausfall von zwei Laufwerken |
RAID 6 Wiederherstellungsmodus Ausfall von zwei Laufwerken |
|
Perf. lesen. | 40 – 50% | 50 – 60% | 50 – 60% | 60 – 70% |
Schreiben Sie Perf. | 10 – 15% | 15 – 25% | 20 – 25% | 25 – 35% |
1.3 Spiegelnde RAID-Typen: RAID-1 und RAID-10
Mit ftScalable Storage können Sie zwei Arten von gespiegelten RAID-VDISKs erstellen, RAID-1 und RAID-10.
1.3.1 RAID-1:
Eine RAID-1-VDISK ist ein einfaches Paar gespiegelter physischer Festplattenlaufwerke. Es bietet eine gute Lese- und Schreibleistung und kann den Verlust eines einzelnen physischen Laufwerks überstehen, ohne die Datenverfügbarkeit zu beeinträchtigen. Lesevorgänge können von einem der beiden physischen Laufwerke ausgeführt werden, während Schreibvorgänge auf beide Laufwerke geschrieben werden müssen. Da alle Daten in einer RAID-1-VDISK gespiegelt werden, gibt es im Vergleich zu paritätsbasierten RAID-Typen einen hohen RAID-Overhead.
Die Wiederherstellung eines ausgefallenen physischen Laufwerks ist ein unkomplizierter Vorgang, der lediglich eine erneute Spiegelung vom überlebenden Partner erfordert. Das ftScalable Storage Array kann proaktiv ein marginales oder ausgefallenes physisches Laufwerk aus einer RAID-1 VDISK entfernen, ohne die Verfügbarkeit der Daten zu beeinträchtigen. Wie bei paritätsbasierten RAID-Typen startet der Wiederherstellungsmodus automatisch, wenn ein Ersatzlaufwerk verfügbar ist, ohne dass ein Bedienereingriff erforderlich ist, ein physisches Laufwerk eingefügt werden muss oder die logische Platte in OpenVOS neu dupliziert werden muss, da dies für das Betriebssystem transparent gehandhabt wird. Sie können dann einen Zeitpunkt für den Austausch des ausgefallenen Laufwerks und die Erstellung eines neuen Ersatzlaufwerks festlegen. Beachten Sie jedoch Abschnitt 11.0, "Einsetzen und Entfernen von physischen Laufwerken: Auswirkungen auf die E/A-Leistung" finden Sie weitere Informationen zu den Auswirkungen, die das Entfernen und Einsetzen eines physischen Laufwerks auf die E/A-Verarbeitung hat.
Die Leistung wird in der Regel nur geringfügig beeinträchtigt, wenn das System im degradierten oder im Wiederherstellungsmodus läuft.
1.3.2 RAID-10:
Eine RAID-10-VDISK besteht aus zwei oder mehr RAID-1-Plattenpaaren, wobei die Datenblöcke auf alle verteilt sind. Eine RAID-10-VDISK bietet hohe Leistung, Skalierbarkeit und die Möglichkeit, mehrere physische Laufwerksausfälle ohne Datenverlust zu überstehen. Die Wartungsfreundlichkeit, der RAID-Overhead und die Auswirkungen auf die Leistung im degradierten oder Wiederherstellungsmodus sind ähnlich wie bei einer RAID-1-VDISK.
1.3.3 Zusammenfassung der Merkmale des RAID-Typs
Tabelle 2 fasst die Eigenschaften der besprochenen RAID-Typen zusammen. Sie bewertet VDISKs jedes Typs in mehreren Kategorien auf einer Skala von 0 bis 5, wobei 0 sehr schlecht und 5 sehr gut ist. Sie sollten nur Werte innerhalb einer Zeile vergleichen; Vergleiche zwischen Zeilen sind nicht zulässig.
Tabelle 2. Merkmale des RAID-Typs
Kategorie | NRAID | RAID-0 | RAID-1 | RAID-10 | RAID-5 | RAID-6 |
Verfügbarkeit | 0 | 0 | 3 | 5 | 4 | 5 |
RAID-Mehrkosten | 5 | 5 | 0 | 0 | 3 | 2 |
Leistung lesen | 3 | 5 | 4 | 5 | 4 | 4 |
Leistung schreiben | 3 | 5 | 3 | 4 | 2 | 2 |
Leistung im verschlechterten Modus | N/A | N/A | 3 | 5 | 2 | 1 |
Leistung im Wiederherstellungsmodus | N/A | N/A | 3 | 5 | 2 | 1 |
2.0 Auswählen eines RAID-Typs
Jeder RAID-Typ hat spezifische Vor- und Nachteile. Wenn Sie diese kennen, können Sie den RAID-Typ auswählen, der für Ihre Umgebung am besten geeignet ist. Denken Sie daran, dass Sie mehrere VDISKs erstellen können, die jeden der vom ftScalable Storage-Array unterstützten RAID-Typen verwenden, so dass Sie ein RAID-Layout entwerfen können, das für Ihre Anwendung und Systemumgebung optimal ist. Sie müssen nicht den gleichen RAID-Typ für alle VDISKs auf Ihrem ftScalable Storage-Array verwenden.
HINWEIS: Die Verwendung eines bestimmten RAID-Typs und einer LUN-Topologie für das OpenVOS-Systemvolume durch Stratusbedeutet nicht, dass dies der optimale RAID-Typ für Ihre Anwendung oder Daten ist.
Für Daten und Anwendungen, bei denen der Schreibdurchsatz oder die Latenzzeit nicht entscheidend sind (z. B. bei der Stapelverarbeitung) oder bei denen der Schwerpunkt auf dem Lesen und nicht auf dem Schreiben liegt, ist RAID-5 eine gute Wahl. Als Gegenleistung für einen geringeren Schreibdurchsatz und eine höhere Latenz können Sie weniger physische Festplatten für eine bestimmte Kapazität verwenden und dennoch ein hohes Maß an Fehlertoleranz erreichen. Sie müssen jedoch auch die Auswirkungen berücksichtigen, die der Betrieb einer VDISK im Degraded- oder Recovery-Modus auf Ihre Anwendung haben kann. Die gesamte E/A-Leistung und Latenz im Degraded- und Recovery-Modus leidet bei paritätsbasierten RAID-Typen stärker als bei spiegelnden RAID-Typen.
Für Daten und Anwendungen, die einen optimalen Schreibdurchsatz mit geringsten Latenzen erfordern (z. B. Online-Transaktionsverarbeitungssysteme), die mehr Schreibvorgänge als Lesevorgänge durchführen oder die bei einem Ausfall eines physischen Laufwerks keine Leistungseinbußen hinnehmen können, bieten spiegelnde RAID-Typen (RAID-1 oder RAID-10) eine bessere Lösung. Bei diesen RAID-Typen entfallen die zusätzlichen E/As, die bei RAID-5 oder RAID-6 durch die Lese-vor-Schreib-Strafe für Paritätsdaten entstehen, so dass das Schreiben von Daten ein einfacher Vorgang ist. RAID-10 ist im Allgemeinen eine bessere Wahl als RAID-1, da Sie die Daten über mehrere physische Laufwerke strippen können, was die Gesamtleistung beim Lesen und Schreiben erheblich steigern kann. Siehe jedoch Abschnitt 5.0, "OpenVOS Multi-Member Logical Disks Versus ftScalable RAID-10 VDISKs" und Abschnitt 6.0, "OpenVOS Queue Depth and ftScalable Storage" für zusätzliche Informationen über OpenVOS I/O Queuing, LUN-Anzahl und Striping-Überlegungen.
Für Daten und Anwendungen, die längere Zeiträume mit simplexen Daten nach einem Laufwerksausfall tolerieren können oder die nicht sehr empfindlich auf längere Latenzzeiten reagieren, können NRAID und RAID-0 VDISKs in Betracht gezogen werden, allerdings nur in Verbindung mit der OpenVOS-Spiegelung. Die Auswahl eines dieser RAID-Typen ermöglicht die Verwendung der geringsten Anzahl von physischen Festplatten für einen bestimmten Kapazitätspunkt, allerdings im Austausch für eine geringere Verfügbarkeit. Angesichts dieser Einschränkungen und der Auswirkungen auf die Verfügbarkeit empfiehlt Stratus die Verwendung dieser RAID-Typen nicht.
Wenn Sie sich nicht entscheiden können, ob Sie einen paritätsbasierten oder einen spiegelnden RAID-Typ wählen sollen, sollten Sie sich für einen der spiegelnden RAID-Typen entscheiden, da diese für die meisten Anwendungen die besten Leistungs- und Verfügbarkeitseigenschaften bieten.
3.0 Partitionierung von VDISKs in LUNs
Bevor eine VDISK von OpenVOS verwendet werden kann, muss sie zunächst in eine oder mehrere LUNs partitioniert werden. Jede LUN wird einer bestimmten VOS-Mitgliedsplatte zugewiesen. Eine oder mehrere Mitgliedsplatten werden zu einer einzigen logischen OpenVOS-Platte kombiniert.
Obwohl das ftScalable Storage Array die Partitionierung einer VDISK in mehrere LUNs unterstützt, kann dies zu erheblichen Leistungseinbußen führen, die sowohl den E/A-Durchsatz als auch die Latenz für alle LUNs auf dieser VDISK beeinträchtigen. Aus diesem Grund empfiehlt Stratus keine Konfigurationen mit mehreren LUNs pro VDISK für Kundendaten.
Es gibt mehrere Gründe für die Leistungseinbußen, die beim Betrieb von Multi-LUN-VDISK-Konfigurationen auftreten, aber die wichtigsten sind Festplattenkonflikte und Head-Suchvorgänge. Jedes Mal, wenn das ftScalable Storage Array eine E/A-Anfrage an eine der LUNs in einer Multi-LUN-VDISK-Konfiguration erfüllen muss, muss es die physischen Laufwerksköpfe suchen. Je mehr LUNs eine VDISK umfasst, desto mehr Kopfbewegungen treten auf. Je mehr Kopfbewegungen es gibt, desto größer werden die Latenzen, da die Festplattenkonkurrenz zunimmt. Denken Sie daran, dass alle E/A letztendlich von den physischen Laufwerken der VDISK abgewickelt werden müssen; der Cache-Speicher des Arrays kann diese physische E/A nicht ersetzen.
Stratus hat Benchmarks durchgeführt, die zeigen, dass der gesamte E/A-Durchsatz einer VDISK mit 4 LUNs etwa halb so hoch ist wie der Durchsatz der gleichen VDISK, die als einzelne LUN konfiguriert ist, während die durchschnittliche Latenzzeit mehr als viermal so hoch sein kann.
DieDiagramme 1 und 2 zeigen, wie sich die Verwendung mehrerer LUNs pro VDISK auf die Leistung auswirkt. Diese Diagramme zeigen die Summe der Schreib-E/As pro Sekunde (IOPS) und die maximalen Latenzen in Millisekunden (ms), die bei der Verwendung einer RAID-5-VDISK mit vier Laufwerken, die mit einer, zwei oder drei LUNs konfiguriert ist, auftreten.
HINWEIS: Diese Diagramme basieren auf den Ergebnissen von Stratus internen Labortests unter kontrollierten Bedingungen. Ihre tatsächlichen Ergebnisse können abweichen.
Diagramme 1 und 2. Mehrere LUNs pro VDISK - Auswirkungen auf die Leistung
4.0 Zuweisung von OpenVOS Logical Disks zu LUNs
Der einfachste Ansatz besteht darin, jedes Mitglied einer logischen OpenVOS-Platte einer LUN zuzuordnen. Wenn Sie ein logisches VOS-Laufwerk benötigen, das größer als eine einzelne LUN ist, oder wenn Sie die Leistungsvorteile des Striping nutzen möchten, können Sie ein logisches VOS-Laufwerk mit mehreren Mitgliedern erstellen, bei dem jedes Mitglied eine einzelne LUN ist.
Abbildung 1 zeigt die Beziehung zwischen physischen Laufwerken, VDISKs und LUNs auf dem ftScalable Storage-Array und logischen OpenVOS-Platten. Dies ist ein Beispiel für ein einfaches logisches OpenVOS-Laufwerk, das aus zwei Platten besteht, wobei jede Platte eine einzelne RAID1-VDISK / LUN auf einem ftScalable Storage-Array ist.
5.0 OpenVOS Multi-Member Logical Disks gegenüber ftScalable RAID-10 VDISKs
Es gibt jetzt eine Vielzahl von Möglichkeiten, wie Sie Striping in OpenVOS implementieren können. Vor der Veröffentlichung von ftScalable Storage bestand die einzige verfügbare Methode darin, mehrere physische Festplatten zu verwenden, die als logische VOS-Multimember-Festplatte konfiguriert waren. Mit der Einführung von ftScalable Storage können Sie RAID-10 VDISKs erstellen, bei denen das Array das gesamte Striping übernimmt, oder sogar eine Kombination aus beiden Methoden, indem Sie mehrere LUNs, von denen jede eine VDISK ist, zu einer einzigen VOS Multi-Member Logical Disk kombinieren.
Wenn Sie Striping verwenden möchten, empfiehlt Stratus die Verwendung von VDISKs des Typs RAID ohne Striping (z. B. RAID-1 oder RAID-5) mit einer einzelnen LUN pro VDISK, die Sie zu logischen VOS-Multimember-Festplatten kombinieren. Auf diese Weise kann OpenVOS für jede LUN eine eigene Plattenwarteschlange verwalten, wodurch der Durchsatz maximiert und die Latenzzeit minimiert wird. In Abschnitt 6.0, "OpenVOS Queue Depth and ftScalable Storage", finden Sie einige Überlegungen zur Anzahl der zugewiesenen LUNs und zu den möglichen Auswirkungen auf die Leistung.
6.0 OpenVOS Warteschlangentiefe und ftScalable Storage
Alle Speicher-Arrays, physischen Festplattenlaufwerke, Fibre Channel HBAs und modernen Betriebssysteme verfügen über Warteschlangen für E/A-Anforderungen unterschiedlicher Größe. Die Warteschlangentiefe definiert im Wesentlichen, wie viele einzelne E/A-Anforderungen für ein bestimmtes Gerät zu einem bestimmten Zeitpunkt anstehen (in der Warteschlange stehen) können.
Eine volle Warteschlange liegt vor, wenn ein Gerät extrem ausgelastet ist und keine weiteren E/A-Anforderungen in seine Warteschlange aufnehmen kann. Wenn die Warteschlange voll ist, werden neue E/A-Anforderungen abgebrochen und erneut versucht, bis wieder Platz in der Warteschlange vorhanden ist. Dies führt zu einer erhöhten E/A-Latenzzeit, einer längeren Reaktionszeit der Anwendung und einem geringeren E/A-Durchsatz.
OpenVOS verwaltet eine separate Warteschlange mit einer Standard-Warteschlangentiefe von zwölf für jede LUN. Jeder Host-Anschluss (Fibre Channel) auf dem ftScalable Storage Array hat eine einzelne Warteschlange mit einer Tiefe von 128.
In OpenVOS-Konfigurationen mit einer großen Anzahl von LUNs ist es möglich, die Host-Port-Warteschlangen auf dem ftScalable Storage-Array mit einer relativ kleinen Anzahl von stark ausgelasteten LUNs zu füllen. Dies führt dazu, dass E/A-Anfragen für andere LUNs den Status "Warteschlange voll" erhalten, was diese und Ihre Anwendung verzögert. Sie sollten die Anzahl der in Ihrer Konfiguration verwendeten LUNs sorgfältig abwägen und gegebenenfalls mit Stratus Rücksprache halten, um die OpenVOS-Warteschlangentiefe-Einstellungen nach Bedarf anzupassen.
7.0 Zuweisung von Dateien zu logischen VOS-Platten
Weisen Sie, wenn möglich, Dateien mit wahlfreiem Zugriff und Dateien mit sequentiellem Zugriff getrennten logischen Laufwerken zu. Die Vermischung der beiden Arten des Dateizugriffs auf derselben logischen Festplatte erhöht die Worst-Case-Zeit (maximale Latenz), die für den Zugriff auf Dateien mit wahlfreiem Zugriff benötigt wird, und verringert den maximal möglichen Durchsatz von Dateien mit sequentiellem Zugriff. Denken Sie auch daran, dass Sie für jede logische Festplatte einen anderen RAID-Typ verwenden können, um den E/A-Zugriffstyp bestmöglich anzupassen.
8.0 Ausgleich von VDISKs zwischen Speicher-Controllern
Das ftScalable Storage Array verfügt über ein aktiv-aktives Speicher-Controller-Design mit zwei Controllern, die aktiv I/O verarbeiten. Jede VDISK wird jedoch bei der Zuweisung einem bestimmten Speicher-Controller zugewiesen, entweder Controller A oder Controller B. Alle E/A für eine bestimmte VDISK werden von dem zugewiesenen Speicher-Controller verarbeitet. Wenn Sie nicht angeben, welcher Controller einem bestimmten VDISK zugewiesen werden soll, weist das ftScalable Storage-Array die VDISKs nach dem Round-Robin-Prinzip zu, d.h. abwechselnd den beiden Controllern.
Dies kann zwar die Anzahl der VDISKs zwischen den beiden Speicher-Controllern ausbalancieren, gewährleistet aber nicht, dass die E/A-Arbeitslast gleichmäßig aufgeteilt wird. Nehmen wir zum Beispiel an, Sie haben 6 VDISKs in Ihrer Konfiguration, VDISK1 bis VDISK6 genannt. VDISK1 und VDISK3 verarbeiten alle Ihre primären Online-Daten und sind beide sehr E/A-intensiv, während die übrigen VDISKs Offline-Archivierungsdaten verarbeiten und viel weniger ausgelastet sind.
Wenn Sie die VDISKs nicht explizit den Controllern zugewiesen haben, werden VDISK1, VDISK3 und VDISK5 dem Controller A zugewiesen, während VDISK2, VDISK4 und VDISK6 auf Controller B liegen.
Sie sollten die geschätzte E/A-Arbeitslast bei der Zuweisung Ihrer VDISKs berücksichtigen und, falls erforderlich, bestimmte VDISKs während des VDISK-Erstellungsprozesses manuell Controllern zuweisen. Wenn Sie feststellen, dass sich Ihre Arbeitslast ändert oder eine unausgewogene E/A-Zuweisung vorliegt, können Sie eine vorhandene VDISK einem neuen Speicher-Controller neu zuweisen.
ACHTUNG: Die Änderung der Controller-Eigentümerschaft einer VDISK ist ein störender Vorgang und kann nicht ohne vorübergehende Beeinträchtigung des Zugriffs auf Ihre Daten durchgeführt werden, während die VDISK zwischen den beiden Controllern verschoben und die LUN-Nummer neu zugewiesen wird. Dies kann nicht mit online OpenVOS logischen Festplatten durchgeführt werden. Wenden Sie sich an Stratus , um Unterstützung zu erhalten, bevor Sie diesen Vorgang durchführen.
9.0 Einzelne VDISK-Konfigurationen
Obwohl es möglich ist, eine einzelne große VDISK auf einem ftScalable Storage Array zu erstellen, sollten Sie dies vermeiden, da dies Auswirkungen auf die Leistung hat und von Stratus nicht empfohlen wird.
Wie bereits beschrieben, gibt es in jedem ftScalable Storage Array zwei Speicher-Controller, die in einem Aktiv-Aktiv-Modus arbeiten. Jede VDISK ist einem bestimmten Speicher-Controller zugewiesen, der die gesamte I/O-Verarbeitung für diese VDISK besitzt und ausführt. In einer einzelnen VDISK-Konfiguration halbieren Sie die gesamte verfügbare Leistung des ftScalable Storage-Arrays, da nur einer der beiden Speicher-Controller alle I/O-Anfragen verarbeitet.
In OpenVOS-Konfigurationen gibt es für jede LUN eine eigene Warteschlange für I/O-Anfragen. Indem Sie nur eine einzige VDISK haben, minimieren Sie die Fähigkeit von OpenVOS, parallele I/O-Anfragen an das ftScalable Storage Array zu senden, was wiederum den gesamten I/O-Durchsatz und die Latenzzeit verschlechtert.
10.0 Auswirkungen der VDISK-/LUN-Größenbestimmung auf OpenVOS
10.1 Roh- versus nutzbare Kapazität
Das OpenVOS-Betriebssystem verwendet Metadaten, um ein Höchstmaß an Datenintegrität für Festplattendaten zu gewährleisten. Diese Metadaten werden in einem von den eigentlichen Daten getrennten physischen Sektor gespeichert. Folglich verwendet OpenVOS neun physische Sektoren, um jeweils acht Sektoren mit Nutzdaten zu speichern.
Wenn Sie ftScalable VDISKs und LUNs konfigurieren, denken Sie daran, dass die Größe, die OpenVOS angezeigt wird, die RAW-Kapazität darstellt und nicht den Overhead der Metadaten widerspiegelt. Ihre nutzbare Kapazität beträgt etwa 8/9tel (88%) der physischen Rohgröße der VDISK / LUN. Zusätzlich reserviert OpenVOS ca. 1,1 GB Platz für die Partitionierung von Overheard.
OpenVOS verwendet normalerweise Speicher auf einer LUN, gerundet auf die nächste 5-GB-Grenze. Dies ermöglicht die Zusammenführung von LUNs mit leicht abweichenden Größen. Die einzige Ausnahme von dieser Rundung sind LUNs, die genau der Größe bestimmter legacy OpenVOS-Plattentypen entsprechen (z. B. D913 oder D914).
10.2 OpenVOS-Plattensegmente, LUN-Größe und LUN-Anzahl
OpenVOS hat maximal 254 adressierbare Plattensegmente pro VOS-Modul, wobei jedes Plattensegment etwa 34 GB Speicher adressieren kann. Daraus ergibt sich ein Maximum von etwa 8,6 TB (Terabyte) an duplexed adressierbarem Speicher unter OpenVOS. Jede logische OpenVOS-Platte verbraucht mindestens ein Plattensegment.
Diese beiden Einschränkungen müssen bei der Zuweisung Ihrer VDISK-/LUN-Größen und -Anzahl berücksichtigt werden. Da jede logische Festplatte mindestens ein Segment benötigt, kann die Verwendung vieler kleiner VDISKs / LUNs die maximale Speicherkapazität, die auf Ihrem OpenVOS-System konfiguriert werden kann, erheblich reduzieren. Um die Menge des konfigurierbaren Speichers auf Ihrem OpenVOS-System weiter zu maximieren, erstellen Sie LUNs mit einem ganzzahligen Vielfachen von 34 GB nutzbarer (38,6 GB roher) Größe, um die Anzahl der für eine bestimmte logische Platte erforderlichen Plattensegmente zu minimieren.
10.3 POSIX-Beschränkungen für die Größe logischer Platten
Die Anzahl der Plattenmitglieder und die Gesamtgröße einer logischen VOS-Platte bestimmen die Größe der generierten Inode-Nummern, die von POSIX-Anwendungen verwendet werden. In aktuellen VOS-Versionen ist dieser Wert auf 32 Bit beschränkt, was eine logische Plattengröße von etwa 545 GB ermöglicht. Wenn diese Grenze überschritten wird, erzeugt der VOS-Befehl initialize_disk eine Warnung, dass dies ein Kompatibilitätsproblem für Ihre bestehenden POSIX-Anwendungen darstellen könnte.
Wenn alle Ihre POSIX-Anwendungen, die auf logische Festplatten zugreifen, unter OpenVOS 17.1 mit dem Präprozessor-Symbol _VOS_LARGE_INODE neu kompiliert wurden und mit den OpenVOS 17.1-POSIX-Laufzeitroutinen, die sowohl 32- als auch 64-Bit-Inode-Nummern unterstützen, neu gebunden wurden, gibt es kein Problem. Die Warnmeldung für diese Festplatte kann ignoriert und/oder mit der Option -no_check_legacy_inodes unterdrückt werden, die dem Befehl initialize_disk in OpenVOS ab Version 17.1 hinzugefügt wurde.
Lesen Sie die Dokumente Software Release Bulletin: OpenVOS Release 17.1 (R622-01) und OpenVOS System Administration: Disk and Tape Administration (R284-12) für weitere Informationen.
11.0 Einsetzen und Entfernen von physischen Laufwerken: Auswirkung auf die E/A-Leistung
Das ftScalable Storage Array unterstützt das Einsetzen und Entfernen von physischen Laufwerken, ohne das Array auszuschalten oder den Host und/oder die Anwendung anzuhalten. Nachdem ein oder mehrere Laufwerke eingefügt oder entfernt wurden, muss das ftScalable Storage Array die zugrundeliegende physikalische Festplattentopologie neu abbilden, um festzustellen, ob es irgendwelche verschobenen, entfernten oder neu eingefügten physikalischen Laufwerke gibt. Dies wird als "Rescan" bezeichnet.
Diese Rescans werden automatisch vom ftScalable Storage Array durchgeführt, ohne dass manuelle Bedienerbefehle erforderlich sind. Während dieses Rescan-Prozesses können alle anstehenden E/A-Anforderungen vorübergehend verzögert werden, bis er abgeschlossen ist.
Beim ftScalable Storage Array der ersten Generation konnte das Einsetzen eines Laufwerks mehrere E/A-Verzögerungen von 4 bis 7 Sekunden über einen Zeitraum von etwa 40 Sekunden verursachen. Das Entfernen eines Laufwerks führt typischerweise zu zwei E/A-Verzögerungen von 3 bis 11 Sekunden über einen Zeitraum von etwa 15 Sekunden.
Mit der neuesten Generation des ftScalable Storage G2-Arrays betragen die I/O-Verzögerungen beim Einsetzen oder Entfernen von Laufwerken nun 3 Sekunden oder weniger.
HINWEIS: Es handelt sich um Ergebnisse aus internen Labortests von Stratus unter kontrollierten Bedingungen mit den neuesten FW-Versionen und mit maximalen physischen Festplattenkonfigurationen (3 Gehäuse pro Array mit 36 Laufwerken für das ftScalable Storage-Array der ersten Generation oder 72 Laufwerke für das ftScalable Storage G2-Array). Ihre tatsächlichen Ergebnisse können je nach Ihrer spezifischen Konfiguration und Arbeitslast abweichen.
Es gibt mehrere Empfehlungen, mit denen sich die Auswirkungen der E/A-Verzögerungen, die bei der Rescan-Verarbeitung auftreten, auf Ihre latenzempfindliche Anwendung minimieren lassen.
- Konfigurieren Sie mindestens ein physisches Laufwerk als Ersatzlaufwerk und verwenden Sie fehlertolerante VDISKs vom Typ RAID. Durch die Zuweisung eines Ersatzlaufwerks und die Verwendung fehlertoleranter RAID-Typen kann das ftScalable Storage-Array automatisch ein marginales oder fehlerhaftes physisches Laufwerk aus einer VDISK entfernen und den Wiederherstellungsprozess starten, ohne dass ein Laufwerk eingelegt oder entfernt werden muss, wodurch ein erneuter Scan vermieden wird. Sie können das ausgefallene Laufwerk in einem weniger kritischen Zeitraum ersetzen.
- Wenn Sie nicht fehlertolerante VDISKs vom Typ RAID (RAID-0, NRAID) verwenden, empfiehlt SRA die Erstellung einer zusätzlichen VDISK als Standby-Ersatz. Sie können diese Standby-VDISK als Ersatzlaufwerk verwenden und mit OpenVOS-Spiegelung für Redundanz sorgen. So können Sie das ausgefallene Laufwerk in einem weniger kritischen Zeitraum ersetzen.
- Verschieben Sie die physischen Laufwerke nicht, um bestimmte Positionen der Gehäuseeinschübe nach Wartungsarbeiten beizubehalten. Das ftScalable-Storage-Array-Design erfordert nicht, dass die physischen Laufwerke für eine VDISK in denselben Gehäuseschachtpositionen verbleiben wie bei der Zuweisung.
- Entfernen Sie unzureichende oder defekte Laufwerke erst dann, wenn Sie ein Ersatzlaufwerk erhalten haben und dieses gleichzeitig installiert werden kann. Durch die Koordinierung des Ausbaus und Einbaus von physischen Laufwerken können Sie die Anzahl der erneuten Scans minimieren, da innerhalb eines erneuten Scans mehrere Änderungen der Laufwerkstopologie auftreten können.
Zusammenfassung
Die Kombination des OpenVOS-Betriebssystems mit ftScalable Storage-Arrays bietet Ihnen eine robuste, skalierbare und flexible Speicherumgebung für Ihre wichtigsten Anwendungen. Wenn Sie die Vor- und Nachteile der verschiedenen RAID-Typen, LUN-Topologien und Konfigurationsmöglichkeiten kennen, können Sie ein optimales Speicherlayout erstellen, das Ihren Geschäfts-, Leistungs- und Verfügbarkeitsanforderungen gerecht wird.