Was Hyperscale-Speicher wirklich bedeutet

Lassen Sie uns klar sein: Bei Hyperscale geht es nicht darum, wie groß Sie sind.

Unternehmen müssen nicht groß sein, um Hyperscale-Lösungen nutzen zu können. Aber genau das denken viele IT-Infrastruktur-, Betriebs- und Entwicklerprofis, wenn sie zum ersten Mal etwas über Hyperscale lernen.

Die vorherrschende Überzeugung ist, dass Hyperscale-Architektur für extrem große Infrastrukturen gedacht ist - wie die von LinkedIn, Amazon oder Netflix betriebenen -, da sie auf Tausende von Instanzen und Petabytes an Daten skaliert werden kann. Wie sich herausstellt, ist es besser, sich Hyperscale als Beschreibung eines Ansatzes vorzustellen, als als Größe . Es geht um Automatisierung, Orchestrierung und Aufbau von IT, die intelligent skaliert werden kann, wenn das Unternehmen dies benötigt. Hyperscale-Bereitstellungen können und sollten klein beginnen und dann unbegrenzt skaliert werden. Sie sollten es Ihnen auch ermöglichen, nur den Teil der Infrastruktur, der sie benötigt, unabhängig zu skalieren, was einem anderen aufkommenden Trend im Rechenzentrum von Unternehmen, der Hyperkonvergenz, widerspricht.

Noch verwirrt? Wenn ja, bist du nicht allein. Lassen Sie uns etwas tiefer eintauchen.

Hyperscale definieren

Das Konzept des Aufbaus einer Hyperscale-Architektur wird durch viele tangentiale Begriffe getrübt. Insbesondere sehen wir Kunden verwirrt über hyperkonvergente, hyperskalige (oder Web-skalierte), konvergierte, softwaredefinierte und rohstoffbasierte Infrastruktur.

Nehmen wir uns einen Moment Zeit, um die Definitionen dieser Inhaltsstoffbegriffe zu klären:

  • Software-definiert: Infrastruktur, bei der die Funktionalität vollständig von der zugrunde liegenden Hardware entkoppelt ist und sowohl erweiterbar als auch programmatisch ist. Lesen Sie diesen Beitrag, um insbesondere die softwaredefinierte Speicherung zu erläutern.
  • Commodity-basiert: Infrastruktur, die auf einer Commodity- oder Industriestandard-Infrastruktur aufgebaut ist, normalerweise ein x86-Rack-Mount- oder Blade-Server. Wie wir in der Vergangenheit geschrieben haben, verbinden Sie Ware nicht mit billig.
  • Konvergiert: Eine Scale-Out-Architektur, bei der Server-, Speicher-, Netzwerk- und Virtualisierungs- / Containerisierungskomponenten als vorgetestete, vorintegrierte Lösung miteinander verbunden sind. Komponenten unterscheiden sich in dieser Architektur immer noch.
  • Hyperkonvergiert: Eine Scale-Out-Architektur, die die konvergierte Infrastruktur einen Schritt weiter bringt, indem softwaredefinierte Komponenten auf Standardhardware kombiniert werden, die als eine einzige Lösung verpackt sind - häufig als eine einzige Appliance. Komponenten sind nicht mehr verschieden.
  • Hyperscale: Eine Scale-Out-Architektur, die ebenfalls softwaredefiniert und auf Rohstoffen basiert, bei der jedoch die Ressourcen für Server, Speicher, Netzwerk und Virtualisierung / Containerisierung getrennt bleiben. Jede Komponente ist unterschiedlich und kann unabhängig skaliert werden.

Stellen Sie sich zusammenfassend die hyperkonvergente Infrastruktur als das moderne, logische Extrem konvergierter Systeme vor, während Hyperscale das moderne, logische Extrem des Aufbaus von Rechenzentren seit 30 Jahren ist. Beide sind für bestimmte Umgebungen sinnvoll, wie unten gezeigt.

Hyperscale und hyperkonvergiert

Wir bei Hedvig sind bestrebt, eine Speicherlösung bereitzustellen, die flexibel auf jede Arbeitslast zugeschnitten werden kann, von privaten Clouds wie Docker und OpenStack über Big-Data-Bereitstellungen mit Hadoop oder NoSQL bis hin zu herkömmlicherer Servervirtualisierung, Notfallwiederherstellung, Sicherung und Archivierung. Die Distributed Storage Platform von Hedvig virtualisiert und aggregiert Flash- und rotierende Festplatten in einem Servercluster oder einer Cloud und präsentiert sie als ein einziges elastisches Speichersystem, auf das über Datei-, Block- oder Objektschnittstellen zugegriffen werden kann.

Die Distributed Storage Platform von Hedvig besteht aus drei Komponenten:

  • Hedvig Storage Service: Eine patentierte Engine für verteilte Systeme, die die Speicherleistung und -kapazität mit handelsüblichen x86- und ARM-Servern skaliert. Der Hedvig-Speicherdienst kann lokal oder in öffentlichen Clouds wie AWS, Azure und Google ausgeführt werden. Es bietet alle für eine Unternehmensbereitstellung erforderlichen Speicheroptionen und -funktionen, einschließlich Inline-Deduplizierung, Inline-Komprimierung, Snapshots, Klone, Thin Provisioning, Autotiering und Caching.
  • Hedvig Storage Proxy: Eine kompakte VM oder ein Container, der den Zugriff auf den Hedvig Storage Service über branchenübliche Protokolle ermöglicht. Hedvig unterstützt derzeit NFS für Datei- und iSCSI für Block sowie OpenStack Cinder- und Docker-Treiber. Der Hedvig Storage Proxy ermöglicht auch das clientseitige Caching und die Deduplizierung mit lokalen SSD- und PCIe-Flash-Ressourcen für schnelle lokale Lesevorgänge und effiziente Datenübertragungen.
  • Hedvig-APIs: REST- und RPC-basierte APIs für Objektspeicher- und Hedvig-Operationen. Hedvig unterstützt derzeit Amazon S3 und Swift für die Objektspeicherung. Entwickler und Administratoren von IT-Betrieben können die Verwaltungs-APIs verwenden, um den Zugriff auf alle Hedvig-Speicherfunktionen zu ermöglichen und die Bereitstellung und Verwaltung mit Self-Service-Portalen, Anwendungen und Clouds zu automatisieren.

Hedvig unterstützt die Hyperkonvergenz, indem der Hedvig Storage Proxy und der Hedvig Storage Service als virtuelle Appliances gebündelt werden, die auf einem Commodity-Server mit einem Hypervisor oder Container-Betriebssystem ausgeführt werden. Für Hyperscale wird der Hedvig-Speicherdienst auf Bare-Metal-Servern bereitgestellt, um eine dedizierte Speicherebene zu bilden, während der Hedvig-Speicherproxy als VM oder Container auf jedem Server auf der Rechenebene bereitgestellt wird.

Warum sollten Sie Hyperscale für die Speicherung wählen?

Daten wachsen viel schneller als Speicherbudgets. Die Wirtschaft lähmt Unternehmen, die nicht über die Ressourcen von Internet-Goliaths wie Amazon, Google und Facebook verfügen. Daher müssen Unternehmen softwaredefinierten und auf Rohstoffen basierenden Speicher einsetzen, um Kosten zu senken und die Flexibilität und Skalierbarkeit aufrechtzuerhalten, die erforderlich sind, um mit den Geschäftsanforderungen Schritt zu halten.

Bei Hedvig haben wir festgestellt, dass Kunden in etwa 80 Prozent der Fälle eine Hyperscale-Architektur anstelle einer Hyperkonvergenz wählen, obwohl wir beide unterstützen. Noch interessanter ist, dass viele unserer Kunden zu uns kommen und genau das Gegenteil denken. Ungefähr 80 Prozent fordern zunächst eine hyperkonvergente Lösung an, aber nachdem sie ihre Hausaufgaben gemacht haben, entscheiden sie sich für den Hyperscale-Ansatz.

Warum? Kurz gesagt, weil sie Flexibilität (oder Agilität, wenn Sie diesen Begriff verwenden müssen) vor allem bei der Architektur ihrer Infrastruktur bevorzugen. Folgendes berücksichtigen:

  • Ein hyperkonvergentes System bietet einen vereinfachten „Baustein“ -Ansatz für die IT. Für schlanke IT-Organisationen, die den Aufwand für die Bereitstellung und Erweiterung einer Cloud-ähnlichen Infrastruktur senken möchten, bietet Hyperkonvergenz eine gute Lösung. Es sind jedoch relativ vorhersehbare Workloads erforderlich, bei denen die „Datenlokalität“ oberste Priorität hat. Dies bedeutet, dass sich die Anwendung oder VM so nah wie möglich an den Daten befinden muss. Aus diesem Grund war VDI ein Aushängeschild für Hyperkonvergenz. Benutzer möchten, dass ihr "virtuelles C: Laufwerk" lokal ist. Es ist jedoch nicht flexibel, da alle Elemente im Gleichschritt skaliert werden müssen.
  • Ein Hyperscale-System hält den Speicher unabhängig von der Datenverarbeitung und ermöglicht es der Unternehmens-IT, die Kapazität zu skalieren, wenn das Unternehmen dies erfordert. Der Hyperscale-Ansatz für Rechenzentren und Cloud-Infrastrukturen bietet ein hohes Maß an Elastizität und hilft Unternehmen, schnell auf sich ändernde Anwendungs- und Datenspeicheranforderungen zu reagieren. Es ist auch eine Architektur, die besser zu modernen Workloads wie Hadoop und NoSQL sowie zu solchen passt, die mit Cloud-Plattformen wie OpenStack und Docker erstellt wurden. All dies sind Beispiele für verteilte Systeme, die von unabhängig skaliertem gemeinsam genutztem Speicher profitieren.

Was wir mit unseren Kunden erlebt haben, ist eine Bestätigung dessen, was wir seit einiger Zeit bemerken: Diese Hyperkonvergenz ist eine Antwort und nicht die Antwort bei der Erforschung moderner Speicherarchitekturen. Natürlich sieht die Branche aufgrund ihrer Einfachheit ein großes Pendel, das zu hyperkonvergiert schwingt. Wenn Ihre Daten jedoch exponentiell wachsen und Ihre Rechenanforderungen nicht, haben Sie eine Impedanzfehlanpassung, die für eine Hyperkonvergenz nicht gut geeignet ist.

Hyperscale oder hyperkonvergiert?

Hyperkonvergiert kann ein einfacherer und kostengünstigerer Ansatz sein. Unsere Kunden stellen jedoch mit Hedvig fest, dass wir eine Funktion unterstützen, mit der Hyperscale für fast alle Workloads geeignet ist: clientseitiges Caching. Hedvig kann lokale SSD- und PCIe-Geräte in Ihrer Rechenschicht nutzen, um einen Durchschreibcache zu erstellen. Dies verbessert die Leseleistung erheblich und löst, was noch wichtiger ist, die Herausforderung der Datenlokalität. Der Speicher ist immer noch entkoppelt und wird in einer eigenen dedizierten Hyperscale-Schicht ausgeführt. Anwendungen, VMs und Container können jedoch von Daten profitieren, die lokal auf der Rechenschicht zwischengespeichert werden. Dies löst auch das Problem, wie Sie Ihre Caching-Ebene erweitern können, aber das ist ein Thema für einen anderen Artikel.

Als Beispiel für diesen Vorteil entschied sich ein Kunde für den Hyperscale-Ansatz von Hedvig für VDI, eine Arbeitslast, die traditionell für hyperkonvergente Lösungen reserviert ist, wie oben erläutert. In diesem Fall hatte der Kunde „Hauptbenutzer“, für die 16 vCPUs und 32 GB Speicher für jeden gehosteten Desktop erforderlich waren. Infolgedessen war das Unternehmen gezwungen, eine große Anzahl von hyperkonvergierten Knoten bereitzustellen, um die Verarbeitungs- und Speicheranforderungen zu unterstützen und gleichzeitig die Speicherkapazität im Gleichschritt unnötig zu erhöhen.

Mit der Hedvig-Plattform konnte der Kunde dedizierte Knoten erstellen, um die Citrix XenDesktop-Farm auf bulligen Blade-Servern mit ausreichender CPU und RAM auszuführen. Die Daten wurden auf einem separaten Hyperscale-Hedvig-Cluster auf Rack-Mount-Servern gespeichert, wobei die Daten auf den XenDesktop-Servern in lokalen SSDs zwischengespeichert wurden. Das Ergebnis? Eine dramatisch günstigere Lösung (60 Prozent weniger). Noch wichtiger ist, dass das Unternehmen eine flexiblere Umgebung bietet, in der das Unternehmen das Mooresche Gesetz anwenden und die leistungsstärksten Server kaufen kann, die zur Aktualisierung der Desktop-Leistung erforderlich sind, ohne die Speicherserver aktualisieren zu müssen.

Basierend auf unserer Erfahrung gibt es einige einfache Faustregeln, um zu bestimmen, welche Architektur für Sie geeignet ist.

  • Wählen Sie Hyperscale, wenn… Ihr Unternehmen 5.000 Mitarbeiter oder mehr, mehr als 500 Terabyte Daten, mehr als 500 Anwendungen oder mehr als 1.000 VMs hat.
  • Wählen Sie hyperkonvergiert, wenn… Sie unter diesen Wasserzeichen liegen, fünf oder weniger Mitarbeiter Ihre virtuelle Infrastruktur verwalten oder sich in einer Remote- oder Zweigstelle befinden.

Die gute Nachricht ist, dass es keine Entweder-Oder-Entscheidung sein muss. Sie können in einer hyperkonvergenten Umgebung beginnen und dann zu Hyperscale wechseln oder die beiden kombinieren. Unsere Philosophie ist, dass Ihre Anwendungen bestimmen, welche Sie verwenden sollen. Und da sich Ihre Anwendungsanforderungen im Laufe der Zeit ändern, sollte sich auch Ihre Bereitstellung ändern.

In modernen Unternehmen sind Veränderung und Wachstum obligatorisch. Zunehmend gibt es keine Möglichkeit, dieses Rätsel ohne die Hyperscale-Architektur zu lösen, für die die Webgiganten Pionierarbeit geleistet haben. Was sich geändert hat, ist, dass jedes Unternehmen jetzt vom Hyperscale-Ansatz profitieren kann.

Rob Whiteley ist Vice President of Marketing bei Hedvig.

Das New Tech Forum bietet einen Ort, an dem Sie neue Unternehmenstechnologien in beispielloser Tiefe und Breite erkunden und diskutieren können. Die Auswahl ist subjektiv, basierend auf unserer Auswahl der Technologien, die wir für wichtig und für die Leser von größtem Interesse halten. akzeptiert keine Marketingmaterialien zur Veröffentlichung und behält sich das Recht vor, alle eingebrachten Inhalte zu bearbeiten. Senden Sie alle Anfragen an [email protected]