Cloudlets: Wo die Cloud auf intelligente Geräte trifft

Hyperscale Public Clouds sind als neue Plattform für Aufzeichnungssysteme gut etabliert. Anbieter von ERP-, Lieferketten-, Marketing- und Vertriebsanwendungen basieren heute überwiegend oder ausschließlich auf öffentlichen Hyperscale-Clouds. Allein Oracle hat Tausende von Kunden für sein Front-Office- und Back-Office-SaaS. Und die Liste der Kunden wächst mit einer Geschwindigkeit, die weit über die herkömmlicher Front-Office- und Back-Office-Anwendungen hinausgeht.

Hyperscale Public Clouds sind natürlich auch ein geeigneter Ort, um neue Cloud-native Anwendungen auszuführen, die diese System-of-Record-Anwendungen erweitern oder erweitern. Diese neuen Anwendungen sind unterschiedlich aufgebaut. Während Aufzeichnungssysteme in der Regel große, monolithische Anwendungen sind, die in virtuellen Maschinen in der Cloud ausgeführt werden, werden Cloud-native Anwendungen normalerweise als Microservices geschrieben, in Containern verpackt und orchestriert, um Benutzern eine vollständige Anwendung bereitzustellen. Zu den Vorteilen dieses Ansatzes gehören:

  • Schnellere Innovation
  • Die Möglichkeit, spezifische Anpassungen für jede Anwendungsnutzung bereitzustellen
  • Verbesserte Wiederverwendung von Code
  • Kosteneinsparungen gegenüber herkömmlicher Virtualisierung aufgrund der höheren Bereitstellungsdichte von Containern und des effizienteren Ressourcenverbrauchs

All dies ist allgemein bekannt, endlos angepriesen und nicht mehr diskutiert.

Weniger diskutiert wird jedoch die Galaxie der Anwendungen, die nicht unbedingt für die zentralisierte Bereitstellung von Hyperscale-Clouds geeignet sind. Stattdessen gedeihen diese Anwendungen in verteilten Computerumgebungen, die möglicherweise auf Cloud-Diensten basieren, am oder nahe am Netzwerkrand. Diese Anwendungen sind Eingriffssysteme und Kontrollsysteme.

Systeme am Rande

Engagement-Systeme wurden von einem führenden Branchenanalystenunternehmen als „anders als die herkömmlichen Aufzeichnungssysteme definiert, die Transaktionen protokollieren und die Finanzbuchhaltung in Ordnung halten: Sie konzentrieren sich auf Menschen, nicht auf Prozesse ..., um Apps und intelligente Produkte direkt bereitzustellen im Kontext des täglichen Lebens und der Echtzeit-Workflows von Kunden, Partnern und Mitarbeitern. “ Engagement-Systeme, die menschliche Interaktionen erleichtern sollen, sind von Natur aus dezentraler als Aufzeichnungssysteme.

Eine dritte Art der Anwendung zur Unterscheidung ist das, was ich als Kontrollsysteme bezeichne. Diese Anwendungen bieten eine Echtzeitsteuerung zwischen intelligenten Geräten. Vielleicht ist das klassische Beispiel das von selbstfahrenden Fahrzeugen. Wenn zwei Autos mit 65 Meilen pro Stunde die Autobahn entlang rasen, koordinieren sie ihren Abstand nicht automatisch, indem sie Daten über Geschwindigkeit und Position zur Verarbeitung an ein entferntes Rechenzentrum senden. Sie werden direkt miteinander kommunizieren und in Mikrosekunden antworten. Ob zur Beschleunigung von Automobilen, zur Herstellung von Montagelinien oder zur Roboterchirurgie - die Minimierung der Netzwerklatenz ist ein zentrales Thema für das Internet der Dinge.

Entwickler, die Systeme des Engagements und der Kontrolle aufbauen, nutzen auch das Devops-Modell, das auf Microservices und Containern basiert. Für diese Art von Anwendungen bieten Container:

  • Nahezu null Bereitstellungskosten für eine große Anzahl von Systemen (denken Sie an Hunderttausende von Fahrzeugen)
  • Schnelle Startzeiten mit sofortiger Wiedergabe und Rückstellung
  • Höhere Portabilität aufgrund reduzierter Probleme mit der Plattformkompatibilität für möglicherweise viele verschiedene Computertypen im Netzwerk

Wo laufen diese Container? Bei Steuerungssystemen werden Container normalerweise in den intelligenten Geräten selbst ausgeführt - beispielsweise in einem selbstfahrenden Auto.

Um Engagement-Systeme zu betreiben, müssen Unternehmen digitale Immobilien am Rande des Netzwerks in der Nähe ihrer Kunden, Mitarbeiter und Partner abstecken - nicht in Hyperscale-Clouds, sondern in viel kleineren Clouds, die für leichte Container-basierte Anwendungen geeignet sind . Nennen Sie sie Cloudlets.

Geben Sie Cloudlets ein

Cloudlets sind eine Möglichkeit, die Cloud-Computing-Kapazität intelligenten Geräten am Rande des Netzwerks näher zu bringen. Während Carnegie Mellon-Forscher Cloudlets definieren, bilden sie die mittlere Ebene einer dreistufigen Hierarchie: intelligentes Gerät, Cloudlet und Cloud. Cloudlets können als Rechenzentrum in einer Box betrachtet werden, mit dem Ziel, die Cloud näher an das Gerät heranzuführen. Aufbauend auf den Ideen des CMU-Forschers glaube ich, dass Cloudlets vier Schlüsselattribute haben sollten:

  • Kleines, kostengünstiges und wartungsfreies Appliance-Design, basierend auf Standard-Cloud-Technologie
  • Leistungsstark, gut verbunden und sicher
  • Behält nur den weichen Zustand bei (gebaut für Microservices und Container)
  • Befindet sich am Rand des Netzwerks in der Nähe der intelligenten Geräte, mit denen kommuniziert wird

Die Auswirkungen sind erheblich. Während beispielsweise viele Menschen eine Vision davon haben, wie das virtuelle Unternehmen Anwendungen zentral in einem einzigen Hyperscale-Rechenzentrum in der Cloud ausführt, werden innovative Unternehmen in der Realität Engagement- und Steuerungsanwendungen in Hunderten oder möglicherweise Tausenden von Cloudlets weltweit bereitstellen.

Für einen Einzelhändler kann es offensichtlich sein, wo die Cloudlet-Infrastruktur und die von ihnen betriebenen Container platziert werden sollen: in den Verkaufsstellen des Einzelhändlers. Für andere Unternehmen, die keine lokale Präsenz vor Ort haben, bieten Telekommunikationsanbieter Cloud-Dienste in Rechenzentren in Großstädten oder sogar so geolokal wie der nächste Handyturm an.

Anstatt Hunderte von Rechenzentren zu besitzen, wo immer eine Präsenz gewünscht wird, können Unternehmen für einen bestimmten Zeitraum einen Teil einer Cloud mieten - praktisch ein Hotelzimmer für ihre Anwendung in einem lokalen Rechenzentrum. Die Anwendung checkt je nach Bedarf von Personen, Geräten oder Sensoren am Rand des Netzwerks ein und aus.

Behälter hüten

Eine weitere wichtige Implikation: Der traditionelle manuelle Ansatz zur Behebung von Problemen weicht der Automatisierung. Mit Hunderten oder Tausenden von Containern, die in eine große Anzahl von Cloudlets verschoben wurden, sind die Tage der Fehlerbehebung in der Produktion vorbei.

Haben Sie einen Hardwarefehler? Autoscaling-Container können bei Bedarf automatisch einen neuen Container auf redundanter Cloud-Hardware starten. System Software Fehler? Defekte Container können ausgesondert und ein neuer Container geladen werden. Anwendungssoftwarefehler? Korrigieren Sie die Quelle einmal und senden Sie eine neue Welle von Containern weltweit aus. Patchen oder aktualisieren Sie niemals Container vor Ort.

Dies wird als "Vieh gegen Haustiere" -Modell für die Bereitstellung und Verwaltung von Anwendungen bezeichnet, wie von Gavin McCance vom CERN beschrieben. Haustiere sind einzigartig. Sie werden von Hand aufgezogen und liebevoll gepflegt. Wenn sie krank werden, pflegen Sie sie wieder gesund. Ähnliches gilt für traditionelle OLTP- und Entscheidungsunterstützungssysteme, die mit massiven, komplexen monolithischen Anwendungen aufgebaut sind.

Auf der anderen Seite werden Systeme, die auf Mikrodiensten und Behältern basieren, eher wie Rinder behandelt. Rinder sind fast identisch miteinander. Sie können Hunderte oder Tausende von ihnen haben. Wenn einer krank wird, ersetzen Sie ihn durch einen anderen.

Die grundlegende Sichtweise des IT-Betriebs für containergestützte Systeme zur Einbeziehung und Kontrolle ist daher unterschiedlich. Die IT wird viele Container produzieren und sie für die kurzfristige Verwendung, normalerweise Stunden oder Tage, an Cloudlets in der Nähe von Benutzern und Daten senden. Sollte ein Container einen Fehler aufweisen oder veraltet sein, wird er nicht gepatcht oder aktualisiert: Er wird gelöscht und ein neuer Container wird in das Cloudlet verschoben.

Damit ein Unternehmen als zusammenhängendes Ganzes funktioniert, müssen die Aufzeichnungs-, Einbeziehungs- und Kontrollsysteme integriert werden. Eine gemeinsame Infrastruktur für den gesamten Lebenszyklus - Entwickeln, Erstellen, Verteilen, Überwachen und Verwalten - kann zum Erstellen und Bereitstellen verteilter Cloud-Dienste in Form von Containern verwendet werden. Große monolithische SaaS-Anwendungen verschwinden nicht, sind jedoch möglicherweise die Ausnahme und nicht die Regel.

Die Technologien, die zur Verwirklichung dieses Konzepts benötigt werden, rücken in den Fokus. Die Bedeutung einer Reihe von Tools, die den Lebenszyklus der Containerentwicklung, -bereitstellung und -verwaltung vereinfachen, wird zunehmend anerkannt.

Die auf Microservices basierende Anwendungsentwicklung basiert in der Regel auf Tools wie Skriptsprachen, Entwicklungsframeworks, Quell-Repositorys, Tools zur Fehlerverfolgung, Tools für die kontinuierliche Integration und binären Repositorys. Andere Tools verpacken und stellen Microservices als Container bereit. Management-Tools für die Bereitstellung und Konfiguration sind für die häufige Implementierung identischer Dienste auf identischen Servern konzipiert. Orchestrierungswerkzeuge werden verwendet, um logische Sammlungen von Containern zu erstellen, die zu einer Anwendung für Clusterverwaltung, Zeitplanung, Serviceerkennung, Überwachung und mehr gehören.

Viele Unternehmen liefern diese Tools, und es beginnen sich Industriestandards abzuzeichnen. Letztendlich können diese Tools und Standards es Unternehmen ermöglichen, ein virtuelles Rechenzentrum zu betreiben, das aus vielen Cloud-Diensten in potenziell Dutzenden oder Hunderten von physischen Rechenzentren besteht.

Wie können Sie mit dieser größeren Vision eines virtuellen Rechenzentrums beginnen? Es gibt zwei unmittelbare Schritte. Stellen Sie zunächst Ihre Aufzeichnungssysteme in die öffentliche Cloud und setzen Sie Ihre internen Ressourcen frei, um sich auf neue innovative Systeme für Engagement und Kontrolle zu konzentrieren. Zweitens: Richten Sie eine Devops-Disziplin in Ihrer IT-Organisation ein. Beide Schritte können langwierig und mühsam sein, aber sie können sich im Laufe der Zeit amortisieren. Am Ende der Reise steht ein virtuelles Rechenzentrum mit der Skalierbarkeit, Zuverlässigkeit und Reaktionsfähigkeit, die für ein echtes Echtzeitunternehmen erforderlich sind.

Robert Shimp ist Group Vice President für Linux und Virtualization Product Management bei Oracle.

Das New Tech Forum bietet einen Ort, an dem Sie neue Unternehmenstechnologien in beispielloser Tiefe und Breite erkunden und diskutieren können. Die Auswahl ist subjektiv, basierend auf unserer Auswahl der Technologien, die wir für wichtig und für die Leser von größtem Interesse halten. akzeptiert keine Marketingmaterialien zur Veröffentlichung und behält sich das Recht vor, alle eingebrachten Inhalte zu bearbeiten. Senden Sie alle Anfragen an [email protected]