Wie Edge Analytics intelligenteres Computing ermöglicht

Viele Anwendungsfälle für Analysen und maschinelles Lernen stellen eine Verbindung zu Daten her, die in Data Warehouses oder Data Lakes gespeichert sind, führen Algorithmen für vollständige Datensätze oder eine Teilmenge der Daten aus und berechnen Ergebnisse für Cloud-Architekturen. Dieser Ansatz funktioniert gut, wenn sich die Daten nicht häufig ändern. Was aber, wenn sich die Daten häufig ändern?

Heutzutage müssen mehr Unternehmen Daten verarbeiten und Analysen in Echtzeit berechnen. Das Internet der Dinge treibt einen Großteil dieses Paradigmenwechsels voran, da das Daten-Streaming von Sensoren eine sofortige Verarbeitung und Analyse erfordert, um nachgeschaltete Systeme zu steuern. Echtzeitanalysen sind auch in vielen Branchen wichtig, einschließlich Gesundheitswesen, Finanzdienstleistungen, Fertigung und Werbung, in denen kleine Änderungen der Daten erhebliche finanzielle, gesundheitliche, sicherheitstechnische und andere geschäftliche Auswirkungen haben können.

Wenn Sie Echtzeitanalysen ermöglichen möchten - und an neuen Technologien, die eine Mischung aus Edge-Computing, AR / VR, IoT-Sensoren im Maßstab und maschinellem Lernen im Maßstab nutzen -, ist es wichtig, die Entwurfsüberlegungen für Edge-Analysen zu verstehen. Edge-Computing-Anwendungsfälle wie autonome Drohnen, Smart Cities, Einzelhandelskettenmanagement und Augmented-Reality-Gaming-Netzwerke zielen alle auf die Bereitstellung umfangreicher, hochzuverlässiger Edge-Analysen ab.

Edge Analytics, Streaming Analytics und Edge Computing

Verschiedene Paradigmen für Analytik, maschinelles Lernen und Edge-Computing beziehen sich auf Edge-Analytics:

  • Edge Analytics bezieht sich auf Analyse- und maschinelle Lernalgorithmen, die für Infrastrukturen außerhalb der Cloud-Infrastruktur und in geografisch lokalisierten Infrastrukturen „am Rande“ bereitgestellt werden.
  • Streaming Analytics bezieht sich auf Computing Analytics in Echtzeit, wenn Daten verarbeitet werden. Streaming-Analysen können je nach Anwendungsfall in der Cloud oder am Rande durchgeführt werden.
  • Die Ereignisverarbeitung ist eine Möglichkeit, Daten zu verarbeiten und Entscheidungen in Echtzeit zu treffen. Diese Verarbeitung ist eine Teilmenge der Streaming-Analyse. Entwickler verwenden ereignisgesteuerte Architekturen, um Ereignisse zu identifizieren und nachgelagerte Aktionen auszulösen.
  • Edge-Computing bezieht sich auf die Bereitstellung von Berechnungen für Edge-Geräte und die Netzwerkinfrastruktur.
  • Fog Computing ist eine allgemeinere Architektur, die die Berechnung zwischen Edge-, Near Edge- und Cloud Computing-Umgebungen aufteilt.

Beim Entwerfen von Lösungen, die Edge-Analytics erfordern, müssen Architekten physische und Leistungsbeschränkungen, Netzwerkkosten und -zuverlässigkeit, Sicherheitsaspekte und Verarbeitungsanforderungen berücksichtigen.  

Gründe für die Bereitstellung von Analysen am Rande

Sie fragen sich vielleicht, warum Sie die Infrastruktur für Analysen am Rande bereitstellen würden? Bei diesen Entscheidungen spielen technische, Kosten- und Compliance-Überlegungen eine Rolle.

Anwendungen, die sich auf die Sicherheit des Menschen auswirken und Ausfallsicherheit in der Computerarchitektur erfordern, sind ein Anwendungsfall für die Kantenanalyse. Anwendungen, die eine geringe Latenz zwischen Datenquellen erfordern, wie IoT-Sensoren und Analytics-Computing-Infrastruktur, sind ein zweiter Anwendungsfall, für den häufig Edge-Analytics erforderlich sind. Beispiele für diese Anwendungsfälle sind: 

  • Selbstfahrende Autos, automatisierte Maschinen oder Transportmittel, bei denen Steuerungssysteme die gesamte Navigation oder Teile davon automatisieren.
  • Intelligente Gebäude mit Sicherheitskontrollen in Echtzeit, die Abhängigkeiten von der Netzwerk- und Cloud-Infrastruktur vermeiden möchten, damit Personen das Gebäude sicher betreten und verlassen können.
  • Intelligente Städte, die den öffentlichen Verkehr verfolgen, intelligente Zähler für die Abrechnung von Versorgungsunternehmen und intelligente Abfallentsorgungslösungen einsetzen. 

Kostenüberlegungen sind ein wesentlicher Faktor bei der Verwendung von Kantenanalysen in Fertigungssystemen. Stellen Sie sich eine Reihe von Kameras vor, die die hergestellten Produkte auf sich schnell bewegenden Förderbändern auf Fehler untersuchen. Es kann kostengünstiger sein, Edge-Computing-Geräte in der Fabrik bereitzustellen, um die Bildverarbeitung durchzuführen, als Hochgeschwindigkeitsnetzwerke zur Übertragung von Videobildern in die Cloud zu installieren.

Ich sprach mit Achal Prabhakar, VP of Engineering bei Landing AI, einem industriellen KI-Unternehmen mit Lösungen, die sich auf Computer Vision konzentrieren. „Produktionsanlagen unterscheiden sich erheblich von den gängigen Analyseanwendungen und erfordern daher ein Überdenken der KI einschließlich der Bereitstellung“, sagte Prabhakar. "Ein großer Schwerpunkt für uns ist die Bereitstellung komplexer Deep-Learning-Vision-Modelle mit kontinuierlichem Lernen direkt in Produktionslinien unter Verwendung leistungsfähiger, aber handelsüblicher Geräte."

Die Bereitstellung von Analysen in abgelegenen Gebieten wie Bau- und Bohrstandorten profitiert auch von der Verwendung von Kantenanalysen und -computern. Anstatt sich auf teure und möglicherweise unzuverlässige Weitverkehrsnetzwerke zu verlassen, setzen Ingenieure die Edge-Analytics-Infrastruktur vor Ort ein, um die erforderliche Daten- und Analyseverarbeitung zu unterstützen. Beispielsweise setzte ein Öl- und Gasunternehmen eine Streaming-Analytics-Lösung mit einer verteilten In-Memory-Computerplattform an den Rand und reduzierte die Bohrzeit um bis zu 20 Prozent von typischen 15 Tagen auf 12 Tage. 

Compliance und Data Governance sind ein weiterer Grund für Edge Analytics. Die Bereitstellung einer lokalisierten Infrastruktur kann dazu beitragen, die Einhaltung der DSGVO und andere Vorschriften zur Datenhoheit zu erfüllen, indem eingeschränkte Daten in den Ländern gespeichert und verarbeitet werden, in denen die Daten gesammelt werden.

Entwerfen von Analysen für den Rand

Leider ist es nicht immer trivial, Modelle und andere Analysen in Edge-Computing-Infrastrukturen einzusetzen. Die Computeranforderungen für die Verarbeitung großer Datenmengen durch rechenintensive Datenmodelle müssen möglicherweise neu entwickelt werden, bevor sie ausgeführt und in einer Edge-Computing-Infrastruktur bereitgestellt werden.

Zum einen nutzen viele Entwickler und Datenwissenschaftler jetzt die übergeordneten Analyseplattformen, die in öffentlichen und privaten Clouds verfügbar sind. IoT und Sensoren verwenden häufig eingebettete Anwendungen, die in C / C ++ geschrieben sind. Dies kann für Cloud-native Datenwissenschaftler und -ingenieure ein ungewohntes und herausforderndes Terrain sein.

Ein weiteres Problem können die Modelle selbst sein. Wenn Datenwissenschaftler in der Cloud arbeiten und Computerressourcen bei Bedarf zu relativ geringen Kosten skalieren, können sie komplexe Modelle für maschinelles Lernen mit vielen Funktionen und Parametern entwickeln, um die Ergebnisse vollständig zu optimieren. Bei der Bereitstellung von Modellen für Edge-Computing-Infrastrukturen kann ein übermäßig komplexer Algorithmus jedoch die Kosten für die Infrastruktur, die Größe der Geräte und den Strombedarf erheblich erhöhen.

Ich habe mit Marshall Choy, Vice President of Product bei SambaNova Systems, über die Herausforderungen bei der Bereitstellung von KI-Modellen am Rande gesprochen. „Modellentwickler für Edge-AI-Anwendungen konzentrieren sich zunehmend auf hochdetaillierte Modelle, um Verbesserungen bei der Parameterreduzierung und den Rechenanforderungen zu erzielen“, stellte er fest. "Die Schulungsanforderungen für diese kleineren, sehr detaillierten Modelle bleiben gewaltig."

Eine weitere Überlegung ist, dass für die Bereitstellung eines äußerst zuverlässigen und sicheren Edge-Analytics-Systems hoch fehlertolerante Architekturen, Systeme, Netzwerke, Software und Modelle entworfen und implementiert werden müssen.

Ich sprach mit Dale Kim, Senior Director für Produktmarketing bei Hazelcast, über Anwendungsfälle und Einschränkungen bei der Verarbeitung von Daten am Rande. Er bemerkte, dass zwar Geräteoptimierungen, vorbeugende Wartung, Qualitätssicherungsprüfungen und kritische Warnungen am Rande verfügbar sind, es jedoch neue Herausforderungen wie begrenzten Hardware-Speicherplatz, eingeschränkte physische Zugänglichkeit, begrenzte Bandbreite und größere Sicherheitsbedenken gibt.

"Dies bedeutet, dass die Infrastruktur, an die Sie in Ihrem Rechenzentrum gewöhnt sind, nicht unbedingt funktioniert", sagte Kim. "Sie müssen also neue Technologien erforschen, die unter Berücksichtigung von Edge-Computing-Architekturen entwickelt wurden."

Die nächste Grenze in der Analytik

Die gängigsten Anwendungsfälle für die Kantenanalyse sind heute Datenverarbeitungsfunktionen, einschließlich Datenfilterung und Aggregation. Da jedoch immer mehr Unternehmen IoT-Sensoren in großem Maßstab einsetzen, erfordert die Notwendigkeit, Analysen, maschinelles Lernen und Algorithmen für künstliche Intelligenz in Echtzeit anzuwenden, mehr Bereitstellungen am Rande. 

Die Möglichkeiten am Rande sorgen für eine sehr aufregende Zukunft des Smart Computing, da Sensoren billiger werden, Anwendungen mehr Echtzeitanalysen erfordern und die Entwicklung optimierter, kostengünstiger Algorithmen für den Rand einfacher wird.