Edge und Cloud Computing: Wie sinnvoll ist die Ergänzung beider Technologien?

Edge Computing, Cloud Computing, Netzwerk, Software, Code, IT, IT-Branche, IoT, Internet of Things, Data, Daten, Workload, Datenverarbeitung, Technologie, Cloud, Cloud-Technologie, Zentralisierung von Daten

Seit mit dem Internet of Things (IoT) die generierte Datenmenge exponentiell steigt, befasst sich die IT-Branche mit Lösungen, wie die Verarbeitung und Nutzbarmachung dieser Daten ressourcenschonend und in Echtzeit erfolgen kann. Die Herausforderung besteht darin, den Workload gering zu halten, um Netzwerke nicht zu überlasten. Andererseits soll die Geschwindigkeit, mit der Entscheidungen getroffen werden müssen ad hoc erhalten bleiben, um keine Verzögerungen durch die Datenübertragung entstehen zu lassen. Das Edge Computing stellt für viele Anwendungsbereiche die ideale Lösung dar, wenn es um die Verlagerung von Rechenkapazitäten an den Rand des Netzwerks geht, also eine dezentrale Datenverarbeitung stattfindet. Dabei ist es wichtig zu erkennen, dass nicht die eine Technologie der Schlüssel zur Lösung ist. Vielmehr entscheidet das Zusammenspiel unterschiedlicher Technologien über deren erfolgreichen Einsatz für Ihr Unternehmen. Einsatzbereiche müssen stets individuell betrachtet werden. Dieser Artikel beleuchtet die Vorteile des Einsatzes von Cloud Computing und Edge Computing und zeigt auf, wie die sinnvolle Ergänzung beider Technologien aussehen kann.

Warum die Cloud Technologie sinnvoll ist, jedoch heutzutage nicht als generelle Lösung betrachtet werden kann

Das Cloud Computing ist seit rund 15 Jahren das Maß aller Dinge. Die Vorteile der Cloud-Technologie liegen auf der Hand. Durch die Zentralisierung von Daten und Anwendungen in einer Public Cloud steigern Unternehmen die Produktivität ihrer Mitarbeiter langfristig gesehen erheblich. Der Zugriff auf Ressourcen von einem beliebigen Standort aus bietet Mitarbeitern die Chance, Daten miteinander zu teilen und den Zugriff darauf besonders in Hinblick auf die Kooperation verschiedener Teams deutlich zu vereinfachen. Dennoch hat sich die Idee von der einen „Wolke“, in der die Daten einfach so von Zauberhand verschwinden, in der Praxis nie durchgesetzt. Die heute genutzten Cloud-Modelle sind überwiegend Hybrid Cloud-Architekturen. D. h. bestimmte Ressourcen eines Unternehmens werden digital in der Cloud gespeichert. Andere jedoch wiederum werden auf lokalen Servern vorgehalten. Dies hat oft datenschutzrechtliche Gründe. Vor allem sensible Daten, für die es in Deutschland strenge regulatorische Bestimmungen gibt, müssen stets verlässlich auf Servern an einem deutschen Standort gespeichert werden. Andererseits möchten Unternehmen gerade auch über sensible Daten die volle Kontrolle behalten und diese nur ungern aus der Hand geben. Die Speicherung empfindlicher Daten auf einem firmeneigenen Server im hauseigenen Rechenzentrum oder bei einem Dienstleister, der in Deutschland über ein Rechenzentrum verfügt, ist in diesem Fall gängige Praxis. Neben dem Aspekt des Datenschutzes besteht ein Vorteil der hybriden Cloud darin, die Verfügbarkeit von Daten zu erhöhen und Netzwerke zu entlasten. Genau an diesem Punkt kommt die Edge-Technologie ins Spiel.

Edge Computing – ist das dezentrale Aufstellen von Rechnern nicht eine klassische On-Premise-Lösung?

Vielleicht denken Sie sich jetzt, dass das Edge Computing gar keine neue Erfindung ist. Schließlich waren die klassischen On-Premise-Lösungen aus früheren Tagen lokale Serverstrukturen, die verschiedene Endgeräte in einer Netzwerkstruktur miteinander verbunden haben. Verkauft uns deshalb die Edge Technolgie nicht alten Wein in neuen Schläuchen? Nein, denn der Unterschied besteht darin, dass die Edge-Technologie kein komplexes Netzwerk einer kompletten IT-Infrastruktur abbildet, sondern sinnvollerweise dort definiert wird, wo größere Datenmengen anfallen, deren Verarbeitung möglichst nah am Ort der Entstehung vollzogen wird. Gerade wenn es darum geht, große Datenmengen in Echtzeit zu analysieren, wird die Schwachstelle der Cloud-Architektur sichtbar. Durch die oft weit entfernte vollständige Speicherung der Daten in einem Rechenzentrum entstehen Übertragungswege, die je nach Bandbreite zu Verzögerungen führen. Vor allem im ländlichen Raum, wo Infrastrukturen oft immer noch nicht gut ausgebaut sind, ist der Einsatz von Edge Computing darum eine vorteilhafte Lösung.

Dezentral installierte Rechner steigern die Leistungsfähigkeit des Cloud-Netzwerkes durch eine lokale Datenverarbeitung

Ein dezentral installierter Rechner erfasst die Datenmenge verschiedener Geräte oder Sensoren, verarbeitet diese und überträgt die gefilterten Informationen anschließend an das Cloud Netzwerk. Auf diese Weise werden Rechnerkapazitäten an den Rand eines Netzwerks verlagert. Das spart vor allem Kosten für die Datenübertragung und sorgt gleichzeitig dafür, dass Rechnerkapazitäten in der Cloud nicht unnötig vergeudet werden. Die Verarbeitung von Daten in Echtzeit ist also einer der wichtigsten Vorteile des Edge Computings. Eine Maschine, die in der Produktion mit ihren Sensoren beständig Daten an einen Server liefert, muss in Echtzeit automatisch beeinflusst werden können, wenn die Datenlage eine Echtzeitentscheidung erfordert. Verzögerungen können Kosten verursachen oder im schlimmsten Fall sogar Gefahren hervorrufen. Denken wir an das autonome Fahren. Ein selbstfahrendes Auto muss mit seinen Sensoren die Verkehrssituation in Echtzeit erfassen, um mögliche Kollisionen mit anderen Verkehrsteilnehmern zu vermeiden. Würden die Daten aus dem Auto nun erst zentral in einem Rechner ausgewertet, entstünde womöglich eine Verzögerung, die in einer Gefahrensituation zu einem Unfall führen könnte. Dank der zusätzlichen Installation von Sensoren im Verkehrsraum (z. B. an einer Ampel im Kreuzungsbereich) können Daten lokal erfasst und ausgewertet werden, die dem Auto dann zur Verfügung gestellt werden. Die Übertragungsrate entscheidender Informationen verringert sich somit entscheidend.

Edge Computing gewährleistet die Echtzeitverarbeitung relevanter Daten

Die Aufgabe des Edge Computing besteht also vorrangig darin, die anfallende Rechenleistung nicht in einem zentralen Rechenzentrum zu bewältigen, sondern direkt vor Ort zu verarbeiten. Also dort, wo die Daten auch erzeugt werden. Dies bedeutet, dass die Rechenleistung nicht mehr in der Cloud stattfindet, sondern lokal auf einem Rechner ausgeführt wird. Erst die verarbeiteten Informationen werden anschließend der Cloud zur Verfügung gestellt. Dabei unterscheidet man zwei Kategorien:

1. Thin Edge Devices: Für einfache Rechenleistungen, die nur einer minimalen IT-Ressource bedürfen, reichen Thin Edge Devices vollkommen aus. Sie werten z. B. geringe Datenmengen im Rahmen einer Analyse aus und leiten diese gefilterten Informationen an die Cloud weiter.

2. Thick Edge Devices sind komplexe Serverstrukturen, die umfangreiche Rechenleistungen und Speicherkapazitäten vorhalten und somit in der Lage sind, umfassende Datenmengen aufzunehmen und zu verarbeiten. Im Unterschied zum herkömmlichen lokalen Netzwerk wird der Aufgabenbereich eines Edge Computers jedoch klar definiert. Er übernimmt bestimmte Aufgaben, deren Ergebnis dann ebenfalls an die Cloud übertragen werden.

Die Herausforderung besteht nun darin, vernünftige Edge Infrastrukturen zu planen, die möglichst effizient Daten erfassen. Diese können dann an die Cloud Infrastruktur angebunden werden, um die Informationen zu speichern und den Mitarbeitern zugänglich zu machen. Diese Verbindung von Edge- und Cloud-Technogie wird in der Fachwelt zunehmend als Fog Computing bezeichnet.

Fog Computing: Das Zusammenspiel von Edge und Cloud Computing ist in vielen Anwendungsbereichen sinnvoll

Obwohl Edge Computing auch ohne Cloud Technologie eingesetzt werden kann, erzeugt der Einsatz beider Technologien im Unternehmen Synergien, die voll ausgeschöpft werden sollten. Dies betrifft vor allem die Steigerung der Flexibilität bei gleichzeitiger Senkung der Kosten. Zudem wird die Performance der Datenverarbeitung deutlich beschleunigt. Dies rentiert sich vor allem dann, wenn eine große Zahl an IoT-Geräten Daten liefert, die von Anwendungen ausgewertet werden sollen. Die dezentrale Datenverarbeitung und anschließende Bereitstellung in der Cloud zur Weiterverarbeitung ist ein sehr guter Weg, um Ressourcen optimal zu nutzen und die Gesamtbandbreite der Cloud nicht unnötig zu belasten. So erhalten Sie hohe Rechenleistungen und schnelle Übertragungsgeschwindigkeiten dank einer optimalen Verarbeitung einer großen Datenmenge. Für diese Edge-Cloud-Technologie gibt es eine Vielzahl von Einsatzmöglichkeiten. Vor allem in der Industrie 4.0 ist das ausgeklügelte Zusammenspiel beider Technologien ein Wettbewerbsvorteil. Etwa beim Monitoring von Daten in der Produktion. Durch das permanente Überwachen von Daten im Produktionsprozess eröffnen sich Möglichkeiten, Anlagen und Prozesse beständig zu optimieren. Auch bei der vorausschauenden Instandhaltung von Maschinen und Anlagen („Predictive Maintenance“) ist der Einsatz von Edge Computing in Verbindung mit einer Cloud-Lösung eine zweckmäßige Verwendungsmöglichkeit. Zum einen wird der Verschleiß von Maschinenteilen rechtzeitig erkannt und somit lange Stillstandszeiten vermieden. Zum anderen lassen sich Wartungs- und Instandhaltungsprozesse dadurch gezielt planen und in Zeiten verlegen, in denen die Produktion z. B. aufgrund saisonaler Umstände ohnehin gedrosselt wird.

Vor- und Nachteile des Edge Computings in Verbindung mit einer Cloud-Lösung

Die Vorteile:

- Datenverarbeitung in Echtzeit durch schnelle Verarbeitung in lokalen Netzwerken
- Reduzierte Latenz und somit schnellere Verfügbarkeit der Daten in der Cloud durch die lokale Datenverarbeitung
- Erhöhte Datensicherheit aufgrund des Verbleibens sensibler Daten auf den lokalen Edge Devices

Die Nachteile:

- Komplexe Infrastruktur durch das Zusammenspiel der Edge- und Cloud-Technologie
- Kurzfristige Kostensteigerung durch die Beschaffung und Installation von Technik für den Aufbau lokaler Netzwerke und Anbindung an die bestehende Cloud-Infrastruktur
- Höhere Wartungskosten durch die Dezentralisierung der IT-Infrastruktur und dem damit verbundenen Aufwand

Zurück
Zurück

Einstieg in die Industrie 4.0  

Weiter
Weiter

Big Data: Das Wichtigste auf einen Blick