hlkopf

 

 

Edge-Rechenzentren:

Rechen- und Speicherleistung  am  Rande des Netzwerks

Zumeist kleinere, lokal vor Ort vorgehaltene Rechen- und Speichereinheiten (Storage) als Ergänzung oder Alternative zu den großen Colocation- oder Cloud-Rechenzentren stehen derzeit hoch im Kurs. Immense Datenmengen (Big Data), die im Zuge der zunehmend mit Sensorik ausgestatteten Industriesysteme anfallen, und nicht zuletzt die Echtzeitanforderungen vieler IT-Anwendungen ohne große Latenzzeiten in der Datenübertragung ebnen den Weg zum so genannten Edge Computing.

„Größter Vorteil von ‚Edge‘ ist es, dass die Daten dort verarbeitet werden, wo sie auch anfallen und benötigt werden. Die Übertragung in ein weit entferntes Rechenzentrum entfällt“, betonte Dr. Peter  Koch,  bei Vertiv  als Vice President Solutions für die Schrank- und Mikrorechenzentren verantwortlich. Gleichwohl können Edge-Rechenzentren und die Gründe für ihren Betrieb sehr verschieden sein.

Greeen IT Cube 

Foto: e3computing

Edge-Anwendung: HPC-Forschungsrechenzentrum.

Auf den ersten Blick verwundert es daher ein wenig, dass der Trend zu ‚Edge‘ von vielen der von Moderator Dr. David Hoeflmayr zum Fachforum Edge Computing des diesjährigen „Future Thinking“-Kongresses eingeladenen Rechenzentrumsexperten primär nicht als Gegensatz zu den großen traditionellen Rechenzentrumskomplexen, sondern eher als Alternative oder Gegenbewegung zum eben noch ‚gehypten‘ Cloud Computing gesehen wird. Dr. Koch: „Edge ist das glatte Gegenteil zur zentralen Cloud, wo die Daten physisch oftmals in Tausenden von Kilometern entfernten Megarechenzentren vorgehalten werden.“

Als Pferdefuß des Computing in der ‚Wolke‘ gilt dem Expertenforum zunehmend die einem Übertragungssystem innewohnende Trägheit – die sog. Latenz – für alle IT-Anwendungen, die zwingend ein schnelles Hin und Her der Daten erfordern. „In der virtuellen Realität muss ein Bild in der Datenbrille aus gesundheitlichen Gründen alle fünf Millisekunden mit der Kopfbewegung des Nutzers ‚mitgehen‘. Dafür darf der Server nicht weit entfernt sein“, gibt der Vertiv-Vice Pressident ein anschauliches Beispiel. Heutige Protokolle wie TCP/IP sind eien eifach nicht dafür konzipiert, Übertragungswege mit hoher Bandbreite bei hoher Latenz effektiv zu nutzen.

Lokale Datacenter in der Industrie 4.0

Den Fokus auf Edge-Computing im Kontext des derzeitigen Megathemas Industrie 4.0 bzw. Internet of Things legt in seinem Vortrag der Gründer und Geschäftsführer der Inonet Computer GmbH, Ralph Ostertag: „Diverse Neuerungen wie die Ergänzung vieler traditioneller Industriesysteme mit Sensoren, die damit einhergehenden großen Datenmengen, die die gängige IT mit Informationen überfluten, bis hin zu den komplexen neuen Business-Modellen, die auf diesen Innovationen fußen – all diese Entwicklungen werfen die Fragen auf: Welche Daten benötigt ein Unternehmen lokal vor Ort? Welche Daten lassen sich sinnvoll in die Cloud verschieben?“

Der Geschäftsführer des auf komplexe Hardwarelösungen im Industrieumfeld spezialisierten bayrischen Unternehmens gibt ein Beispiel aus der Medizintechnik: Schon heute werden als sog. neuronaler Schwarm autonome Sensoren im menschlichen Körper eingepflanzt, die sowohl Impulse erfassen als auch senden können und damit Daten über Nervenstränge und Muskulatur liefern. Ostertag: „Diese Sensoren funktionieren autonom, benötigen keine eigene Energie, da durch Ultraschall mit Energie versorgt, und können überall eingesetzt werden.“ Analysten der Gardner Group rechnen damit, dass bereits Ende 2020 weltweit 20,4 Milliarden Sensoren in den unterschiedlichsten Industriesystemen eingebaut sein werden. „Diese Mengen werden einen regelrechten Datentsunami heraufbeschwören,“ prophezeit der Inonet-Geschäftsführer. „Egal, ob im Operationssaal, auf einer Ölplattform oder in der Fertigung: Das Gebot der Stunde ist es, ‚am Rand‘ des Netzwerks Rechenleistung und Speicherkapazität mit hoher Zuverlässigkeit zur Verfügung zu stellen“, sagt Ostertag.

Zukunftsvision Schwarmintelligenz

Aktuelle Trendthemen wie Industrie 4.0, autonomes Fahren und vieles mehr werden heute durch die neuen Möglichkeiten des Edge-Computing überhaupt erst Realität. Darüber sind sich die in Darmstadt versammelten Rechenzentrumsexperten weitgehend einig. In welche Richtung der Markt mit dem sich neu etablierenden ‚Player‘ insgesamt weiter entwickeln wird, darüber scheiden sich noch die Geister. Eine heiß gehandelte Zukunftsvision ist die Vernetzung vieler einzelner Edge-Rechenzentren zu mächtigen Schwärmen (Schwarmintelligenz). Dr. Koch: „Führende Branchenkenner denken, dass es so kommen wird.“ Voraussetzung hierfür sei – als grundlegende Alternative zu den gängigen großen Rechenzentrumsbauten oder in Koexistenz mit diesen –  in jedem Fall eine hochleistungsfähige Datenanbindung und eine IT-Strategie, die es erlaubt, solch einen Verbund auch zu managen.
 

Edge-Rechenzentren können sehr verschieden sein

Die „Edge“ ist derzeit vor allem im Datacenter-Umfeld in aller Munde. Experten des entsprechenden Fachforums differenzieren vier typische Anwendungsszenarien:

1. Das Content-Streaming am Rand des Internets der großen Cloud-Provider. Dazu zählt Dr. Peter Koch (Vertiv) zufolge alles, was mit Bild- und Datenstreaming zu tun hat, wie Virtual Reality, Video-on-Demand etc. Der Aufbau von näher am Nutzer gelegenen, durchaus großen Edge-Rechenzentren wird in diesem Fall allerdings sehr großzügig ausgelegt: Näher bedeutet in diesem Fall bereits mehrere Hundert Kilometer anstatt mehrerer Tausend Kilometer.

2. Das klassische Unternehmens- oder Filialrechenzentrum. In diesem Anwendungsfall befinden sich die Daten am Firmenstandort direkt vor Ort. Ziel dabei ist, kritische Daten und Prozesse am eigenen Standort zu halten und bei Ausfall der Verbindung einen netzwerkunabhängigen Betrieb sicherzustellen. Die Spannweite der lokalen Edge-Datacenter reicht von einzelnen Racks über den klassischen Serverraum bis hin zu Containerlösungen.

3. Edge-Rechenzentren für die lokal benötigte Rechen- und Speicherleistung im Umfeld von Internet of Things und Industrie 4.0. „Damit wird heute vieles möglich, z. B. auch das Projekt autonomes Fahren“, sagt der Inonet-Geschäftsführer Ralph Ostertag: Für die Fahrzeuge müssen viele kleine Rechnerknoten aufgebaut werden, die über Mobilfunk die Abstimmung und Koordination der Fahrzeuge untereinander regeln. Wegen der Latenz, also der Zeit, die vergeht, bis eine Antwort zurückkommt dürfen diese Edge-Rechenzentrumsknoten je nach Lichtgeschwindigkeit nicht weiter als zwanzig bis dreißig Kilometer auseinanderliegen.

4. Last, but not least zählen auch die großen HPC-Forschungsrechenzentren (High Performance Computing) zur Gruppe der Edge-Anwendungen: Wie beispielsweise beim GSI Helmholtzzentrum für Schwerionenforschung, das bei Darmstadt ein großes HPC-Rechenzentrum als eine typische Edge-Anwendung betreibt, fallen in der Forschung riesige Datenmengen an, die zeitnah, d. h. ohne größere Latenzverluste, vor Ort verarbeitet werden müssen. / H.L.

Veröffentlicht in:  „VDI-Nachrichten“

© Harald Lutz 2018
 


Datenschutzerklärung

Page Design by Schaffrina Design