Open Telekom Cloud für Geschäftskunden

High Performance Computing: Ein Blick unter die Haube

von Alfred Geiger
Alfred Geiger mit einem Mikrofon in der Hand vor einem Bildschirm während eines Vortrags
Experte, wenn’s um ultraschnelles Rechnen geht: Alfred Geiger, promovierter Luft- und Raumfahrt-Ingenieur und Head of Scientific Computing bei T-Systems

In diesem Fachbeitrag von High-Performance-Computing-Experte Alfred Geiger lesen Sie, 

  • welche unterschiedlichen Methoden es gibt, High Performance Computing mit der Public Cloud umzusetzen
  • wie Unternehmen herausfinden, welche sich für Ihren Anwendungsfall am meisten lohnt
  • und warum die Open Telekom Cloud im Vergleich zu anderen Public-Clouds auf vielen Ebenen das beste Angebot ist.

Mit welchem IT-Konzept lösen Unternehmen komplexe Problemstellungen am schnellsten? Eine allgemeine Antwort darauf lautet: mit dem Cloud-Bursting-Prinzip; also einer geschickten Kombination aus on-premises- und hoch performanter Public-Cloud-Rechenressourcen. On-premises deckt bestimmte Grundaufgaben ab, die skalierbaren High-Performance- Kapazitäten aus der Public Cloud kommen je nach Bedarf für entsprechende Lastspitzen zum Einsatz.

Beim Blick unter die Haube wird die Sache schon komplexer. Denn High Performance Computing (HPC) aus der Public Cloud bietet sehr vielfältige Ausprägungen. Daher sollten Unternehmen einige grundlegende Fakten zu diesem Thema kennen, denn nicht jede Technologie ist für jeden Anwendungsfall gleichgut geeignet.

Eine Frage des Prozessors: CPU oder GPU?

Virtuelle Maschinen mit virtualisierten Central Processing Units (vCPUs) zum Beispiel: Sie sind grundsätzlich dazu geeignet, komplexe Prozesse in kurzer Zeit abzuarbeiten. Voraussetzung dafür ist, dass viele leistungsstarke vCPUs gleichzeitig an einem Problem arbeiten. Die Open Telekom Cloud bietet in diesem Bereich virtuelle Maschinen der Kategorie High Performance mit bis zu 256 vCPUs. Das Besondere dieser High Performance Flavors ist darüber hinaus, dass sie Unternehmen dediziert zur Verfügung gestellt werden. Das heißt: Die Hardware, die HPC-Flavors zugrunde liegt, wird nicht mit anderen geteilt. Das garantiert eine konstant hohe Performance über den gesamten Buchungszeitraum hinweg. Noch mehr Leistung mit CPUs erreichen Unternehmen nur noch mit so genannten Bare Metal Servern. Wie der Name bereits verrät, erhalten Unternehmen das blanke Metall – sprich: Sie mieten dedizierte Ressourcen aus der Cloud ohne Hypervisor und Virtualisierung. Die Computing Ressourcen sind lediglich mit einem Host-Betriebssystem ausgestattet. Damit steht Nutzern eine konstante Performance bei maximalen Gestaltungsmöglichkeiten zur Verfügung, denn Bare Metal Server können auf Basis eigener Hypervisoren und Virtualisierungstechnologien völlig frei gestaltet werden.

Doch das Rechnen mit vCPUs ist je nach Skalierung und Einsatzszenario nur bis zu einem gewissen Grad sinnvoll. Bei der derzeit in der Open Telekom Cloud eingesetzten Technologie werden virtuelle Rechencluster ab einem gewissen Umfang ineffizient. Der Grund: x86-Rechenkerne, die gleichzeitig an einer Problemstellung arbeiten, stoßen ab einer bestimmten Anzahl an eine natürliche Grenze. Mitverantwortlich dafür ist das interne Netzwerk, über das die vCPUs miteinander verbunden sind. Hier sind Bandbreite und Latenzzeiten die limitierenden Faktoren. Weil die vCPUs der Server innerhalb der Open Telekom Cloud mit der so genannten InfiniBand-Technologie miteinander vernetzt sind, können Unternehmen hier Rechencluster mit einem Umfang von bis zu circa 1.000 Kernen blockierungsfrei betreiben. Ein sehr hoher Wert: Bei anderen Public-Cloud-Diensten wie Amazon Web Services oder Microsoft Azure liegt die Grenze aktuell noch weit darunter.

Bedarfsgerechter Supercomputer aus der Cloud

Unternehmen, die noch mehr Rechenleistung benötigen, sollten auf Rechenressourcen aus speziellen Supercomputing-Einrichtungen zurückgreifen. Durch Flüssigkühlung ist dort eine höhere Packungsdichte als in Cloud-Rechenzentren möglich. Wie etwa dem Höchstleistungsrechenzentrum Stuttgart (HLRS), das direkt mit der Open Telekom Cloud gekoppelt ist. Darin können Workloads mit derzeit bis zu 180.000 Kernen gleichzeitig abgearbeitet werden. Das HLRS ist das derzeit einzige Rechenzentrum seiner Art, in dem Unternehmen entsprechende Ressourcen bedarfsgerecht im Pay-as-you-go-Verfahren buchen können. Das heißt, sie zahlen nur so lange, wie sie die Ressourcen auch nutzen. Damit steht jedem Unternehmen via T-Systems ein bedarfsgerechter Supercomputer aus der Cloud zur Verfügung.

Für KI & Co.: Lieber GPUs nutzen

Doch egal ob virtualisiert oder nicht: Für manche Anwendungsszenarien ist es nicht sinnvoll, Prozessoren mit einer herkömmlichen CPU-Architektur zu verwenden. Denn CPUs sind Allzweckwerkzeuge, die für viele unterschiedliche Anwendungen geeignet sind. Damit können sie vieles, sind aber für keinen Anwendungsfall wirklich spezialisiert. Wie ein Schweizer Taschenmesser, das vom Flaschenöffner bis zum Schraubendreher eine Menge bietet – das im Ernstfall aber dann doch durch ein spezialisiertes Werkzeug ersetzt werden sollte, weil es damit einfach besser und schneller geht.

Genauso verhält es sich in der IT: Für Anwendungen im Bereich künstlicher Intelligenz (KI) beispielsweise sind Grafikkarten mit dediziertem Grafikspeicher und eigenen Graphics Processing Units (GPUs) das geeignetere Werkzeug. Sie sind im Vergleich zu CPUs mit einer sehr hohen Anzahl von einfachen Prozessorkernen ausgestattet. Dadurch sind sie in der Lage, sehr viele, gleichartige Operationen parallel auszuführen. Auf diese Weise werden entsprechende Aufgaben sehr schnell und kostengünstig abgearbeitet. Deshalb sind GPUs nicht nur erste Wahl, wenn es um Grafikanwendungen geht, wie beispielsweise Computer Aided Design (CAD), Rendering oder Grafik-intensive Videospiele. Sondern auch für Prozesse im Bereich Maschine Learning – also für das Trainieren einer künstlichen Intelligenz (KI), wo oft große Datenmengen in möglichst kurzer Zeit analysiert und verarbeitet werden müssen.

Wenn’s speziell wird: individuelle Rechenpower

Nun hat jede genannte Technologie auch ihre Nachteile. CPUs können vieles relativ gut, aber nichts besonders herausragend. Darum sind für hohe Geschwindigkeiten viele parallel arbeitende CPUs nötig. Das macht die Verwendung von CPUs ab einer bestimmten Grenze teuer und ineffizient. GPUs wiederum berechnen mit unzähligen Rechenkernen bestimmte Aufgaben sehr schnell. Aber eben nur bestimmte Aufgaben, denn das funktioniert nur, wenn jeder Kern die gleiche Aufgabe erhält.

Doch welche Technologie sollen Unternehmen verwenden, wenn die zu lösenden Aufgaben nicht in diese Kategorien passen? Wenn es zum Beispiel darum geht, bestimmte Rechenläufe zu beschleunigen, um auf neue Gegebenheiten in Echtzeit zu reagieren, statt eine ganze Nacht darauf warten zu müssen. Das können Betreiber von Onlineshops sein, die ihre Preise auf Basis der aktuellen Nachfrage und des Marktumfelds berechnen möchten; schließlich wollen sie ihre Produkte nicht zu billig verkaufen. Oder Betreiber von Trading-Plattformen, die auf Entwicklungen im Markt so schnell wie möglich reagieren müssen, um Verluste zu minimieren. Denkbar sind auch Anwendungen im Bereich Wetterprognosen, um beispielsweise bei Großveranstaltungen alle Teilnehmer rechtzeitig vor einem überraschend heraufziehenden Starksturm oder Gewitter warnen und in Sicherheit bringen zu können. Oder Unternehmen, die ihre Time-to-Market verkürzen wollen, indem sie Simulationen und damit die Produktentwicklung erheblich beschleunigen – wenngleich letzteres sicherlich nicht in Echtzeit abläuft.

ASICs: Schnell, aber teuer und nicht flexibel

In der klassischen IT greifen Unternehmen auf so genannte Application Specific Integrated Circuits (ASICs) zurück, um bestimmte Teilschritte von Aufgaben erheblich zu beschleunigen. ASICs sind wie flinke Beiboote, die träge Tanker agiler machen: Anwendungsspezifische, integrierte Schaltungen, die einzig und allein für eine bestimmte (Teil-)Aufgabe eines Prozesses hergestellt und programmiert werden. Zum Beispiel ein Controller, der die Signale eines Radarsensors in einem Pkw verarbeitet, der den Bereich vor seinem Fahrzeug überwacht – und im Notfall blitzschnell eine Vollbremsung auslöst, wenn sich hinter der nächsten Kurve überraschend das Ende eines Staus befindet.

ASICs sind jedoch in der Entwicklung sehr teuer, deshalb lohnen sie sich nur in Massenproduktion. Beispielsweise im Automobilbau, wo ASICs in unterschiedlichen Modellreihen zu hunderttausenden oder gar Millionen verbaut werden. Hinzu kommt ein weiterer, gravierender Nachteil von ASICs: ihre Unveränderbarkeit. Sie können ausschließlich das, wofür sie gebaut wurden – Umprogrammieren ausgeschlossen.

FPGAs: Prozess-Beschleuniger auf Abruf

FPGAs hingegen vereinen die Flexibilität frei programmierbarer Hardware mit der Spezialisierung von ASICs. Daher ihr Name: Field Programmable Gate Arrays – vereinfacht übersetzt: frei programmierbare Hardware-Elemente. Unternehmen können FPGAs seit kurzem bedarfsgerecht aus der Open Telekom Cloud buchen. Sie können damit jeden erdenklichen Prozess erheblich beschleunigen. Dafür ist jedoch die entsprechende Expertise notwendig, denn FPGAs wollen auch adäquat programmiert werden.

Nur die wenigsten Firmen verfügen dazu über das entsprechende Personal. Eine Herausforderung, die das Start-up Xelera für Unternehmen löst: Die Darmstädter Gründer haben eine Middleware entwickelt, mit der Unternehmen mithilfe von FPGAs ihre Prozesse erheblich beschleunigen können, ohne sich damit auskennen zu müssen. Je nach Skalierung verspricht das Start-up eine Beschleunigung um mehr als den Faktor 100.  

Doch auch ohne derartige Middleware, die den Vermittler zwischen FPGA und bestimmten Anwendungen spielt, können Unternehmen ohne eigenes Fachwissen FPGAs nutzen. So gibt es vorgefertigte Software-Pakete, mit denen Unternehmen FPGAs programmieren können. Zum Beispiel aus den Bereichen personalisierte Medizin und Data Analytics. Darüber hinaus stehen Experten von der Telekom den Unternehmen zur Seite, wenn sie hochspezialisierte Anwendungen mithilfe von FPGAs beschleunigen möchten.

Fazit: Für jeden Bedarf die richtige HPC-Technologie

Die technischen Errungenschaften der Public Cloud ermöglichen Unternehmen, hochperformante Rechenressourcen bedarfsgerecht buchen zu können. Mit CPUs, GPUs und FPGAs steht Firmen für jeden Bedarf die passende Technologie zur Verfügung. Für extreme Anforderungen wiederum bietet die Open Telekom Cloud durch ihre Verbindung mit dem Höchstleistungsrechenzentrum in Stuttgart (HLRS) einen einzigartigen, bedarfsgerecht skalierbaren Supercomputer auf Abruf.

Warum High Performance Computing aus der Open Telekom Cloud?

Das Public-Cloud-Angebot der Telekom bietet Unternehmen im Bereich High Performance Computing viele Vorteile, die andere Public-Cloud-Provider nicht bieten können.

  • Ganzheitlicher Ansatz: Mit High Performance Computing aus der Open Telekom Cloud können Unternehmen komplette Workflows abbilden. Dafür bietet die Open Telekom Cloud sämtliche Werkzeuge – und Expertise, denn Fachansprechpartner der Telekom stehen Unternehmen mit Rat und Tat zur Seite: Von der Entwicklung über die Implementierung bis zum Betrieb eines Prozesses oder einer Anwendung, die hoch performante Ressourcen benötigt.
  • Infiniband Netzwerktechnologie: Wo HPC draufsteht, ist auch HPC drin – die High-Performance-Computing-Ressourcen der Open Telekom Cloud sind hardwareseitig vollständig auf Höchstleistung ausgelegt; von der Taktfrequenz über den Hauptspeicher bis zur Infiniband-Netzwerkverbindung. Auf diese Weise können Unternehmen datenzentriert arbeiten. Das heißt: sämtliche Daten aus nur einer Quelle verwenden. Das verhindert leistungsintensive Ladezeiten. Ein Angebot, das weit über das hinaus geht, was herkömmlicher Cloud-Provider zu bieten haben. 
  • Hybrid Cloud: Mit der Open Telekom Cloud Hybrid Solution bietet die Telekom eine Kombination aus Public und Private Cloud auf derselben Hard- und Softwarebasis. Damit können Unternehmen Cloud-Bursting-Szenarien schneller und einfacher umsetzen. 
  • Direkte Verbindung nach Stuttgart: Mit der Open Telekom Cloud bietet die Telekom Unternehmen nicht nur HPC-Kapazitäten auf Abruf, die bedarfsgerecht genutzt und bezahlt werden können. Nach dem gleichen Pay-as-you-Go-Modell können Firmen darüber hinaus die Supercomputing-Kapazitäten des Höchstleistungsrechenzentrums Stuttgart (HLRS) nutzen. Am Markt ist das einmalig, denn Supercomputing bieten andere Anbieter bislang lediglich im dedizierten Bezugsmodell an.
  • Beratung durch Experten direkt vom Provider: Die deutsche Telekom beschäftigt Dutzende HPC- und Supercomputing-Experten, die Unternehmen bei allen Fragen rund um ihre komplexe Problemstellung beraten.
  • Security und Datenschutz: Die Open Telekom Cloud ist eines der sichersten Public-Cloud-Angebote der Welt. Die deutschen Rechenzentren wurden von unabhängiger Stelle bereits mehrfach zertifiziert und für ihr hohes Datensicherheits- und Datenschutzniveau ausgezeichnet. Darüber hinaus beschäftigt die Telekom im eigenen Geschäftsbereich „Telekom Security“ unzählige Experten, die die Sicherheit ihrer Unternehmenskunden im betrieblichen Umfeld im Blick behalten und kontinuierlich verbessern.
  • Ende-zu-Ende-Verantwortung: Die Telekom besitzt und betreibt ein weltweites, eigenes Netzwerk. Aus diesem Grund kann die Telekom im Unterschied zu den meisten anderen Public-Cloud-Anbietern eine komplette Ende-zu-Ende-Verantwortung bieten.
  • Preis/Leistung: Die Rechen- und Speicherressourcen der Open Telekom Cloud passen sich flexibel der Geschäftsentwicklung an. Das gilt auch für die HPC- und Supercomputing-Ressourcen. Unternehmen zahlen nur so lange, wie sie die Kapazitäten auch verwenden. Damit kann die Telekom jedem Unternehmen einen bedarfsgerechten, vollelastischen Supercomputer aus der Cloud anbieten – Netzwerkanschluss genügt. Das gute Preis-Leistungs-Verhältnis wurde kürzlich vom „Western Europe Cloud Service Provider Analysis“ von Cloud Spectator bestätigt.                                                                                 

Über den Autor

Alfred Geiger ist promovierter Luft- und Raumfahrt-Ingenieur und hat die Lehrbefugnis für das Fach Computational Science and Engineering an der Universität Stuttgart. Nach Abitur und Studium forschte er zunächst mehr als anderthalb Jahrzehnte an der Stuttgarter Universität. Nach einem weiteren Jahrzehnt in verschiedenen Positionen bei T-Systems ist er nunmehr seit mehr als 8 Jahren Geschäftsführer der Höchstleistungsrechner für Wissenschaft und Wirtschaft GmbH, einem Joint-Venture von T-Systems, Porsche, des Höchstleistungsrechenzentrums Stuttgart (HLRS) und dem Karlsruher Institut für Technologie (KIT) sowie Head of Scientific Computing bei T-Systems.


Jetzt direkt buchen und 250 € Startguthaben sichern

 

Haben Sie Fragen?

Wir beantworten Ihre Fragen zu Testmöglichkeit, Buchung und Nutzung – kostenfrei und individuell. Probieren Sie es aus! Hotline: 24 Stunden am Tag, 7 Tage die Woche
0800 3304477 aus Deutschland / 00800 33044770 aus dem Ausland

  • Communities

    Die Open Telekom Cloud Community

    Hier treffen sich Nutzer, Entwickler und Product Owner um sich zu helfen, auszutauschen und zu diskutieren.

    Jetzt entdecken 

  • Telefon

    Kostenfreie Experten-Hotline

    Unsere zertifizierten Cloud-Experten stehen Ihnen mit persönlichem Service zur Seite.

     0800 3304477 (aus Deutschland)

     
    +800 33044770 (aus dem Ausland)

     
    24 Stunden am Tag, 7 Tage die Woche

  • E-Mail

    Unser Kunden-Service steht Ihnen per E-Mail-Support kostenlos zur Verfügung.

    E-Mail schreiben