CommunityDEENDEENProdukteCore ServicesRoadmapRelease NotesLeistungsbeschreibungZertifikate und TestatePrivate CloudManaged ServicesVorteileSicherheit/DSGVONachhaltigkeitOpenStackMarktführerPreisePreismodelleComputing & ContainerSpeicherNetzwerkDatenbank & AnalyseSicherheitManagement & ApplikationPreisrechnerLösungenBranchenGesundheitswesenÖffentlicher SektorWissenschaft & ForschungAutomotiveMedienunternehmenEinzelhandelAnwendungsfälleKünstliche IntelligenzHigh Performance ComputingBig Data & AnalyticsInternet of ThingsDisaster RecoveryData StorageKomplettlösungenCloud-Lösungen TelekomCloud-Lösungen PartnerSwiss Open Telekom CloudReferenzkundenPartnerCIRCLE PartnerTECH PartnerPartner werdenAcademyTrainings & ZertifizierungenEssentials TrainingFundamentals TrainingPractitioner Online-TrainingArchitect TrainingZertifizierungenCommunityCommunity BlogsCommunity EventsBibliothekStudien und WhitepaperWebinareBusiness NavigatorSupportExperten-SupportKI-ChatbotShared ResponsibilityRichtlinien für Sicherheitstests (Penetrationstests)Open Telekom Cloud AppTools zur SelbsthilfeErste SchritteTutorialStatus DashboardFAQTechnische DokumentationNewsBlogMessen & EventsFachartikelPresseanfragenCommunity

0800 3304477 24 Stunden am Tag, 7 Tage die Woche

E-Mail schreiben

Jetzt starten und 250 € Startguthaben sichern
ProdukteCore ServicesPrivate CloudManaged ServicesVorteilePreisePreismodellePreisrechnerLösungenBranchenAnwendungsfälleKomplettlösungenSwiss Open Telekom CloudReferenzkundenPartnerCIRCLE PartnerTECH PartnerPartner werdenAcademyTrainings & ZertifizierungenCommunityBibliothekBusiness NavigatorSupportExperten-SupportTools zur SelbsthilfeTechnische DokumentationNewsBlogMessen & EventsFachartikelPresseanfragen
  • 0800 330447724 Stunden am Tag, 7 Tage die Woche
  • E-Mail schreiben
Jetzt starten und 250 € Startguthaben sichern

High Performance Computing aus der Cloud: Darauf sollten Firmen achten

von Redaktion
High Performance Computing aus der Cloud: Darauf sollten Firmen achten

In diesem Artikel lesen Sie, 

  • für welche Einsatzzwecke sich High Performance Computing (HPC) aus der Public Cloud eignet,
  • welche Voraussetzungen dafür erfüllt sein müssen und
  • worauf Unternehmen dabei achten sollten.

Ob Belastungs-Simulationen im Maschinenbau, Genanalysen in der Medizin oder maschinelles Lernen im Bereich künstlicher Intelligenz: Hochkomplexe Prozesse erfordern extreme Rechenleistung. Während solche Berechnungen noch vor wenigen Jahren nur mit teurer Hardware von Supercomputern möglich waren, können Unternehmen entsprechende Kapazitäten mittlerweile bedarfsgerecht aus der Public Cloud buchen – zum Beispiel aus der Open Telekom Cloud. Damit nutzen Firmen hochspezialisierte und -performante Hardware genau nach Bedarf, so dass sie riesige Datenmengen in kürzester Zeit verarbeiten und komplexe Problemstellungen deutlich schneller als früher lösen können. Zudem sparen sie damit Aufbau und Betrieb eigener, teurer Hardware und damit hohe Fixkosten.

Doch bevor Unternehmen High Performance Computing (HPC) aus der Public Cloud nutzen, stellen sich einige wichtige Fragen:

  1. Wodurch unterscheidet sich HPC von herkömmlichen Public-Cloud-Ressourcen?
  2. Für welche Szenarien ist HPC sinnvoll – und für welche nicht?
  3. Wie muss die Netzwerkverbindung dimensioniert sein?
  4. Welche Daten sollten in die Cloud – und welche nicht?
  5. Wo gibt es das beste Preis-Leistungs-Verhältnis?
  6. Welche Software und welche Zertifikate sind unverzichtbar?
  7. Und welche Rolle spielen Sicherheit und Datenschutz?

Wodurch unterscheidet sich HPC von herkömmlichen Public-Cloud-Ressourcen?

GPU, FPGA oder HPC-Flavor?
GPU, FPGA oder doch lieber HPC-Flavor aus der Public Cloud? Das kommt auf den Anwendungsfall an

HPC-Kapazitäten aus der Cloud sind darauf ausgelegt, hochkomplexe, extrem umfangreiche und sehr spezielle Problemstellungen in möglichst kurzer Zeit abzuarbeiten. Zu diesem Zweck haben Cloud-Provider speziell zugeschnittene Rechenressourcen im Portfolio. Zum Beispiel GPU-Flavors aus dem Elastic-Cloud-Server-Angebot der Open Telekom Cloud: Sie bieten Grafikkarten mit sehr leistungsstarken, Graphics Processing Units (GPUs), die sich im Vergleich zu herkömmlichen Central Processing Units (CPUs) aufgrund ihrer Prozessor-Architektur nicht nur besonders gut für den Betrieb von Grafikanwendungen eignen. Sondern darüber hinaus für Problemstellungen mit einer großen Anzahl gleichförmiger Prozesse, die es in kurzer Zeit parallel abzuarbeiten gilt. Damit sind GPU-Flavors ideal für Anwendungen in den Bereichen Machine Learning oder künstliche Intelligenz. 

Darüber hinaus gibt es für komplexe Problemstellungen, für die GPUs aufgrund ihrer speziellen Architektur nicht infrage kommen, virtuelle Maschinen der Kategorie High Performance in der Open Telekom Cloud. Sie sind beispielsweise für Hochleistungsszenarien wie aufwändige Simulationen gedacht. Dazu zählen etwa virtuelle Versuche mit chemischen Reaktionen, Simulationen von Luftströmungen oder Crash-Tests. Das Besondere: Die gebuchten CPUs werden ausschließlich für das jeweilige Unternehmen reserviert. Das garantiert volle Leistungsfähigkeit über den gesamten Einsatzzeitraum hinweg. 

Eine weitere Möglichkeit sind so genannte Field-Progammable Gate Arrays (FPGAs), die sich ebenfalls bedarfsgerecht aus der Cloud buchen lassen. Ihr Vorteil: Die frei programmierbaren Hardwarekarten lassen sich an jeden Prozess individuell anpassen und sind somit flexibler. Weil sie parallel zur restlichen Peripherie einer virtuellen Maschine laufen, fungieren sie wie ein Turbo, der Anwendungen und Prozesse deutlich beschleunigt, ohne die CPU des Servers zu belasten. 

Für welche Szenarien ist HPC sinnvoll – und für welche nicht?

HPC on demand
HPC on demand: Beim so genannten Cloud Bursting dient die Cloud als Überlaufbecken für Lastspitzen

Häufig werden HPC-Ressourcen aus der Cloud in einem so genannten Bursting-Szenario verwendet: Unternehmen nutzen so lange eigene IT-Kapazitäten, bis sie voll ausgelastet sind. Für alles weitere nutzen sie hochspezialisierte Kapazitäten aus der Public Cloud: Ressourcen, die die eigene IT-Abteilung nicht bereitstellen kann sowie Workloads, die hochspezialisierte IT-Ressourcen voraussetzen, werden je nach Bedarf in die Cloud ausgelagert. Unternehmen zahlen kostenintensive HPC-Ressourcen nur so lange, wie sie sie benötigen. Diese Methode, bei der die Public Cloud praktisch als Überlaufbecken oder Ergänzung der eigenen IT-Ressourcen in einem hybriden Cloud-Modell genutzt wird, nennt sich „Cloud Bursting“. 

Doch um von Vorteilen wie der bedarfsgerechten Nutzung effizient zu profitieren, sollten Unternehmen diese sehr zielgerichtet und bedarfsorientiert einsetzen. Schließlich sind die Kosten für hochperformante Rechenressourcen aus der Cloud entsprechend höher im Vergleich zu universell einsetzbaren virtuellen Maschinen; darüber hinaus ist je nach Anwendungsfall tiefgreifendes Expertenwissen erforderlich. Letztlich entscheiden stets drei Aspekte darüber, wann Unternehmen auf spezielle HPC-Technologie und wann besser auf herkömmliche (Cloud-)Ressourcen zurückgreifen sollten: 

3 Aspekte entscheiden darüber, ob Unternehmen auf spezielle HPC-Technologie oder herkömmliche Ressourcen zurückgreifen sollten
  1. Die Datenmenge, die es zu verarbeiten gilt. 
  2. Die zur Verfügung stehende Zeit. 
  3. Die Komplexität der Aufgabe. 

„Leider gibt es jedoch keine Formel, mit der sich die Effektivität von High Performance Computing im Vergleich zu herkömmlichen IT-Ressourcen berechnen ließe – das variiert je nach Einsatzszenario“, sagt Max Guhl von T-Systems. „Am besten ist es daher, sich den Rat von Experten seines Cloud-Providers einzuholen, der anhand seiner Erfahrung eine entsprechende Empfehlung aussprechen kann. Und wenn nötig auch gleich dabei helfen, die benötigten Cloud-Ressourcen in Betrieb zu nehmen."  

Ein Beispiel: HPC kommt häufig dann zum Einsatz, wenn die Zeit drängt. Etwa, wenn ein Prozess im Unternehmen nicht weitergeführt werden kann, bevor ein Analyse-Ergebnis vorliegt. 

Ein weiteres Beispiel: Die Medizin. Wenn eine künstliche Intelligenz anhand tausender MRT-Aufnahmen so schnell wie möglich einen Hinweis liefern soll, ob ein Patient umgehend operiert werden muss oder nicht, sind hochleistungsfähige Rechenressourcen gefragt. Oder in der so genannten personalisierten Medizin: Mithilfe von Gensequenzierungen und -analysen können Ärzte mittlerweile auf Basis der Geninformationen von Patienten individuelle, präzise Medikationen vornehmen, die erheblich effektiver wirken als Standarddosierungen. Auch hier sind extrem performante Ressourcen gefragt.

Oder in der Meteorologie: Wenn zum Beispiel ein starkes Unwetter bevorsteht und eine Regierung so schnell und präzise wie möglich wissen muss, welche Landstriche wie stark betroffen sein werden, um die Bevölkerung vorzubereiten und entsprechende Hilfsmaßnahmen zu planen. „Die Berechnung von Wettermodellen sind unter anderem deshalb so extrem rechenintensiv, weil es so viele Eingangsgrößen zu berücksichtigen gilt“, sagt Max Guhl. „Ohne hochperformante Rechenressourcen wären Wettervorhersagen, wie wir sie heute kennen, gar nicht möglich.“ 

Wie muss die Netzwerkverbindung dimensioniert sein?

Auf die Bandbreite kommt es an
Auf die Bandbreite kommt es an

Viele Unternehmen schließen ihre Standorte mit einem schnellen und sicheren Weitverkehrsnetz (WAN) an das eigene Rechenzentrum an. Doch um von bedarfsgerechten HPC-Kapazitäten aus der Public Cloud profitieren zu können, muss das unternehmenseigene WAN mit einer möglichst schnellen Verbindung an die Public Cloud angeschlossen werden. Wie aber muss die Netzwerkanbindung dimensioniert sein? „Das hängt vom jeweiligen Einsatzzweck ab“, sagt Max Guhl. Um das herauszufinden, sollten Unternehmen vorab die Frage klären, wie groß die Datenmengen überhaupt sind, die in die Cloud müssen. Denn diese können je nach Szenario viel kleiner ausfallen, als manche glauben. Guhl: „Ein Beispiel aus der Chemie: Für die Simulation neuer Werkstoffe müssen nur rund 100 bis 200 MB Daten in die Cloud. Als Ergebnis der Berechnungen entstehen bis zu 100 Gigabyte. Davon müssen jedoch wiederum lediglich 10 GB wieder zurück ans Unternehmen.“ 

Ganz anders sieht es beispielsweise bei der Suche nach Erdöl- und Gasvorkommen aus: Hierbei errechnen Forscher mit seismischen Verfahren Abbildungen des Untergrundes. Dabei entstehen Datensätze, die hunderte Gigabytes oder gar Terabytes erreichen können. Daten dieses Umfangs in die Cloud zu übertragen, kann viel Zeit in Anspruch nehmen: So dauert es beispielsweise mehr als 22 Stunden, um ein Terabyte Daten mit einer Übertragungsgeschwindigkeit von 100 Mbit/s in die Cloud zu übertragen. Wenn es schneller gehen muss, ist eine Direktanbindung wie Direct Connect und Private Link Access Service (PLAS) unverzichtbar. Damit sind Übertragungsraten in die Open Telekom Cloud von bis zu 10 Gbit/s möglich. Auf die Art reduziert sich der Upload von einem Terabyte Daten von 22 Stunden auf nur noch 13 Minuten.

Welche Daten sollten in die Cloud – und welche nicht?

Das Zusammenspiel aus Edge und Cloud
Echtzeitverarbeitung direkt vor Ort, Langzeitanalyse im Rechenzentrum: Das Zusammenspiel aus Edge und Cloud

Doch oft ist es gar nicht nötig, Analysedaten komplett in die Cloud zu übertragen. Diese Daten können dort, wo sie entstehen, von so genannten Edge-Computing-Einheiten vorverarbeitet werden. „So rechnet ein Edge-Device an einer Gasturbine beispielsweise das Audiosignal eines Mikrofons in Echtzeit in das Frequenzspektrum, um nur diese kleinen Datenmengen ins Backend zu transportieren“, beschreibt es beispielsweise Crisp Research in einem aktuellen Beitrag zum Thema Edge Computing.

Und auch hier stellt sich die Frage: Wie schnell werden Ergebnisse benötigt? Müssen die in die Cloud gelieferten Daten in (nahezu) Echtzeit analysiert werden? Wenn nicht, kann der Datentransfer problemlos sukzessive erfolgen. Die Daten werden dann zunächst in der Cloud gesammelt, um sie dann in regelmäßigen Batch-Läufen mithilfe hochperformanter Ressourcen schnell auszuwerten. Unternehmen zahlen die HPC-Ressourcen dann bedarfsgerecht – beispielsweise pro Batchlauf – und profitieren so gleichzeitig von Hochleistungs-Ressourcen und dem Pay-as-you-go-Prinzip, das nur Public-Cloud-Computing bietet. Ein maßgeblicher Faktor, schließlich spielen Kosten für die Entscheidung für oder gegen HPC aus der Public Cloud eine wichtige, wenn nicht die zentrale Rolle für Unternehmen.

Wo gibt es das beste Preis-Leistungs-Verhältnis?

Geschickt kalkulieren
Geschickt kalkulieren: Nur wer Cloud-Ressourcen sinnvoll einsetzt, profitiert vom Pay-as-you-go-Prinzip

Die CPU-Preise pro Stunde sind zwar in den vergangenen Jahren deutlich gesunken, doch der reine CPU-Preis sollte nicht das Auswahlkriterium sein; schließlich leistet nicht jede CPU das gleiche. Relevant ist vielmehr die Frage nach dem Preis-Leistungs-Verhältnis. Hier gibt es teils erhebliche Unterschiede. Eine aktuelle Benchmark-Analyse von Cloud Spectator aus dem Frühjahr 2019 zeigt, dass die Open Telekom Cloud ihre Wettbewerber in punkto High Performance Computing deutlich schlägt. Dafür verglichen die Cloud-Analysten die High Performance Flavors von Amazon Web Services, Microsoft Azure, Google Cloud Engine und der Open Telekom Cloud. Das Ergebnis: Die HPC-VMs der Open Telekom Cloud setzten sich sowohl in Bezug auf die relative CPU-Performance als auch bei der Storage Performance mit der besten relativen Lese- und Schreibgeschwindigkeit mit großem Abstand an die Spitze.

Welche Software und welche Zertifikate sind unverzichtbar?

Mit Brief und Siegel: Sichere Cloud-Zertifikate
Mit Brief und Siegel: Unternehmen erkennen an bestimmten Zertifikaten beispielsweise sichere Cloud-Anbieter

HPC-Anwendungen brauchen unter anderem entsprechende HPC-Soft- und Middleware. Oft können Unternehmen, die HPC-Ressourcen bereits on-premises nutzen, Software weiterverwenden, die sie bereits nutzen. Voraussetzung ist, dass ihre Software nicht nur on-premises funktioniert, sondern auch von der Cloud unterstützt wird. Darüber hinaus sollten Unternehmen sicherstellen, dass der Cloud-Provider, bei dem sie ihre HPC-Workloads hosten möchten, bei Bedarf auch den Betrieb ihrer Software übernimmt. 

Eine häufig genutzte HPC-Lösung kommt von Altair. Die Plattform ist so etwas wie eine Kommandozentrale für HPC-Administratoren, mit der sie HPC-Appliances bereitstellen, verwalten überwachen und optimieren können – in jeder Cloud, egal ob Public, Private oder Hybrid. So sind Anwendungen von Altair beispielsweise mit der HPC-Infrastruktur der Open Telekom Cloud kompatibel. Darüber hinaus unterstützt Altair auch Cloud-Bereitstellungen von HPC-Clustern durch die PBS Works-Produktreihe (Portable Batch System). Durch die Ausführung von HPC-Workloads in der Cloud erweitern Kunden HPC-Cluster vor Ort oder führen ihre Aufträge komplett in der Cloud aus. 

Die Open Telekom Cloud unterstützt darüber hinaus unter anderem Moab Cloud/NODUS Cloud Bursting. Die hochflexible und erweiterbare Lösung macht es möglich, Prozesse bei Bedarf in die Cloud zu verlagern. Alle erforderlichen Workload-Ressourcen werden bei Bedarf automatisiert bereitgestellt und wieder stillgelegt, wenn sie nicht mehr benötigt werden. Weitere Software, die für den Betrieb von HPC-Ressourcen verwendet und von der Open Telekom Cloud unterstützt wird, ist unter anderem UNIVA, SGE, IntelMPI sowie SpectrumMPI, aber auch Open-Source-Dienste wie OpenMPI oder SLURM. 

Neben der richtigen Software sollten Unternehmen jedoch außerdem auf wichtige Zertifikate achten. So verlangen einige Industriebereiche von Zulieferern und Dienstleistern besondere Zertifizierungen bei der Verwendung von Cloud-Ressourcen. Unternehmen aus der Automobilindustrie dürfen beispielsweise IT-Kapazitäten ohne ein TISAX 3-Zertifikat (Trusted Information Security Assessment Exchange) nicht verwenden – unter anderem, weil dieses Zertifikat besonders hohe Standards in Bezug auf IT-Security nachweist. TISAX ist ein wechselseitig anerkannter Prüfungsstandard für Informationssicherheit. Eine große Zahl von Automobilherstellern und Zulieferern der deutschen Automobilindustrie verlangt von Geschäftspartnern eine bestehende TISAX-Zertifizierung. Die Open Telekom Cloud bietet als einziger großer Public-Cloud-Provider derzeit TISAX 3.

Welche Rolle spielen Sicherheit und Datenschutz?

Unverzichtbar auch bei HPC: Security und Datenschutz auf höchstem Niveau
Unverzichtbar auch bei HPC: Security und Datenschutz auf höchstem Niveau

Natürlich sollte die eingesetzte Software sämtliche Standards erfüllen, die nötig ist, um ein Höchstmaß an IT-Security und Datenschutz sicherzustellen. Schließlich können auch Daten, die über HPC verarbeitet werden, unternehmenskritisch oder personenbezogen sein. Beispiel Automobilindustrie: Simulationsdaten im Zusammenhang mit der Entwicklung neuer Designs oder Komponenten unterliegen unternehmensinternen strengen Vorgaben. Oder in der Medizin: Die Analyse von Gensequenzen ist personenbezogen. Selbst IP-Adressen fallen unter bestimmten Voraussetzungen in diese Kategorie und sind somit im Rahmen der europäischen Datenschutzgrundverordnung (DSGVO) geschützt. Zum Beispiel, wenn bei der Auswertung von Krankheitsbildern Patientendaten gespeichert werden, um Verwechslungen zu vermeiden. Unternehmen sollten daher auf einen Cloud-Provider setzen, der nachweisen kann, dass die genutzten Rechenzentren höchsten Anforderungen in Bezug auf Datensicherheit und Datenschutz genügen.  

Die Open Telekom Cloud zum Beispiel hat eine Zertifizierung nach TCDP 1.0 (Trusted Cloud Data Protection Profile) durchlaufen. Das bescheinigt der Open Telekom Cloud, aktuell als eines der wenigen Cloud-Angebote am Markt eine rechtskonforme Datenschutz-Zertifizierung für definierte Cloud-Dienste zu haben. 

Darüber hinaus ist nach wie vor für viele Unternehmen aus datenschutzrechtlichen Gründen auch der Sitz des Cloud-Providers relevant. Außereuropäische Cloud-Anbieter verfügen zwar längst über Rechenzentren in Europa und sind daher europäischen Datenschutzgesetzen verpflichtet. Doch es besteht Unsicherheit, ob diese Cloud-Anbieter rechtlich verpflichtet sind, Nachrichtendienste auf ihre Daten zugreifen zu lassen – etwa bei Anfragen von US-Behörden. Um keine bösen Überraschungen zu erleben, vertrauen einige Unternehmen ihre Daten daher lieber europäischen Providern wie der Telekom an, die beispielsweise mit der Open Telekom Cloud eigene Rechenzentren in Sachsen-Anhalt selbst betreibt.

Fazit

In vielen Fällen ist es für Unternehmen sinnvoll, High Performance Computing nicht ausschließlich mit eigenen Rechenressourcen on-premises zu bestreiten, sondern ergänzend HPC-Ressourcen aus der Public Cloud zu nutzen. Das kann Unternehmen dabei helfen, extrem anspruchsvolle Aufgaben in kürzester Zeit zu lösen und sich so einen Wettbewerbsvorteil zu verschaffen – und das zu überschaubaren Kosten. Doch für den zielgerichteten Einsatz müssen sie zunächst definieren, 

  • welches Ziel sie mit HPC konkret erreichen möchten,
  • welche und wie viele Daten dafür notwendig sind,
  • ob ihre Netzwerkanbindung dafür ausreicht und
  • welche Art von Technologie aus der Cloud dafür die richtige ist.

Um das herauszufinden, können Unternehmen auf die Expertise und die Erfahrung der Telekom zurückgreifen. Interessierte Firmen können sich unter folgender E-Mail-Adresse mit der Telekom in Verbindung setzen: cloud-products@telekom.de.


Jetzt direkt buchen und 250 € Startguthaben sichern

Jetzt buchen
 

Haben Sie Fragen?

Wir beantworten Ihre Fragen zu Testmöglichkeit, Buchung und Nutzung – kostenfrei und individuell. Probieren Sie es aus! Hotline: 24 Stunden am Tag, 7 Tage die Woche
0800 3304477 aus Deutschland / 00800 33044770 aus dem Ausland

E-Mail schreiben

Die Open Telekom Cloud Community

Hier treffen sich Nutzer, Entwickler und Product Owner um sich zu helfen, auszutauschen und zu diskutieren.

Jetzt entdecken  

Kostenfreie Experten-Hotline

Unsere zertifizierten Cloud-Experten stehen Ihnen mit persönlichem Service zur Seite.

 0800 3304477 (aus Deutschland)

 +800 33044770 (aus dem Ausland)

 24 Stunden am Tag, 7 Tage die Woche

E-Mail schreiben

Unser Kunden-Service steht Ihnen per E-Mail-Support kostenlos zur Verfügung.

E-Mail schreiben 

AIssistant

Unsere KI-gestützte Suche hilft bei Ihrem Cloud-Anliegen.