Simulationen und Modellierungen brauchen – zum jeweiligen Modell passende – leistungsfähige Rechenressourcen. Solche Berechnungen sind aber meist temporär – eine Anschaffung der kostspieligen Hochleistungsrechner lohnt sich für einen punktuellen Einsatz nicht. Die Cloud bietet den bedarfsgerechten Zugriff auf Rechenressourcen, die den Ansprüchen gerecht werden – egal ob CPU, GPU, Bare Metal Server oder Super Computing. Und Nutzer zahlen nur, was sie verbrauchen.
0 Wartezeit
Erweitern Sie die Grenzen Ihrer eigenen Umgebung und reduzieren Sie Wartezeiten
25,95 PetaFlops
Flexibel um 1 bis 720.000 Kernen wachsen und in individuellen hybriden Szenarien skalieren
30% günstiger
Inklusive aller Betriebskosten bereits ab 0,015€ / Kern / Stunde
- Verkürzen Sie Durchlaufzeiten von technischen Simulationen oder Genomanalysen durch flexible Skalierung
- Ressourcen können bedarfsgerecht genutzt werden, die Abrechnung erfolgt nur für genutzte Leistung – Keine Investitions- und Betriebskosten für Sie
- Wählen Sie aus einer Vielzahl an aktuellen Technologien für Ihre Projekte – CPU, GPU, Bare Metal, FPGA etc.
- Als großes Systemhaus ist uns keine Branche fremd
- Mit tiefem Industrie Know-How stehen unsere Experten Ihnen in jeder Projektphase zur Seite
- Beratung – Realisierung – Betrieb
- Mit dem Zugang zur Open Telekom Cloud haben Sie bereits Zugriff auf neueste CPU und GPU's
- Ressourcen können automatisiert binnen weniger Minuten bereitgestellt werden
- Limits eliminieren – Super Computing Ressourcen können in kurzer Zeit freigeschalten werden
Das Copernicus Data Space Ecosystem ist eine der größten öffentlichen Plattformen für Erdbeobachtungsdaten der Welt. Für eine sichere und reibungslose Verarbeitung und Analyse der Daten stützt sich das Copernicus Data Space Ecosystem auf die leistungsfähigen Speicher- und Rechenressourcen aus der Open Telekom Cloud.
Mit cloudbasierten HPC-Ressourcen können Fertigungsunternehmen für die numerische Simulation auf flexible und leistungsstarke Cluster zurückgreifen. Diese können nach Bedarf bereit gestellt werden um optimale Gesamtbetriebskosten (TCO) zu erzielen.
Use Case:
- Design von Produkten
- Design simulieren und Ergebnisse auswerten
- Simulieren von komplexen Problemen
Infrastrukturen:
Plattform:
- Nur Infrastruktur
- HPCaaS – customized Service by T-Systems
Software / Application:
Cloudbasierte HPC-Ressourcen ermöglichen den flexiblen und sicheren Zugriff auf unbegrenzte Leistung für jede Entwicklung. AI und GPU gestützte Entwicklung kann dabei um das 10-fache beschleunigt werden.
Use Case:
- Life-Science & personalisierte Medizin
- Herz-Kreislauf Simulationen
- Früherkennung von Tumoren
Infrastrukturen:
Plattform:
- Nur Infrastruktur
- HPCaaS – customized Service by T-Systems
Software / Application:
- Partner
Cloudbasierte HPC-Ressourcen ermöglichen den flexiblen und sicheren Zugriff auf unbegrenzte Leistung für jede Entwicklung. AI und GPU gestützte Entwicklung kann dabei um das 10-fache beschleunigt werden.
Use Case:
- Genomanalyse & Proteinfaltung
- Chemische Simulation
- Life Science & personalisierte Medizin
Infrastrukturen:
Plattform:
- Nur Infrastruktur
- HPCaaS – customized Service by T-Systems
Software / Application:
- Partner
Cloudbasierte HPC-Ressourcen ermöglichen den flexiblen und sicheren Zugriff auf unbegrenzte Leistung für jedes Forschungsprojekt.
Use Case:
- Geoinformatik
- Simulation in Chemie & Quantenmechanik
- Materialforschung
Infrastrukturen:
Plattform:
- Nur Infrastruktur
- HPCaaS – customized Service by T-Systems
Software / Application:
- Scientific Computing by T-Systems
Mit cloudbasierten HPC-Ressourcen können Finanzunternehmen, FinTech und Versicherungen für ihr Riskmanagement auf flexible und leistungsstarke Grid-Cluster zurückgreifen.
Use Case:
- Risiko- und Marktanalysen
- Portfolio-Stresstests sowie Asset Allocation
- Ausreizen neuer Risikoalgorithmen
Infrastrukturen:
Plattform:
- Nur Infrastruktur
- HPCaaS – customized Service by T-Systems
Software / Application:
- Partner
Mit cloudbasierten HPC-Ressourcen können Fertigungsunternehmen für die numerische Simulation auf flexible und leistungsstarke Cluster zurückgreifen. Diese können nach Bedarf bereit gestellt werden um optimale Gesamtbetriebskosten (TCO) zu erzielen.
Use Case:
- Training von selbstfahrenden Autos
- Design von Produkten
- Design simulieren und Ergebnisse auswerten
Infrastrukturen:
Plattform:
- Nur Infrastruktur
- HPCaaS – customized Service by T-Systems
Software / Application:
- PLM Cloud by T-Systems
- Autonomous Driving Plattform by T-Systems
Mit cloudbasierten GPU und CPU Ressourcen können Medien- und Gaming-Firmen auf flexible und leistungsstarke Cluster zurück greifen. Entwicklung, Post-Processing, Rendering und Streaming von einer Umgebung bedient werden.
Use Case:
- Rendering von Filmen und 3D-Produktionen
- Transcoding von TV- und Video-Streams
Infrastrukturen:
Plattform:
- Nur Infrastruktur
- HPCaaS – customized Service by T-Systems
Software / Application:
- Partner
Für alle seismischen Anwendungen gewappnet. Cloud-Speicher mit InfiniBand-Verbindung für High Performance Parallel File Systeme (Lustre, etc.) oder Server mit dedizierter CPU für mehr Performanz.
Use Case:
- Erforschung des Meeresgrundes, von Gebirgen oder Höhlen
- Vorhersagen von Erdbeben
- Erkundung und Vorhersage neuer Rohstoffvorkommen
Infrastrukturen:
Plattform:
- Nur Infrastruktur
- HPCaaS – customized Service by T-Systems
- Mundi Web Services
Software / Application:
- Partner
Unter dem Begriff High Performance Computing (HPC), zu Deutsch Hochleistungsrechnen, fasst man Technologien und Verfahren zusammen, mit denen sich komplexe Rechenaufgaben mit hoher Leistung ausführen lassen. Dafür “parallelisiert” man die Aufgaben meist: Das heißt, es werden viele Computer zu einem Cluster verbunden, die gleichzeitig an der Berechnung arbeiten. Typische Einsatzbereiche sind Wissenschaft und Forschung, Simulationstechnik, Künstliche Intelligenz oder die Berechnung von Grafiken.
Klar, höhere Leistung kostet mehr Geld. Die Preise für Server für High Performance Computing sind höher als jene für universell einsetzbare Virtual Machines. Für Unternehmen stellt sich die Frage, ab wann sich diese zusätzlichen Kosten lohnen.
Leider gibt es keine Formel, mit der sich die Effektivität von High Performance Computing im Vergleich zu herkömmlichen IT-Ressourcen berechnen lässt. Letztlich entscheiden drei Aspekte darüber, ob es sich für Unternehmen lohnt, auf spezielle HPC-Technologie zurückzugreifen:
- Die Datenmenge, die es zu verarbeiten gilt.
- Die zur Verfügung stehende Zeit.
- Die Komplexität der Aufgabe.
Am besten ist es daher, sich den Rat von Experten einzuholen. Unsere Berater stehen Ihnen mit Ihrer Erfahrung zur Verfügung und unterstützen Ihr IT-Team dabei, die benötigten Cloud-Ressourcen in Betrieb zu nehmen.
Um die für High Performance Computing notwendige Rechenleistung zu erreichen, schließt man eine Vielzahl von Servern zu einem sogenannten HPC-Cluster zusammen. Gemeinsam können diese die Rechenleistung eines Supercomputers erreichen. Für Unternehmen, die ein solches Cluster betreiben wollen, gibt es drei Szenarien der Umsetzung:
- All Cloud: Das Cluster läuft vollständig in der Cloud.
- On-premise: Das HPC-Cluster wird komplett in einem eigenen Rechenzentrum betrieben.
- Cloud Bursting: Es wird in einem eigenen Rechenzentrum betrieben, bei Lastspitzen wird jedoch auf Reserven in der Public Cloud zurückgegriffen.
Am häufigsten nutzen Unternehmen HPC-Ressourcen im sogenannten Bursting-Szenario. Dabei verwenden sie die Public Cloud praktisch als Überlaufbecken oder Ergänzung der eigenen IT-Ressourcen in einem hybriden Cloud-Modell: Sie greifen so lange auf die eignen IT-Kapazitäten zurück, bis sie voll ausgelastet sind. Ressourcen, die die eigene IT-Abteilung nicht bereitstellen kann, sowie Workloads, die hoch spezialisierte IT-Ressourcen verlangen, verlagern sie je nach Bedarf in die Cloud. Dabei bezahlen sie HPC-Ressourcen nur so lange, wie benötigt.
High Performance Computing stellt besonderen Anforderungen an eine Cloud-Infrastruktur, die General-Purpose-Angebote meist nicht erfüllen können.
Nicht-spezialisierte Cloud-Angebote sind darauf optimiert, attraktiv und kosteneffizient für eine möglichst große Anzahl von Kunden zu sein. Diese legen in der Regel einen großen Wert darauf, dass sie ihr gebuchtes Cloud-Angebot schnell und unkompliziert an ihre sich ändernden Bedürfnisse anpassen können. Das erreichen die Anbieter durch ein hohes Maß an Virtualisierung – das heißt, der Kunde bucht nicht einen physischen Server, sondern eine virtuelle Maschine, die durch Software simuliert wird. Dabei teilen sich oft mehrere Kunden die Rechenleistung eines realen, physischen Servers. Virtualisierung macht die Flexibilität, Kosteneffizienz und Skalierbarkeit von Cloud-Angeboten möglich. Sie schränkt aber auch die Performance ein, da die physischen Computer mehr Software-Layer zu bespielen haben.
Um möglichst viel Leistung aus der Hardware rausholen, setzen Cloud-Angebote für High Performance Computing meist auf dedizierte Ressourcen, die „näher am Metall“ sind, also weniger Virtualisierungs-Ebenen enthalten. Zudem stellen Sie meist optimierte Hardware bereit, also leistungsfähigere Prozessoren und Netzwerk-Verbindungen.
Häufig nutzt man für HPC-Aufgaben zum Beispiel Server, die mit zusätzlichen Graphics Processing Units (GPUs) ausgestattet sind. Diese wurden ursprünglich entwickelt, um den Hauptprozessor eines Computers von grafischen Berechnungen zu entlasten. Typische Anwendungsfälle für GPUs sind zum Beispiel grafikintensive Anwendungen aus der Unterhaltungsbranche. Daher enthalten sie eine große Zahl von Prozessorkernen, so genannter Shader, die viele gleichförmige Berechnungen parallel ausführen können. Das macht sie gleichzeitig ideal für Anwendungen in den Bereichen Machine Learning oder künstliche Intelligenz. Die Open Telekom Cloud bietet zum Beispiel GPU-beschleunigte Elastic Cloud Server der Flavors p2, p2v, g6 und pi2, sowie Bare Metal Server physical.p1 und physical.p2, die auf Nvidia P100-, V100-, oder T4-GPUs basieren.
Allerdings gibt es Problemstellungen, für die GPUs aufgrund ihrer hoch spezialisierten Architektur nicht infrage kommen. Für diese Fälle bietet die Open Telekom Cloud virtuelle Maschinen und Bare Metal Server der Kategorie High Performance, bei denen der Großteil der Berechnungen in einer leistungsfähigen CPU (central processing unit) durchgeführt wird. Sie sind beispielsweise für Hochleistungsszenarien wie aufwändige Simulationen gedacht. Dazu zählen etwa virtuelle Versuche mit chemischen Reaktionen, Simulationen von Luftströmungen oder Crash-Tests. Für diese Anwendungsfälle hält die Open Telekom Cloud Bare Metal Server physical.h2 oder Elastic Cloud Server der Flavors hl1 und h2 bereit. Diese enthalten eine hohe Anzahl von CPU-Cores.
In der Regel schließen Unternehmen ihre Standorte mit einem schnellen und sicheren Weitverkehrsnetz (WAN) an das eigene Rechenzentrum an. Doch um von HPC-Kapazitäten aus der Public Cloud profitieren zu können, muss das unternehmenseigene WAN mit einer möglichst schnellen Verbindung angeschlossen sein.
Die Frage ist, wie schnell diese sein muss. Um dies beantworten, ist es entscheidend zu wissen, wie groß die Datenmengen sind, die in die Cloud verlagert werden sollen.
Bei seismischen Untersuchungen bei der Suche nach Erdöl- und Gasvorkommen entstehen zum Beispiel Datensätze, die hunderte Gigabytes oder gar Terabytes erreichen können. Diese Datenmengen in die Cloud hochzuladen, kann auch mit einer schnellen Verbindung lange dauern. So braucht es beispielsweise mehr als 22 Stunden, um ein Terabyte Daten mit einer Übertragungsgeschwindigkeit von 100 Mbit/s in die Cloud zu laden.
Muss es schneller gehen, sollten Unternehmen auf eine Direktanbindung wie Direct Connect und Private Link Access Service (PLAS) zugreifen. Damit sind Übertragungsraten in die Open Telekom Cloud von bis zu 10 Gbit/s möglich. So reduziert sich die Zeit für den Upload von einem Terabyte Daten von 22 Stunden auf nur noch 13 Minuten.
Oft zeigt sich, dass die erforderliche Datenmenge in der Praxis weniger ausfällt, als zuvor angenommen wird. Für die Simulation neuer Werkstoffe zum Beispiel müssen nur rund 100 bis 200 MB Daten in die Cloud. Allerdings entstehen bei der Berechnung wiederum bis zu 100 Gigabyte – davon müssen jedoch lediglich 10 GB wieder als Ergebnis zurück ans Unternehmen.
Manche Aufgaben sind derart komplex, dass sie die Fähigkeiten von HPC aus der Cloud übersteigen. Wenn die Größe des Workloads mehr 1.000 X86-Rechenkerne verlangt, stößt man mit der aktuell eingesetzten Technologie an eine Grenze. Der Hauptgrund für diese Limitierung sind winzige Verzögerungen in den Netzwerken, welche die Prozessoren verbinden: Je komplexer das System wird, desto mehr Verbindungen sind notwendig und desto mehr summieren sich die Verzögerungen – bis das Hinzufügen weitere Rechenkerne nicht mehr zu einem spürbaren Anstieg der Rechenleistung führt. Eine verzögerungsfreie Vernetzung in derart komplexen Systemen sicherzustellen, übersteigt die Möglichkeiten der Infrastruktur einer General-Purpose-Cloud. Für diese Aufgabe kann die Open Telekom Cloud Zugriff auf die Ressource des Höchstleistungsrechenzentrums Stuttgart (HLRS) geben.
Unsere Rechenzentren in Biere und Magdeburg sind über eine Standleitung mit dem Höchstleistungsrechenzentrum Stuttgart (HLRS) verbunden, das T-Systems, die Porsche AG und das Karlsruher Institut für Technologie (KIT) gemeinsam betreiben. Dessen Architektur wurde für Supercomputing optimiert und kann Workloads mit derzeit bis zu 180.000 Kernen abarbeiten, also bis zu 180-mal komplexer oder schneller als es ein HPC-Cluster in der Public Cloud vermag. Somit kann die Open Telekom Cloud Unternehmen Zugang zu einem Supercomputer geben, der mit ihrem Bedarf flexibel skaliert. Denn genau wie die High-Performance-Computing-Ressourcen aus der Open Telekom Cloud können Unternehmen die HLRS-Ressourcen bedarfsgerecht buchen.
Dabei bietet die Open Telekom Cloud auch Zugriff auf einen der schnellsten Rechner Deutschlands. Der Supercomputer Hawk ist ausgestattet mit 720.896 CPU-Kernen und steht seit Anfang 2020 auf dem Campus der Universität Stuttgart. Nach Angaben des Betreibers generiert er 27 Billiarden Rechenoperationen pro Sekunde und besitzt eine Hauptspeicherkapazität von 1,4 Petabyte.
Für HPC-Anwendungen wird spezialisierte HPC-Soft- und Middleware benötigt. Wenn Unternehmen HPC-Ressourcen bereits on-premise nutzen, können sie die entsprechende Software oft weiterverwenden, wenn sie zusätzliche Kapazitäten aus der Cloud buchen. Dafür ist die Voraussetzung, dass ihre Software auch von ihrem Cloud-Provider unterstützt wird.
Die HPC-Infrastruktur der Open Telekom Cloud ist zum Beispiel mit Anwendungen von Altair kompatibel. Diese Plattform ist eine Art Kommandozentrale für HPC-Administratoren. Damit können sie in jeder Cloud – egal ob public, private oder hybrid – HPC-Anwendungen bereitstellen, verwalten und optimieren.
Darüber hinaus unterstützt die Open Telekom Cloud unter anderem Moab Cloud/NODUS Cloud Bursting. Weitere unterstütze HPC-Softwares sind UNIVA, SGE, IntelMPI sowie SpectrumMPI, aber auch Open-Source-Dienste wie OpenMPI oder SLURM.
Neben der richtigen Software sollten Unternehmen außerdem auf wichtige Zertifikate achten. Unternehmen aus der Automobilindustrie dürfen beispielsweise IT-Kapazitäten ohne ein TISAX 3-Zertifikat (Trusted Information Security Assessment Exchange) nicht verwenden – unter anderem, weil dieses Zertifikat besonders hohe Standards in Bezug auf IT-Security nachweist.
Neben weiteren Zertifikaten besitzt die Open Telekom Cloud auch das CSA Star Level 2 der Cloud Security Alliance sowie das Trusted-Cloud-Zertifikat des Bundesministeriums für Wirtschaft und Energie. Eine Übersicht unserer Zertifizierungen finden sie hier.
Sehr häufig sind Daten, die mit High Performance Computing verarbeitet werden, unternehmenskritisch oder personenbezogen. Daher müssen die eingesetzten Cloud-Lösungen ein hohes Maß an IT-Security und Datenschutz erfüllen.
Die Open Telekom Cloud zum Beispiel hat Zertifizierung nach TCDP 1.0 (Trusted Cloud Data Protection Profile) und BSI C5. Das bescheinigt ihr, aktuell als eines der wenigen Cloud-Angebote am Markt rechtskonforme Zertifizierung für Datenschutz und Informationssicherheit zu haben.
Auch viele branchenspezifische Bestimmungen erfüllt die Open Telekom Cloud. So erleichtert sie zum Beispiel das sichere Verarbeiten der Daten von Berufsgeheimnisträgern wie Rechtsanwälten oder Ärzten nach § 203 StGB oder von Sozialdaten zum Beispiel von Krankenversicherungen oder ärztlichen Verrechnungsstellen nach § 35 SGB I.
Für viele Unternehmen ist zudem aus datenschutzrechtlichen Gründen auch der Sitz des Cloud-Providers bedeutend. Denn sie wollen Risiken vermeiden, die sich aus dem Urteil Schrems II des Europäischen Gerichtshof ergeben. Das untersagt die Übermittlung von Daten in Drittländer, wenn dort nicht eine für EU-Standards gleichwertiger Datenschutz gewährleistet ist. Dabei ist nicht nur der Standort der Server relevant, sondern auch die Niederlassung des Managements des Cloud-Providers.
Daher vertrauen viele Unternehmen personenbezogene oder Wettbewerbs-entscheidende Daten daher lieber europäischen Providern wie der Open Telekom Cloud an, die eigene Rechenzentren in Sachsen-Anhalt und in den Niederlanden betreibt und sich unter europäischem Management befinden.