In diesem Artikel lesen Sie,
- wie die Telekom Cloud-Ressourcen mit Supercomputing-Kapazitäten in Stuttgart kombiniert,
- wie Unternehmen von der Kombination aus High Performance Computing aus der Public Cloud und Supercomputing profitieren
- und was diese Kombination derzeit einzigartig am Markt macht.
Darf es ein bisschen mehr sein? Es gibt Workloads, die sind selbst für High Performance Computing (HPC) in der skalierbaren Public Cloud zu groß. Zum Beispiel dann, wenn es bei hochkomplexen Berechnungen oder Analysen auf sehr hohe Geschwindigkeit ankommt. Dann können Kapazitäten eines hochspezialisierten, klassischen Supercomputers helfen. Doch was ist der Unterschied zwischen HPC aus der Public Cloud und einem Supercomputer? „In klassischen Cloudumgebungen wie der Open Telekom Cloud stößt man bei der derzeit eingesetzten Technologie bei circa 1.000 gleichzeitig mit einer Problemstellung beauftragten x86-Rechenkernen an eine natürliche Grenze“, sagt Alfred Geiger, Geschäftsführer der Höchstleistungsrechner für Wissenschaft und Wirtschaft GmbH (HWW), der gemeinsamen Betriebsgesellschaft des Höchstleistungsrechenzentrums Stuttgart (HLRS), der T-Systems, der Porsche AG und des Karlsruher Instituts für Technologie (KIT).
Ein Grund für das Limit ist das Netzwerk: Die Rechenkerne müssen untereinander zu jeder Zeit blockierungsfrei mit geringer Latenz und ausreichender Bandbreite kommunizieren können, damit das Cluster effizient arbeiten kann. Die dazu notwendige Packungsdichte und Kommunikationsinfrastruktur würde den Rahmen einer General-Purpose-Cloudumgebung bei weitem sprengen. Geiger: „Im Hochleistungsrechenzentrum in Stuttgart können wir Workloads mit derzeit bis zu 180.000 Kernen abarbeiten, also bis zu 180-mal komplexer oder schneller. Das liegt an der Architektur der Hardware, die vollständig auf Supercomputing ausgelegt ist.“