Open Telekom Cloud für Geschäftskunden

GPU-Server: Die wichtigsten Fragen und Antworten für Unternehmen 

Bild eines GPU Server
 

Moderne Grafikarten enthalten geballte Rechenpower. Schon lange werden sie nicht nur zur Berechnung von Videodarstellungen eingesetzt. In spezialisierten Servern für High Performance Computing nutzen sie ihre enorme Rechenleistung für Anwendungen wie Künstliche Intelligenz oder Simulationen. Hier die wichtigsten Fragen und Antworten zu GPU-Servern.

Inhaltsverzeichnis

 

Was ist ein GPU-Server?

Wenn wir über die Leistung von Servern sprechen, beziehen wir uns meist auf den zentral installierten Prozessor, der auch CPU genannt wird. Es gibt jedoch eine andere Klasse von Servern, welche eine drastische Steigerung der Leistung bei komplexen Berechnungen bieten kann: GPU-Server. Im Unterschied zu herkömmlichen Servern führen GPU-Server den Großteil ihrer Berechnungen in Grafikprozessoren (graphics processing unit, GPU) durch. GPUs wurden ursprünglich entwickelt, um den Hauptprozessor eines Computers von grafischen Berechnungen zu entlasten. Inzwischen sind sie jedoch auch wichtige Bausteine für High Performance Computing (HPC).

Was ist der Unterschied zwischen GPUs und CPUs?

Wenn Unternehmen Ressourcen für High Performance Computing installieren, müssen sie sich entscheiden, auf welcher Art von Prozessoren die IT-Architektur basieren soll: CPUs oder GPUs?

CPUs sind das Herz jedes Computers. Sie sind als Allzweckwerkzeuge konstruiert, die eine Vielzahl von unterschiedlichen Aufgaben flexibel handhaben können, allerdings sind sie auf keine davon wirklich spezialisiert. CPUs sind daher wie ein Schweizer Taschenmesser, das viele Anwendungsmöglichkeiten vom Schraubenzieher bis zur Schere bietet – das aber durch ein spezialisiertes Werkzeug ersetzt werden sollte, wenn es darum geht, eine bestimmte Aufgabe sehr oft und sehr effizient durchzuführen.

GPUs dagegen sind dafür optimiert, unzählige Berechnungen parallel auszuführen. Daher enthalten sie eine extrem hohe Anzahl von Prozessorkernen, sogenannte Shader. Während eine CPU maximal 32 Prozessorkerne enthalten kann, finden sich in einer GPU bis zu 5.000 Shader. Allerdings ist der einzelne Shader deutlich leistungsschwächer als ein Prozessorkern einer CPU.

Die hohe Zahl der Shader versetzt GPUs in die Lage, sehr viele, gleichartige Operationen parallel auszuführen. Dadurch können Sie bestimmte Aufgaben schnell und kostengünstig abarbeiten. Das prädestiniert sie nicht nur für viele Grafikanwendungen wie beispielsweise Computer Aided Design (CAD), Rendering oder Grafik-intensive Applikationen aus der Unterhaltungsbranche. Es qualizifiziert sie auch für viel Prozesse im Bereich Maschine Learning – zum Beispiel für das Trainieren einer künstlichen Intelligenz (KI), bei denen oft große Datenmengen in möglichst kurzer Zeit verarbeitet werden müssen.

Man kann allerdings nicht pauschal sagen, dass GPUs besser für High Performance Computing geeignet sind als CPUs. Diese haben ihre Stärken, wo keine Parallelisierung nötig ist oder komplexe Funktionalität erwartet wird.

Welche Vorteile bieten GPU-Server aus der Cloud?

Unternehmen können GPUs im Bereich des High Performance Computings nutzen, um Big-Data-Modellierung und statistische Analysen durchzuführen. Besonders wichtig ist der Einsatz von GPUs in den Bereichen KI, Machine Learning und Visualisierung.

Allerdings haben die meisten Firmen hier einen sehr stark schwankenden Bedarf. Sie müssen daher Ressourcen vorhalten, welche sie den Großteil der Zeit nicht nutzen. Dies belastet das Budget der IT-Abteilung stark. Zudem muss diese Hardware gewartet und administriert werden.

Durch GPU-Server aus der Cloud können Firmen es vermeiden, teure Hardware anzuschaffen, die möglicherweise nur wenige Wochen im Jahr bei Volllast genutzt wird und deren Leistung ansonsten brachliegt.

Sie bieten Unternehmen die Möglichkeit, verfügbare Rechenleistung flexibel ihrem Bedarf anzupassen. Die Firmen buchen die benötigte Rechenleistung und bekommen sie sofort zur Verfügung gestellt. Um alle technischen Fragen, Administration und Wartung kümmert sich der Cloud-Anbieter. Ein weiterer Vorteil: Es ist nicht erforderlich, Hardware bei gestiegenen Anforderungen zu aktualisieren und durch neuere und schnellere Modelle zu ersetzen.

Wie können Unternehmen erkennen, ob HPC-Projekte besser für GPUs oder CPUs geeignet sind?

Wenn die Aufgabe die Bearbeitung von großen Mengen von Bild- oder Ton-Daten erfordert, ist dies ein Hinweis, dass GPUs wahrscheinlich besser geeignet sind. Beispiele sind das Erkennen von Straßenschildern und Fahrbahnmarkierungen beim autonomen Fahren oder das Identifizieren von Tumoren auf Bildern eines MRTs. Auch ein Blick in die Anforderungen der eingesetzten Softwarelösungen kann helfen – darin sind die Ansprüche an die IT-Architektur meist identifiziert. Fragen Sie einen Experten, wenn Sie sich unsicher sind. Die Berater der Open Telekom Cloud helfen Ihnen gerne.

Was bietet die Open Telekom Cloud bei GPU-Servern?

Bei uns können Sie Elastic Cloud Server – auch Virtual Machines genannt – mit GPU-optimierten Flavors buchen. Diese enthalten einen virtuellen Grafik-Chip, der auf Nvidia T4 (pi2-und g6-Flavor) und Nvidia V100-Karten (p2-, p2v- und p2s Flavor) basiert. Diese Karten eignen sich besonders für Anwendungen, die Bilder und Bewegtbilder verarbeiten, aber auch für kryptografische Aufgaben.

Unsere GPU-beschleunigte ECS werden in zwei Serien unterteilt: die G- und die P-Serie. Bei der G-Reihe handelt es sich um grafikbeschleunigte Server, die für 3D-Animationsrendering und CAD geeignet sind. Die P-Serie umfasst rechenbeschleunigte oder inferenzbeschleunigte Maschinen, die sich für Deep Learning, wissenschaftliche Berechnungen und CAE eignen.

Eine vollständige Dokumentation unsere GPU-beschleunigten Elastic Cloud Server finden Sie hier.

Für leistungsintensive Rechenoperationen mit dedizierter Hardware stehen unsere Bare Metal Server physical.p1 und physical.p2 zur Verfügung (Nvidia P100 und V100 GPU). Diese können für HPC-Szenarien oder Anwendungen mit erhöhten Anforderungen an den Datenschutz eingesetzt werden, die eine hohe GPU-Leistung ohne den Einsatz des Hypervisors bieten. Darüber hinaus verfügen beide BMS Flavor über eine InfiniBand-Schnittstelle mit bis zu 100 GBit/s, um die BMS GPU-Server in einem Cluster zu verbinden und eine maximale Bandbreite mit geringer Latenz zu nutzen.

Eine vollständige Dokumentation unsere GPU-beschleunigten Bare Metal Server finden Sie hier.

Die Elastic Cloud Sever und Bare Metal Server gibt es in drei Preiskonzepten:

  • Elastisch – stundengenaue Abrechnung
  • Reserved – rabattierte Monatstarife für Dauernutzung
  • Reserved Upfront – erhöhte Rabatte durch Vorabzahlung. Dabei sind die Lizenzkosten für das Betriebssystem in der jeweiligen Virtual Machine eingepreist.
Nutzen Sie unser Beratungsangebot!
Kostenlos und durch Experten.
Wir beantworten Ihre Fragen zu Testmöglichkeit, Buchung und Nutzung – kostenfrei und individuell. Probieren Sie es aus!
Hotline: 24 Stunden am Tag, 7 Tage die Woche
0800 33 04477aus Deutschland
+800 33 04 47 70aus dem Ausland
  • Communities

    Die Open Telekom Cloud Community

    Hier treffen sich Nutzer, Entwickler und Product Owner um sich zu helfen, auszutauschen und zu diskutieren.

    Jetzt entdecken 

  • Telefon

    Kostenfreie Experten-Hotline

    Unsere zertifizierten Cloud-Experten stehen Ihnen mit persönlichem Service zur Seite.

    0800 33 04477 (aus Deutschland)

    +800 33 04 47 70
     (aus dem Ausland)

    24 Stunden am Tag, 7 Tage die Woche

  • E-Mail

    Unser Kunden-Service steht Ihnen per E-Mail-Support kostenlos zur Verfügung.

    E-Mail schreiben