CommunityDEENDEENProdukteCore ServicesRoadmapRelease NotesLeistungsbeschreibungZertifikate und TestatePrivate CloudManaged ServicesVorteileSicherheit/DSGVONachhaltigkeitOpenStackMarktführerPreisePreismodelleComputing & ContainerSpeicherNetzwerkDatenbank & AnalyseSicherheitManagement & ApplikationPreisrechnerLösungenBranchenGesundheitswesenÖffentlicher SektorWissenschaft & ForschungAutomotiveMedienunternehmenEinzelhandelAnwendungsfälleKünstliche IntelligenzHigh Performance ComputingBig Data & AnalyticsInternet of ThingsDisaster RecoveryData StorageKomplettlösungenCloud-Lösungen TelekomCloud-Lösungen PartnerSwiss Open Telekom CloudReferenzkundenPartnerCIRCLE PartnerTECH PartnerPartner werdenAcademyTrainings & ZertifizierungenEssentials TrainingFundamentals TrainingPractitioner Online-TrainingArchitect TrainingZertifizierungenCommunityCommunity BlogsCommunity EventsBibliothekStudien und WhitepaperWebinareBusiness NavigatorSupportExperten-SupportKI-ChatbotShared ResponsibilityRichtlinien für Sicherheitstests (Penetrationstests)Open Telekom Cloud AppTools zur SelbsthilfeErste SchritteTutorialStatus DashboardFAQTechnische DokumentationNewsBlogMessen & EventsFachartikelPresseanfragenCommunity

0800 3304477 24 Stunden am Tag, 7 Tage die Woche

E-Mail schreiben

Jetzt starten und 250 € Startguthaben sichern
ProdukteCore ServicesPrivate CloudManaged ServicesVorteilePreisePreismodellePreisrechnerLösungenBranchenAnwendungsfälleKomplettlösungenSwiss Open Telekom CloudReferenzkundenPartnerCIRCLE PartnerTECH PartnerPartner werdenAcademyTrainings & ZertifizierungenCommunityBibliothekBusiness NavigatorSupportExperten-SupportTools zur SelbsthilfeTechnische DokumentationNewsBlogMessen & EventsFachartikelPresseanfragen
  • 0800 330447724 Stunden am Tag, 7 Tage die Woche
  • E-Mail schreiben
Jetzt starten und 250 € Startguthaben sichern
 

High Performance Computing

Simulationen und Modellierungen brauchen – zum jeweiligen Modell passende – leistungsfähige Rechenressourcen. Solche Berechnungen sind aber meist temporär – eine Anschaffung der kostspieligen Hochleistungsrechner lohnt sich für einen punktuellen Einsatz nicht. Die Cloud bietet den bedarfsgerechten Zugriff auf Rechenressourcen, die den Ansprüchen gerecht werden – egal ob CPU, GPU, Bare Metal Server oder Super Computing. Und Nutzer zahlen nur, was sie verbrauchen.

Jetzt beraten lassenJetzt Open Telekom Cloud buchen
 

0 Wartezeit

Erweitern Sie die Grenzen Ihrer eigenen Umgebung und reduzieren Sie Wartezeiten

25,95 PetaFlops

Flexibel um 1 bis 720.000 Kernen wachsen und in individuellen hybriden Szenarien skalieren

30% günstiger

Inklusive aller Betriebskosten bereits ab 0,015€ / Kern / Stunde

 
Icon einer Cloud mit Server im Hintergrund

Welche Vorteile bietet HPC aus der Public Cloud?

  • Verkürzen Sie Durchlaufzeiten von technischen Simulationen oder Genomanalysen durch flexible Skalierung
  • Ressourcen können bedarfsgerecht genutzt werden, die Abrechnung erfolgt nur für genutzte Leistung – Keine Investitions- und Betriebskosten für Sie
  • Wählen Sie aus einer Vielzahl an aktuellen Technologien für Ihre Projekte – CPU, GPU, Bare Metal, FPGA etc.
Icon einer Fabrik mit Kachelsymbol im Hintergrund

Welche Branchen können Sie unterstützen?

  • Als großes Systemhaus ist uns keine Branche fremd
  • Mit tiefem Industrie Know-How stehen unsere Experten Ihnen in jeder Projektphase zur Seite
  • Beratung – Realisierung – Betrieb
Icon eines Tachos mit Diagramm im Hintergrund

Wie kann ich schnell und sicher auf Ressourcen zugreifen?

  • Mit dem Zugang zur Open Telekom Cloud haben Sie bereits Zugriff auf neueste CPU und GPU's
  • Ressourcen können automatisiert binnen weniger Minuten bereitgestellt werden
  • Limits eliminieren – Super Computing Ressourcen können in kurzer Zeit freigeschalten werden
 
 
Satellitenbild aus dem Copernicus Data Space Ecosystem

HPC für Copernicus Data Space Ecosystem

Das Copernicus Data Space Ecosystem ist eine der größten öffentlichen Plattformen für Erdbeobachtungsdaten der Welt. Für eine sichere und reibungslose Verarbeitung und Analyse der Daten stützt sich das Copernicus Data Space Ecosystem auf die leistungsfähigen Speicher- und Rechenressourcen aus der Open Telekom Cloud.

Mehr erfahren
 
 

T-Systems und High Performance Computing – Use Cases

Manufacturing & Engineering

Mit cloudbasierten HPC-Ressourcen können Fertigungsunternehmen für die numerische Simulation auf flexible und leistungsstarke Cluster zurückgreifen. Diese können nach Bedarf bereit gestellt werden um optimale Gesamtbetriebskosten (TCO) zu erzielen.


Use Case:

  • Design von Produkten
  • Design simulieren und Ergebnisse auswerten
  • Simulieren von komplexen Problemen


Infrastrukturen:

Wolke Open Telekom Cloud und Logo hww


Plattform:

  • Nur Infrastruktur
  • HPCaaS – customized Service by T-Systems


Software / Application:

Health

Cloudbasierte HPC-Ressourcen ermöglichen den flexiblen und sicheren Zugriff auf unbegrenzte Leistung für jede Entwicklung. AI und GPU gestützte Entwicklung kann dabei um das 10-fache beschleunigt werden.


Use Case:

  • Life-Science & personalisierte Medizin
  • Herz-Kreislauf Simulationen
  • Früherkennung von Tumoren


Infrastrukturen:

Wolkr Open Telekom Cloud und Logo hww


Plattform:

  • Nur Infrastruktur
  • HPCaaS – customized Service by T-Systems


Software / Application:

  • Partner
Pharma

Cloudbasierte HPC-Ressourcen ermöglichen den flexiblen und sicheren Zugriff auf unbegrenzte Leistung für jede Entwicklung. AI und GPU gestützte Entwicklung kann dabei um das 10-fache beschleunigt werden.


Use Case:

  • Genomanalyse & Proteinfaltung
  • Chemische Simulation
  • Life Science & personalisierte Medizin


Infrastrukturen:

Wolke Open Telekom Cloud und  Logo hww


Plattform:

  • Nur Infrastruktur
  • HPCaaS – customized Service by T-Systems


Software / Application:

  • Partner
Science & Research

Cloudbasierte HPC-Ressourcen ermöglichen den flexiblen und sicheren Zugriff auf unbegrenzte Leistung für jedes Forschungsprojekt.


Use Case:

  • Geoinformatik
  • Simulation in Chemie & Quantenmechanik
  • Materialforschung


Infrastrukturen:

Wolke Open Telekom Cloud und Logo hww


Plattform:

  • Nur Infrastruktur
  • HPCaaS – customized Service by T-Systems


Software / Application:

  • Scientific Computing by T-Systems
Finance & Insurance

Mit cloudbasierten HPC-Ressourcen können Finanzunternehmen, FinTech und Versicherungen für ihr Riskmanagement auf flexible und leistungsstarke Grid-Cluster zurückgreifen.


Use Case:

  • Risiko- und Marktanalysen
  • Portfolio-Stresstests sowie Asset Allocation
  • Ausreizen neuer Risikoalgorithmen


Infrastrukturen:

Wolke Open Telekom Cloud und Logo hww


Plattform:

  • Nur Infrastruktur
  • HPCaaS – customized Service by T-Systems


Software / Application:

  • Partner
Automotive

Mit cloudbasierten HPC-Ressourcen können Fertigungsunternehmen für die numerische Simulation auf flexible und leistungsstarke Cluster zurückgreifen. Diese können nach Bedarf bereit gestellt werden um optimale Gesamtbetriebskosten (TCO) zu erzielen.


Use Case:

  • Training von selbstfahrenden Autos
  • Design von Produkten
  • Design simulieren und Ergebnisse auswerten


Infrastrukturen:

Wolke Open Telekom Cloud und Logo hww
EDGE Logo


Plattform:

  • Nur Infrastruktur
  • HPCaaS – customized Service by T-Systems


Software / Application:

Media & Gaming

Mit cloudbasierten GPU und CPU Ressourcen können Medien- und Gaming-Firmen auf flexible und leistungsstarke Cluster zurück greifen. Entwicklung, Post-Processing, Rendering und Streaming von einer Umgebung bedient werden.


Use Case:

  • Rendering von Filmen und 3D-Produktionen
  • Transcoding von TV- und Video-Streams


Infrastrukturen:

Open Telekom Cloud Logo


Plattform:

  • Nur Infrastruktur
  • HPCaaS – customized Service by T-Systems


Software / Application:

  • Partner
Geology & Oil & Gas

Für alle seismischen Anwendungen gewappnet. Cloud-Speicher mit InfiniBand-Verbindung für High Performance Parallel File Systeme (Lustre, etc.) oder Server mit dedizierter CPU für mehr Performanz.


Use Case:

  • Erforschung des Meeresgrundes, von Gebirgen oder Höhlen
  • Vorhersagen von Erdbeben
  • Erkundung und Vorhersage neuer Rohstoffvorkommen


Infrastrukturen:

Wolke Open Telekom Cloud und Logo hww


Plattform:


Software / Application:

  • Partner
 

Unsere Kunden

CERN Logo
Copernicus Logo
European Synchrotron Radiation Facility Logo
 

Unsere Partner

Intel Xeon Logo
Adaptive Computing Logo
Mundi Web Services Logo
hww Logo
NVIDIA Logo
OpenStack Logo
 
 

High Performance Computing: Häufige Fragen und Antworten

Was ist High Performance Computing?

Unter dem Begriff High Performance Computing (HPC), zu Deutsch Hochleistungsrechnen, fasst man Technologien und Verfahren zusammen, mit denen sich komplexe Rechenaufgaben mit hoher Leistung ausführen lassen. Dafür “parallelisiert” man die Aufgaben meist: Das heißt, es werden viele Computer zu einem Cluster verbunden, die gleichzeitig an der Berechnung arbeiten. Typische Einsatzbereiche sind Wissenschaft und Forschung, Simulationstechnik, Künstliche Intelligenz oder die Berechnung von Grafiken.

Wann lohnt sich für Unternehmen der Einsatz von HPC-Ressourcen?

Klar, höhere Leistung kostet mehr Geld. Die Preise für Server für High Performance Computing sind höher als jene für universell einsetzbare Virtual Machines. Für Unternehmen stellt sich die Frage, ab wann sich diese zusätzlichen Kosten lohnen.

Leider gibt es keine Formel, mit der sich die Effektivität von High Performance Computing im Vergleich zu herkömmlichen IT-Ressourcen berechnen lässt. Letztlich entscheiden drei Aspekte darüber, ob es sich für Unternehmen lohnt, auf spezielle HPC-Technologie zurückzugreifen:

  • Die Datenmenge, die es zu verarbeiten gilt.
  • Die zur Verfügung stehende Zeit.
  • Die Komplexität der Aufgabe.

Am besten ist es daher, sich den Rat von Experten einzuholen. Unsere Berater stehen Ihnen mit Ihrer Erfahrung zur Verfügung und unterstützen Ihr IT-Team dabei, die benötigten Cloud-Ressourcen in Betrieb zu nehmen.

Welche Möglichkeiten gibt es für den Betrieb von HPC-Clustern?

Um die für High Performance Computing notwendige Rechenleistung zu erreichen, schließt man eine Vielzahl von Servern zu einem sogenannten HPC-Cluster zusammen. Gemeinsam können diese die Rechenleistung eines Supercomputers erreichen. Für Unternehmen, die ein solches Cluster betreiben wollen, gibt es drei Szenarien der Umsetzung:

  • All Cloud: Das Cluster läuft vollständig in der Cloud.
  • On-premise: Das HPC-Cluster wird komplett in einem eigenen Rechenzentrum betrieben.
  • Cloud Bursting: Es wird in einem eigenen Rechenzentrum betrieben, bei Lastspitzen wird jedoch auf Reserven in der Public Cloud zurückgegriffen. 

Am häufigsten nutzen Unternehmen HPC-Ressourcen im sogenannten Bursting-Szenario. Dabei verwenden sie die Public Cloud praktisch als Überlaufbecken oder Ergänzung der eigenen IT-Ressourcen in einem hybriden Cloud-Modell: Sie greifen so lange auf die eignen IT-Kapazitäten zurück, bis sie voll ausgelastet sind. Ressourcen, die die eigene IT-Abteilung nicht bereitstellen kann, sowie Workloads, die hoch spezialisierte IT-Ressourcen verlangen, verlagern sie je nach Bedarf in die Cloud. Dabei bezahlen sie HPC-Ressourcen nur so lange, wie benötigt.

Was ist der Unterschied zwischen herkömmlichen Cloud-Ressourcen und Angeboten für HPC?

High Performance Computing stellt besonderen Anforderungen an eine Cloud-Infrastruktur, die General-Purpose-Angebote meist nicht erfüllen können. 

Nicht-spezialisierte Cloud-Angebote sind darauf optimiert, attraktiv und kosteneffizient für eine möglichst große Anzahl von Kunden zu sein. Diese legen in der Regel einen großen Wert darauf, dass sie ihr gebuchtes Cloud-Angebot schnell und unkompliziert an ihre sich ändernden Bedürfnisse anpassen können. Das erreichen die Anbieter durch ein hohes Maß an Virtualisierung – das heißt, der Kunde bucht nicht einen physischen Server, sondern eine virtuelle Maschine, die durch Software simuliert wird. Dabei teilen sich oft mehrere Kunden die Rechenleistung eines realen, physischen Servers. Virtualisierung macht die Flexibilität, Kosteneffizienz und Skalierbarkeit von Cloud-Angeboten möglich. Sie schränkt aber auch die Performance ein, da die physischen Computer mehr Software-Layer zu bespielen haben.

Um möglichst viel Leistung aus der Hardware rausholen, setzen Cloud-Angebote für High Performance Computing meist auf dedizierte Ressourcen, die „näher am Metall“ sind, also weniger Virtualisierungs-Ebenen enthalten. Zudem stellen Sie meist optimierte Hardware bereit, also leistungsfähigere Prozessoren und Netzwerk-Verbindungen.

Häufig nutzt man für HPC-Aufgaben zum Beispiel Server, die mit zusätzlichen Graphics Processing Units (GPUs) ausgestattet sind. Diese wurden ursprünglich entwickelt, um den Hauptprozessor eines Computers von grafischen Berechnungen zu entlasten. Typische Anwendungsfälle für GPUs sind zum Beispiel grafikintensive Anwendungen aus der Unterhaltungsbranche. Daher enthalten sie eine große Zahl von Prozessorkernen, so genannter Shader, die viele gleichförmige Berechnungen parallel ausführen können. Das macht sie gleichzeitig ideal für Anwendungen in den Bereichen Machine Learning oder künstliche Intelligenz. Die Open Telekom Cloud bietet zum Beispiel GPU-beschleunigte Elastic Cloud Server der Flavors p2, p2v, g6 und pi2, sowie Bare Metal Server physical.p1 und physical.p2, die auf Nvidia P100-, V100-, oder T4-GPUs basieren.

Allerdings gibt es Problemstellungen, für die GPUs aufgrund ihrer hoch spezialisierten Architektur nicht infrage kommen. Für diese Fälle bietet die Open Telekom Cloud virtuelle Maschinen und Bare Metal Server der Kategorie High Performance, bei denen der Großteil der Berechnungen in einer leistungsfähigen CPU (central processing unit) durchgeführt wird. Sie sind beispielsweise für Hochleistungsszenarien wie aufwändige Simulationen gedacht. Dazu zählen etwa virtuelle Versuche mit chemischen Reaktionen, Simulationen von Luftströmungen oder Crash-Tests. Für diese Anwendungsfälle hält die Open Telekom Cloud Bare Metal Server physical.h2 oder Elastic Cloud Server der Flavors hl1 und h2 bereit. Diese enthalten eine hohe Anzahl von CPU-Cores.

Wie schnell muss die Netzwerkverbindung für HPC sein?

In der Regel schließen Unternehmen ihre Standorte mit einem schnellen und sicheren Weitverkehrsnetz (WAN) an das eigene Rechenzentrum an. Doch um von HPC-Kapazitäten aus der Public Cloud profitieren zu können, muss das unternehmenseigene WAN mit einer möglichst schnellen Verbindung angeschlossen sein.

Die Frage ist, wie schnell diese sein muss. Um dies beantworten, ist es entscheidend zu wissen, wie groß die Datenmengen sind, die in die Cloud verlagert werden sollen.

Bei seismischen Untersuchungen bei der Suche nach Erdöl- und Gasvorkommen entstehen zum Beispiel Datensätze, die hunderte Gigabytes oder gar Terabytes erreichen können. Diese Datenmengen in die Cloud hochzuladen, kann auch mit einer schnellen Verbindung lange dauern. So braucht es beispielsweise mehr als 22 Stunden, um ein Terabyte Daten mit einer Übertragungsgeschwindigkeit von 100 Mbit/s in die Cloud zu laden.

Muss es schneller gehen, sollten Unternehmen auf eine Direktanbindung wie Direct Connect und Private Link Access Service (PLAS) zugreifen. Damit sind Übertragungsraten in die Open Telekom Cloud von bis zu 10 Gbit/s möglich. So reduziert sich die Zeit für den Upload von einem Terabyte Daten von 22 Stunden auf nur noch 13 Minuten.

Oft zeigt sich, dass die erforderliche Datenmenge in der Praxis weniger ausfällt, als zuvor angenommen wird. Für die Simulation neuer Werkstoffe zum Beispiel müssen nur rund 100 bis 200 MB Daten in die Cloud. Allerdings entstehen bei der Berechnung wiederum bis zu 100 Gigabyte – davon müssen jedoch lediglich 10 GB wieder als Ergebnis zurück ans Unternehmen.

Wann stößt HPC aus der Cloud an seine Grenzen?

Manche Aufgaben sind derart komplex, dass sie die Fähigkeiten von HPC aus der Cloud übersteigen. Wenn die Größe des Workloads mehr 1.000 X86-Rechenkerne verlangt, stößt man mit der aktuell eingesetzten Technologie an eine Grenze. Der Hauptgrund für diese Limitierung sind winzige Verzögerungen in den Netzwerken, welche die Prozessoren verbinden: Je komplexer das System wird, desto mehr Verbindungen sind notwendig und desto mehr summieren sich die Verzögerungen – bis das Hinzufügen weitere Rechenkerne nicht mehr zu einem spürbaren Anstieg der Rechenleistung führt. Eine verzögerungsfreie Vernetzung in derart komplexen Systemen sicherzustellen, übersteigt die Möglichkeiten der Infrastruktur einer General-Purpose-Cloud. Für diese Aufgabe kann die Open Telekom Cloud Zugriff auf die Ressource des Höchstleistungsrechenzentrums Stuttgart (HLRS) geben.

Welche Supercomputer lassen sich über die Open Telekom Cloud nutzen?

Unsere Rechenzentren in Biere und Magdeburg sind über eine Standleitung mit dem Höchstleistungsrechenzentrum Stuttgart (HLRS) verbunden, das T-Systems, die Porsche AG und das Karlsruher Institut für Technologie (KIT) gemeinsam betreiben. Dessen Architektur wurde für Supercomputing optimiert und kann Workloads mit derzeit bis zu 180.000 Kernen abarbeiten, also bis zu 180-mal komplexer oder schneller als es ein HPC-Cluster in der Public Cloud vermag. Somit kann die Open Telekom Cloud Unternehmen Zugang zu einem Supercomputer geben, der mit ihrem Bedarf flexibel skaliert. Denn genau wie die High-Performance-Computing-Ressourcen aus der Open Telekom Cloud können Unternehmen die HLRS-Ressourcen bedarfsgerecht buchen.

Dabei bietet die Open Telekom Cloud auch Zugriff auf einen der schnellsten Rechner Deutschlands. Der Supercomputer Hawk ist ausgestattet mit 720.896 CPU-Kernen und steht seit Anfang 2020 auf dem Campus der Universität Stuttgart. Nach Angaben des Betreibers generiert er 27 Billiarden Rechenoperationen pro Sekunde und besitzt eine Hauptspeicherkapazität von 1,4 Petabyte.

Welche HPC-Softwares unterstützt die Open Telekom Cloud?

Für HPC-Anwendungen wird spezialisierte HPC-Soft- und Middleware benötigt. Wenn Unternehmen HPC-Ressourcen bereits on-premise nutzen, können sie die entsprechende Software oft weiterverwenden, wenn sie zusätzliche Kapazitäten aus der Cloud buchen. Dafür ist die Voraussetzung, dass ihre Software auch von ihrem Cloud-Provider unterstützt wird.

Die HPC-Infrastruktur der Open Telekom Cloud ist zum Beispiel mit Anwendungen von Altair kompatibel. Diese Plattform ist eine Art Kommandozentrale für HPC-Administratoren. Damit können sie in jeder Cloud – egal ob public, private oder hybrid – HPC-Anwendungen bereitstellen, verwalten und optimieren.

 Darüber hinaus unterstützt die Open Telekom Cloud unter anderem Moab Cloud/NODUS Cloud Bursting. Weitere unterstütze HPC-Softwares sind UNIVA, SGE, IntelMPI sowie SpectrumMPI, aber auch Open-Source-Dienste wie OpenMPI oder SLURM. 

Welche Rolle spielen Zertifikate bei HPC-Lösungen aus der Cloud? 

Neben der richtigen Software sollten Unternehmen außerdem auf wichtige Zertifikate achten. Unternehmen aus der Automobilindustrie dürfen beispielsweise IT-Kapazitäten ohne ein TISAX 3-Zertifikat (Trusted Information Security Assessment Exchange) nicht verwenden – unter anderem, weil dieses Zertifikat besonders hohe Standards in Bezug auf IT-Security nachweist. 

Neben weiteren Zertifikaten besitzt die Open Telekom Cloud auch das CSA Star Level 2 der Cloud Security Alliance sowie das Trusted-Cloud-Zertifikat des Bundesministeriums für Wirtschaft und Energie. Eine Übersicht unserer Zertifizierungen finden sie hier.

Wie wichtig sind Sicherheit und Datenschutz für HPC?

Sehr häufig sind Daten, die mit High Performance Computing verarbeitet werden, unternehmenskritisch oder personenbezogen. Daher müssen die eingesetzten Cloud-Lösungen ein hohes Maß an IT-Security und Datenschutz erfüllen.

Die Open Telekom Cloud zum Beispiel hat Zertifizierung nach TCDP 1.0 (Trusted Cloud Data Protection Profile) und BSI C5. Das bescheinigt ihr, aktuell als eines der wenigen Cloud-Angebote am Markt rechtskonforme Zertifizierung für Datenschutz und Informationssicherheit zu haben. 

Auch viele branchenspezifische Bestimmungen erfüllt die Open Telekom Cloud. So erleichtert sie zum Beispiel das sichere Verarbeiten der Daten von Berufsgeheimnisträgern wie Rechtsanwälten oder Ärzten nach § 203 StGB oder von Sozialdaten zum Beispiel von Krankenversicherungen oder ärztlichen Verrechnungsstellen nach § 35 SGB I.

Für viele Unternehmen ist zudem aus datenschutzrechtlichen Gründen auch der Sitz des Cloud-Providers bedeutend. Denn sie wollen Risiken vermeiden, die sich aus dem Urteil Schrems II des Europäischen Gerichtshof ergeben. Das untersagt die Übermittlung von Daten in Drittländer, wenn dort nicht eine für EU-Standards gleichwertiger Datenschutz gewährleistet ist. Dabei ist nicht nur der Standort der Server relevant, sondern auch die Niederlassung des Managements des Cloud-Providers.

Daher vertrauen viele Unternehmen personenbezogene oder Wettbewerbs-entscheidende Daten daher lieber europäischen Providern wie der Open Telekom Cloud an, die eigene Rechenzentren in Sachsen-Anhalt und in den Niederlanden betreibt und sich unter europäischem Management befinden.

 

Weitere Informationen zur HPC Cloud für Sie


Relevante Produkte

Die Open Telekom Cloud Community

Hier treffen sich Nutzer, Entwickler und Product Owner um sich zu helfen, auszutauschen und zu diskutieren.

Jetzt entdecken  

Kostenfreie Experten-Hotline

Unsere zertifizierten Cloud-Experten stehen Ihnen mit persönlichem Service zur Seite.

 0800 3304477 (aus Deutschland)

 +800 33044770 (aus dem Ausland)

 24 Stunden am Tag, 7 Tage die Woche

E-Mail schreiben

Unser Kunden-Service steht Ihnen per E-Mail-Support kostenlos zur Verfügung.

E-Mail schreiben 

AIssistant

Unsere KI-gestützte Suche hilft bei Ihrem Cloud-Anliegen.