Der Elastic Cloud Server bietet jetzt die Pi2-Flavor für AI-bezogene mobile Dienste und Inferenzszenarien. Die Hauptanwendungsfälle sind GPU-Inferenzberechnungsszenarien wie Szenen-, Spracherkennung und Verarbeitung natürlicher Sprache. Leichte Trainingsszenarien werden ebenfalls unterstützt.
Die wichtigsten Funktionen sind:
- NVIDIA Tesla T4 GPU, max. Support von 4x T4 GPU Karten mit dem größten Flavor
- GPU Passthrough
- Max 8.1 TFLOPS pro single GPU
- 130 TOPS pro single GPU INT8
- 16 GB GDDR6 Graphic Mem pro GPU
- Bandbreite 300 GB/s
- Beinhaltet 1 NVENC und 2 NVDEC
Die unterstützten Deep-Learning-Frameworks sind:
- Tensorflow
- Caffe
- PyTorch
- MXNet
Die folgenden Betriebssystemabbilder werden derzeit unterstützt:
- Windows Server 2016 Standard 64bit
- CentOS 7.5 64bit
- Ubuntu Server 16.04 64bit
- Betriebssysteme wie Ubuntu Server 18.04 werden derzeit geklärt
Die folgenden Flavorgrößen werden zunächst nur in AZ 1 angeboten:
- Pi2.2xlarge.4 - 1 x T4 card (16 GB) - 8 vCPU - 32 GB memory
- Pi2.4xlarge.4 - 2 x T4 card (32 GB) - 16 vCPU - 64 GB memory
- Pi2.8xlarge.4 - 4 x T4 card (64 GB) - 32 vCPU - 128 GB memory
Weiter Informationen zu den Neuerungen finden Sie unter https://docs.otc.t-systems.com/ecs/index.html