Die Open Telekom Cloud bietet Ihnen im Rahmen der AI Foundation Services Zugriff auf verschiedene LLMs, einen RAG-Dienst und den vorprogrammierten T-Systems Smart Chat. Die Services werden auf der Open Telekom Cloud vorgehalten und betrieben. Sie brauchen daher keine eigenen GPU-Ressourcen für deren Betrieb zu planen. Sie benötigen nur einen Open-Telekom-Cloud-Account und eine API, um darauf zuzugreifen.
Beim LLM-Serving-Service bieten wir Ihnen die Möglichkeiten der Nutzung des LLM in einer geteilten (kostengünstigeren) Variante sowie in einer „privaten“/dedizierten Variante nur für Ihr Unternehmen. Die angebotenen LLMs variieren. Als Modelle sind Mistral AI (Mistral, Nemo), Meta LLama (3.1 70B, CodeLlama2) und GPT 4 (OpenAI) verfügbar. Weitere LLMs wie GPT-4o, Claude 3, Gemini 1.5 Pro und andere Mistral-Varianten sind auf Anfrage verfügbar. Das macht Sie unabhängig von einem spezifischen LLM-Anbieter und bietet Ihnen die Möglichkeit, verschiedene LLMs auszuprobieren, um das für Ihren Use Case am besten geeignete (kostengünstigste und leistungsfähigste) zu identifizieren.
Auch der RAG-Service ist einfach via API verfügbar. Fügen Sie dem LLM Ihre passenden, internen Datenquellen hinzu, wählen Sie aus über 50 Retrieval-Settings und generieren Sie eine Vector-Datenbank, die in Ihrer unternehmenseigenen (privaten) Instanz der Open Telekom Cloud läuft. Der RAG-Service versteht verschiedene Datenformate (docx, pdf, xlsx, etc.), er kann auch Daten aus Diagrammen extrahieren. Der RAG-Ansatz bietet ein zusätzliches Maß an Sicherheit: Ihre Daten bleiben bei Ihnen.
Sie wollen noch schneller KI ausprobieren? Vielleicht ist unser gebrauchsfertiger T-Systems Smart Chat das Richtige für Sie. Aufbauend auf dem LLM-Serving-Service und der T-Systems Smart Chat API bietet der T-Systems Smart Chat eine browserbasierte Chat-Oberfläche, über die Sie Fragen in natürlicher Sprache zu ihren Dokumenten stellen können.
Im Rahmen eines Projekts können unsere Experten den Chat an Ihr spezifisches Einsatzszenario anpassen. Mit Ihren vertraulichen Dokumenten und Informationen als Wissensbasis entsteht so Ihr spezifischer KI-Assistent, z.B. für Recherche in Dokumenten-Pools, automatisierte Zusammenfassungen, vergleichende Analysen von Dokumenten, automatische Texterstellung und -optimierung.
Optimieren Sie Ihre KI-Modelle schnell und effizient mit unserem LLM Fine-Tuning-Service. Der Service ermöglicht es Ihnen, Open-Source-Modelle wie LLama 3.1 und Mistral individuell auf Ihre Anforderungen abzustimmen. Dank unserer API können Sie das Fine-Tuning entweder mit LoRA oder DPO (RLHF) basierten Methoden durchführen und dabei Ihre eigenen Trainingsdaten hochladen und danach das Fine Tuning automatisiert durchführen. Die API nach OpenAI-Standard sorgt für eine nahtlose Integration in bestehende Systeme und Arbeitsabläufe. Zudem können die trainierten Modelle flexibel auf einer gemeinsamen oder privaten Instanz bereitgestellt werden, je nachdem, was Ihren Anforderungen am besten entspricht. Erleben Sie, wie einfach und schnell Sie Ihre KI-Modelle anpassen und optimieren können.
Sprechen Sie uns an, erhalten Sie Ihre OpenAI-kompatible API und setzen Sie Ihren eigenen KI-Service auf.
Sie wollen mit KI, LLMs und RAG durchstarten? Nutzen Sie das Kontaktformular und erhalten Sie Ihre API-Keys. In wenigen Wochen wird auch unser Marketplace starten. Dann können Sie die API-Keys auch dort im Self-Service erhalten.