MarketplaceCommunityDEENDEENProdukteCore ServicesRoadmapRelease NotesLeistungsbeschreibungZertifikate und TestatePrivate CloudManaged ServicesVorteileSicherheit/DSGVONachhaltigkeitOpenStackMarktführerPreisePreismodelleComputing & ContainerSpeicherNetzwerkDatenbank & AnalyseSicherheitManagement & ApplikationPreisrechnerLösungenBranchenGesundheitswesenÖffentlicher SektorWissenschaft & ForschungAutomotiveMedienunternehmenEinzelhandelAnwendungsfälleKünstliche IntelligenzHigh Performance ComputingBig Data & AnalyticsInternet of ThingsDisaster RecoveryData StorageKomplettlösungenCloud-Lösungen TelekomCloud-Lösungen PartnerSwiss Open Telekom CloudReferenzkundenPartnerCIRCLE PartnerTECH PartnerPartner werdenAcademyTrainings & ZertifizierungenEssentials TrainingFundamentals TrainingPractitioner Online-TrainingArchitect TrainingZertifizierungenCommunityCommunity BlogsCommunity EventsBibliothekStudien und WhitepaperWebinareBusiness NavigatorMarketplaceSupportExperten-SupportKI-ChatbotShared ResponsibilityRichtlinien für Sicherheitstests (Penetrationstests)Open Telekom Cloud AppTools zur SelbsthilfeErste SchritteTutorialStatus DashboardFAQTechnische DokumentationNewsBlogMessen & EventsFachartikelPresseanfragenMarketplaceCommunity

0800 3304477 24 Stunden am Tag, 7 Tage die Woche

E-Mail schreiben

Jetzt starten und 250 € Startguthaben sichern
ProdukteCore ServicesPrivate CloudManaged ServicesVorteilePreisePreismodellePreisrechnerLösungenBranchenAnwendungsfälleKomplettlösungenSwiss Open Telekom CloudReferenzkundenPartnerCIRCLE PartnerTECH PartnerPartner werdenAcademyTrainings & ZertifizierungenCommunityBibliothekBusiness NavigatorMarketplaceSupportExperten-SupportTools zur SelbsthilfeTechnische DokumentationNewsBlogMessen & EventsFachartikelPresseanfragen
  • 0800 330447724 Stunden am Tag, 7 Tage die Woche
  • E-Mail schreiben
Jetzt starten und 250 € Startguthaben sichern

AI Foundation Services

Large Language Models (LLMs) auf der Open Telekom Cloud
 

Nutzen Sie LLMs!

Künstliche Intelligenz (KI) hat die Business-Welt revolutioniert. Die Technologie bietet effiziente Lösungen für akute Business-Herausforderungen. Sie erhöht die Produktivität von Mitarbeitern massiv und erlaubt die Automatisierung von vielen Vorgängen. Viele Unternehmen nutzen heute schon KI für Enterprise Knowledge Management und Enterprise Search, für Internet-Recherchen zu spezifischen Themen, für die Kundenbetreuung in Service-Hotlines, Trainings, Evaluierungen etc.

 
 

Der Einsatz von LLMs mit RAG verkürzt die Zeit zum fertigen KI-Service um 60 bis 70 Prozent.

AI Foundation Services erlauben den kostengünstigen Einsatz von LLMs.

 
 
 

GenAI und RAG – der schnelle Weg zum Ziel

Besonders seit 2022 hat Generative KI (GenAI) von sich Reden gemacht. Mit GenAI können vorgefertigte KI-Bausteine schnell und einfach in spezifischen Unternehmenslösungen eingesetzt werden – ohne dass aufwändige Trainings nötig wären. Das Geheimnis hinter GenAI sind Large Language Models (LLMs), die bereits ein umfassendes KI-Training durchlaufen haben und nur noch an einen spezifischen Unternehmenskontext oder ein individuelles Einsatzszenario angepasst werden müssen.  

Das lässt sich einfach über einen RAG-Ansatz realisieren. RAG steht für Retrieval Augmented Generation. Dabei werden interne Datenquellen an das trainierte LLM gekoppelt. Die KI erhält das spezifische Wissen, das sie für ihren Einsatz braucht. Im Markt existiert eine Fülle derartiger LLMs, die für bestimmte Szenarien optimiert sind. Manche sind proprietär, manche Open Source. 

 
 

Sie wollen mit LLMs schnell einen eigenen KI-Service entwickeln?

Die Open Telekom Cloud bietet Ihnen im Rahmen der AI Foundation Services Zugriff auf verschiedene LLMs, einen RAG-Dienst und den vorprogrammierten T-Systems Smart Chat. Die Services werden auf der Open Telekom Cloud vorgehalten und betrieben. Sie brauchen daher keine eigenen GPU-Ressourcen für deren Betrieb zu planen. Sie benötigen nur einen Open-Telekom-Cloud-Account und eine API, um darauf zuzugreifen.

Infografik AI Foundation Services: Entwickeln Sie eigene KI-Services
 

LLM Serving Service API

Beim LLM-Serving-Service bieten wir Ihnen die Möglichkeiten der Nutzung des LLM in einer geteilten (kostengünstigeren) Variante sowie in einer „privaten“/dedizierten Variante nur für Ihr Unternehmen. Die angebotenen LLMs variieren. Als Modelle sind Mistral AI (Mistral, Nemo), Meta LLama (3.1 70B, CodeLlama2) und GPT 4 (OpenAI) verfügbar. Weitere LLMs wie GPT-4o, Claude 3, Gemini 1.5 Pro und andere Mistral-Varianten sind auf Anfrage verfügbar. Das macht Sie unabhängig von einem spezifischen LLM-Anbieter und bietet Ihnen die Möglichkeit, verschiedene LLMs auszuprobieren, um das für Ihren Use Case am besten geeignete (kostengünstigste und leistungsfähigste) zu identifizieren. 

Smart Chat API

Auch der RAG-Service ist einfach via API verfügbar. Fügen Sie dem LLM Ihre passenden, internen Datenquellen hinzu, wählen Sie aus über 50 Retrieval-Settings und generieren Sie eine Vector-Datenbank, die in Ihrer unternehmenseigenen (privaten) Instanz der Open Telekom Cloud läuft. Der RAG-Service versteht verschiedene Datenformate (docx, pdf, xlsx, etc.), er kann auch Daten aus Diagrammen extrahieren. Der RAG-Ansatz bietet ein zusätzliches Maß an Sicherheit: Ihre Daten bleiben bei Ihnen. 

 

T-Systems Smart Chat

Sie wollen noch schneller KI ausprobieren? Vielleicht ist unser gebrauchsfertiger T-Systems Smart Chat das Richtige für Sie. Aufbauend auf dem LLM-Serving-Service und der T-Systems Smart Chat API bietet der T-Systems Smart Chat eine browserbasierte Chat-Oberfläche, über die Sie Fragen in natürlicher Sprache zu ihren Dokumenten stellen können.

Im Rahmen eines Projekts können unsere Experten den Chat an Ihr spezifisches Einsatzszenario anpassen. Mit Ihren vertraulichen Dokumenten und Informationen als Wissensbasis entsteht so Ihr spezifischer KI-Assistent, z.B. für Recherche in Dokumenten-Pools, automatisierte Zusammenfassungen, vergleichende Analysen von Dokumenten, automatische Texterstellung und -optimierung.

Coming soon: Fine Tuning API

Optimieren Sie Ihre KI-Modelle schnell und effizient mit unserem LLM Fine-Tuning-Service. Der Service ermöglicht es Ihnen, Open-Source-Modelle wie LLama 3.1 und Mistral individuell auf Ihre Anforderungen abzustimmen. Dank unserer API können Sie das Fine-Tuning entweder mit LoRA oder DPO (RLHF) basierten Methoden durchführen und dabei Ihre eigenen Trainingsdaten hochladen und danach das Fine Tuning automatisiert durchführen. Die API nach OpenAI-Standard sorgt für eine nahtlose Integration in bestehende Systeme und Arbeitsabläufe. Zudem können die trainierten Modelle flexibel auf einer gemeinsamen oder privaten Instanz bereitgestellt werden, je nachdem, was Ihren Anforderungen am besten entspricht. Erleben Sie, wie einfach und schnell Sie Ihre KI-Modelle anpassen und optimieren können.

 

Sprechen Sie uns an, erhalten Sie Ihre OpenAI-kompatible API und setzen Sie Ihren eigenen KI-Service auf.

Kontakt aufnehmen
 
 

Mehr Souveränität geht kaum

Mit dem Betrieb und der Entwicklung Ihres KI-Services auf der umfassend zertifizierten, europäischen Open Telekom Cloud erfüllen Sie alle gängigen regulatorischen Anforderungen. Insbesondere kann die Open Telekom Cloud auch Sozialdaten verarbeiten und ist für Berufsgeheimnisträger nutzbar. Der RAG-Ansatz mit der privaten Instanz gibt Ihnen volle Kontrolle über Ihre (sensiblen) Daten. Mehr Souveränität beim KI-Einsatz lässt sich in der Public Cloud kaum realisieren.

 
 

Wie erhalten Sie Ihren API-Key?

Sie wollen mit KI, LLMs und RAG durchstarten? Nutzen Sie das Kontaktformular und erhalten Sie Ihre API-Keys. In wenigen Wochen wird auch unser Marketplace starten. Dann können Sie die API-Keys auch dort im Self-Service erhalten.

 

Jetzt kontaktieren und API-Key erhalten

Entschuldigen Sie bitte, Ihre Telefonnummer scheint nicht korrekt zu sein. Beachten Sie bitte, dass sie mindestens vier Ziffern enthalten muss. Nullen am Anfang werden nicht berücksichtigt.
Ihre Telefonnummer scheint nicht korrekt zu sein. Bitte beachten Sie, dass die maximale Länge 26 Zeichen lang sein darf.
Bitte beachten Sie, dass nur die Ziffern 0 bis 9 verwendet werden dürfen.

* Pflichtfelder

 

Die Open Telekom Cloud Community

Hier treffen sich Nutzer, Entwickler und Product Owner um sich zu helfen, auszutauschen und zu diskutieren.

Jetzt entdecken  

Kostenfreie Experten-Hotline

Unsere zertifizierten Cloud-Experten stehen Ihnen mit persönlichem Service zur Seite.

 0800 3304477 (aus Deutschland)

 +800 33044770 (aus dem Ausland)

 24 Stunden am Tag, 7 Tage die Woche

E-Mail schreiben

Unser Kunden-Service steht Ihnen per E-Mail-Support kostenlos zur Verfügung.

E-Mail schreiben 

AIssistant Cloudia

Unsere KI-gestützte Suche hilft bei Ihrem Cloud-Anliegen.