Open Telekom Cloud für Geschäftskunden

Der fliegende Start in die Künstliche Intelligenz

von Redaktion
Digitale Darstellung der Seitenansicht eines Gesichtsprofils mit vernetzten Lichtpunkten
Die Cloud bietet passende Optionen für Künstliche Intelligenz – je nach Unternehmensanspruch und Strategie
 

In diesem Artikel lesen Sie,

• welche Möglichkeiten in der Cloud existieren, Künstliche Intelligenzen zu entwickeln,
• wie Sie vortrainierte Basismodelle dabei unterstützen
• und Sie via Github auf ein Large Language Model zugreifen können.

Generative KI (GenAI) war 2023 in aller Munde – und hat die Fantasie (vor allem vom Nicht-Experten) angeregt. Viele Unternehmen fabulieren über verschiedenste Einsatzszenarien Künstlicher Intelligenz (KI) und malen eine Science-Fiction-Welt, in der supersmarte Assistenten weitgehend autonom Entscheidungen fällen und Seite an Seite mit Menschen arbeiten. 

Aktuelle Use Cases für KI – produktivitätssteigernd, leistungsstark, aber unspektakulär 

Aber viele aktuelle Use Cases sind wenig spektakulär. Nichtsdestoweniger bringen sie ein gehöriges Maß an Produktivitätsgewinn. Sie nehmen Mitarbeitern lästige Aufgaben ab, die Arbeitszeit binden. Dazu gehören Zusammenfassungen von Dokumenten (-sammlungen) oder Meetings, die Suche nach relevanten Informationen in den Untiefen der Unternehmensablagen, das Vorbefüllen von Formularen oder das Erstellen von Programm-Code. Und diese Effizienzpotenziale können Unternehmen schon heute heben – auch ohne umfassendes, eigenes KI-Know-how. 

In KI einsteigen – auch ohne KI-Know-how?

Fehlendes Know-how – so die Analysten von PAC – ist momentan die zentrale Hürde auf dem Weg in die KI-Welt. Aber auch Unternehmen, die entsprechende Expertise vorhalten, stehen vor Herausforderungen wie: Woher nehmen wir die notwendigen Infrastruktur-Ressourcen, um eigene Modelle zu entwickeln und zu trainieren? Nicht nur hier kann die Cloud entscheidende Beiträge leisten. Entwickler bekommen die dringend benötigten Ressourcen wie GPUs kurzfristig und bedarfsgerecht bereitgestellt. Das Training von KI-Modellen ist einer der sinnvollsten Use Cases für die Cloud überhaupt.

KI-Strategie passend zum Unternehmen gestalten

Die Ausgangssituation für den Einsatz von KI ist also von Unternehmen zu Unternehmen unterschiedlich, wobei die Grenzen fließend sind. Mittlerweile gibt es ein reichhaltiges Portfolio von KI-Angeboten, allen voran Basismodelle wie Large Language Models (LLMs), die Unternehmen einsetzen können.

SaaS-Angebote bieten standardisierte Leistungen, die sich an die jeweiligen Unternehmensspezifika anpassen lassen, IaaS-Angebote adressieren Eigenentwickler, die die Aufwände für das Management von Infrastruktur-Ressourcen minimieren wollen. Dazwischen liegen PaaS-Dienste, die Frameworks für die KI-Entwicklung bieten, vortrainierte Basismodelle oder spezifische KI-Lösungsmodule vorhalten. 

Schnell zur KI-Lösung mit Cloud-Ressourcen

Gemeinsam mit ihren Partnern illustrierte die Open Telekom Cloud auf verschiedenen Events die Ansätze, sich dem Thema KI zu nähern. Im Blickpunkt stand dabei, wie Nutzer mithilfe von vorhandenen (Open Source) Services schnell zu einer funktionalen KI kommen. Infrastrukturressourcen aus der Cloud spielen dabei immer eine Rolle – doch sie verschwinden „unter der Motorhaube“. Was häufig übersehen wird: Nicht nur die Entwicklung eines KI-Basismodells erfordert große GPU-Ressourcen, sondern auch der Betrieb eines KI-Service braucht eine leistungsfähige Basis (ebenfalls mit GPUs). 

Infrastructure as a Service für individuelle KIs

„Die KI-Strategie muss zum Unternehmen passen. Entsprechend sollten die Services geplant werden, die aus einer Cloud bezogen werden“, erläutert Holger Schultheiß, Chief Product Owner der Open Telekom Cloud. Beim IaaS-Ansatz werden nur Infrastruktur-Ressourcen bezogen, z.B. um ein eigenes hochspezialisiertes KI-Modell zu entwickeln oder finezutunen. Das lohnt sich aber nur dann, wenn ein spezifischer herausragender Mehrwert entsteht und ausreichend passende Daten vorhanden sind. In jedem Fall ist bei Planung und Umsetzung die Beratung durch einen erfahrenen Partner wichtig.

Das gilt auch für eine weniger differenzierende „85-Prozent-Lösung“. „In der Regel braucht man dafür kein speziell trainiertes LLM, sondern ein gut entwickeltes System um ein (existierendes) LLM herum“, erklärt Dr. Tim Delbrügger, KI-Lead bei iits Consulting, „ob das ausreicht, klären wir üblicherweise in initialen Workshops, wo die Bedürfnisse der Kunden, die Datenlage und technische Umsetzungsmöglichkeiten evaluiert werden“. „Den größten Mehrwert generieren wir meist durch schnelle, direkte Integration von vortrainierter KI in die existierenden Geschäftsprozesse“, resümiert der KI-Experte. 

Software as a Service – der schnellste Weg für Standardszenarien

Den Gegenentwurf markiert der SaaS-Ansatz. Er richtet sich an Pragmatiker, die schnell die Potenziale von existierenden Standard-Lösungen für ihr Unternehmen einsetzen wollen. Ein Beispiel dafür ist eine KI-unterstützte Enterprise Search (wie beispielsweise die von amberSearch). Sie basiert im Wesentlichen auf zwei Komponenten. Ein vortrainiertes LLM (Large Language Model) mit einer grundlegenden Fähigkeit zu chatten wird mit einer RAG-Funktionalität (Retrieved Augmented Generation) verknüpft. Wenn sich das LLM mit einem Nutzer „unterhält“, greift es für diese Diskussion zusätzlich auf unternehmensinterne Datenbestände zurück und erlaubt so eine Diskussion im konkreten Unternehmenskontext – ohne dass die internen Daten in das Modell einfließen würden. Ein solcher Service, z.B. für das Auffinden von Informationen innerhalb des Unternehmens, lässt sich in wenigen Stunden realisieren.

Platform as a Service – KI-Baukasten effizient nutzen

„Der Allwetterreifen der KI sind PaaS-Angebote“, weiß Schultheiß. Basierend auf vorentwickelten und -trainierten Basismodulen (z.B. LLMs) können maßgeschneiderte KI-Lösungen entwickelt werden, die ohne Kompromisse ganz spezifisch an die Unternehmensanforderungen z.B. zu Vertraulichkeit angepasst sind. Zusätzlich ist eine nahtlose Integration in die Geschäftsprozesse möglich durch Anbindung verschiedener Drittsysteme.
Über einen LLM-Hub erhalten Entwickler zum Beispiel Zugriff auf Basismodelle, die einfach per API angesprochen und Infrastrukturen per Terraform hinzugefügt werden können.

„Durch Nutzung unserer vorgefertigten Terraform-Module kann ein Unternehmen sehr einfach loslegen, ein LLM aussuchen und beispielsweise mit einem Chatbot mit den eigenen Daten in der eigenen Infrastruktur sprechen“, resümiert KI-Experte Delbrügger.

Basismodelle clever einsetzen – und souverän

„Letzten Endes“, so Schultheiß, „dreht sich momentan alles um den richtigen Einsatz der vorhandenen Basismodelle“. Sie können weiter trainiert, finegetunt oder über RAG angereichert werden. Dabei gibt es verschiedene Bereitstellungsmodelle, die sich an den Sicherheitsbedürfnissen von Unternehmen orientieren. Will ein Unternehmen beispielsweise Code mithilfe eines LLM entwickeln, lohnt sich eine private Installation oder der Zugriff auf eine gesharte Variante in einer souveränen Cloud wie der Open Telekom Cloud. So kann sichergestellt werden, dass genutzte Daten im Haus verbleiben und erzeugte Ergebnisse rechtssicher erzeugtes geistiges Eigentum des Nutzers bleiben. 


Diese Inhalte könnten Sie auch interessieren
 

Darstellung vernetzter Lichtpunkte

Künstliche Intelligenz (KI)

Die Cloud bietet den bedarfsgerechten Zugriff auf Rechenressourcen, die den Ansprüchen gerecht werden – egal ob CPU, GPU oder Bare-Metal Server.

 
Hände tippen auf ein Tablet auf dem Röntgenbilder zu sehen sind

Fuse-AI: Krebs zuverlässig mit KI erkennen

Das Start-up Fuse-AI hat einen Algorithmus entwickelt, der Tumore erkennt. Dafür greifen die Gründer auf IT-Ressourcen aus der Open Telekom Cloud zurück.

 
Grafische Darstellung von Zahnrädern

ModelArts – umfassende Entwicklungsplattform für KI

ModelArts ermöglicht das Trainieren und Bereitstellen von KI-Modellen – für Benutzer ohne Programmierkenntnisse sowie Experten in der KI-Entwicklung. 

 
  • Communities

    Die Open Telekom Cloud Community

    Hier treffen sich Nutzer, Entwickler und Product Owner um sich zu helfen, auszutauschen und zu diskutieren.

    Jetzt entdecken 

  • Telefon

    Kostenfreie Experten-Hotline

    Unsere zertifizierten Cloud-Experten stehen Ihnen mit persönlichem Service zur Seite.

     0800 3304477 (aus Deutschland)

     
    +800 33044770 (aus dem Ausland)

     
    24 Stunden am Tag, 7 Tage die Woche

  • E-Mail

    Unser Kunden-Service steht Ihnen per E-Mail-Support kostenlos zur Verfügung.

    E-Mail schreiben 

  • AI Chat

    AIssistant

    Unsere KI-gestützte Suche hilft bei Ihrem Cloud-Anliegen.