MarketplaceCommunityDEENDEENProdukteCore ServicesRoadmapRelease NotesLeistungsbeschreibungZertifikate und TestatePrivate CloudManaged ServicesVorteileSicherheit/DSGVONachhaltigkeitOpenStackMarktführerPreisePreismodelleComputing & ContainerSpeicherNetzwerkDatenbank & AnalyseSicherheitManagement & ApplikationPreisrechnerLösungenBranchenGesundheitswesenÖffentlicher SektorWissenschaft & ForschungAutomotiveMedienunternehmenEinzelhandelAnwendungsfälleKünstliche IntelligenzHigh Performance ComputingBig Data & AnalyticsInternet of ThingsDisaster RecoveryData StorageKomplettlösungenCloud-Lösungen TelekomCloud-Lösungen PartnerSwiss Open Telekom CloudReferenzkundenPartnerCIRCLE PartnerTECH PartnerPartner werdenAcademyTrainings & ZertifizierungenEssentials TrainingFundamentals TrainingPractitioner Online-TrainingArchitect TrainingZertifizierungenCommunityCommunity BlogsCommunity EventsBibliothekStudien und WhitepaperWebinareBusiness NavigatorMarketplaceSupportExperten-SupportKI-ChatbotShared ResponsibilityRichtlinien für Sicherheitstests (Penetrationstests)Open Telekom Cloud AppTools zur SelbsthilfeErste SchritteTutorialStatus DashboardFAQTechnische DokumentationNewsBlogMessen & EventsFachartikelPresseanfragenMarketplaceCommunity

0800 3304477 24 Stunden am Tag, 7 Tage die Woche

E-Mail schreiben

Jetzt starten und 250 € Startguthaben sichern
ProdukteCore ServicesPrivate CloudManaged ServicesVorteilePreisePreismodellePreisrechnerLösungenBranchenAnwendungsfälleKomplettlösungenSwiss Open Telekom CloudReferenzkundenPartnerCIRCLE PartnerTECH PartnerPartner werdenAcademyTrainings & ZertifizierungenCommunityBibliothekBusiness NavigatorMarketplaceSupportExperten-SupportTools zur SelbsthilfeTechnische DokumentationNewsBlogMessen & EventsFachartikelPresseanfragen
  • 0800 330447724 Stunden am Tag, 7 Tage die Woche
  • E-Mail schreiben
Jetzt starten und 250 € Startguthaben sichern

Dokumentenextraktion mittels KI und Open Telekom Cloud

von Redaktion
Die Open Telekom Cloud ermöglicht durch leistungsstarke Infrastruktur und Large Language Models (LLMs) eine schnelle und präzise Verarbeitung von Dokumenten – von der Analyse bis zur Ausgabe strukturierter Daten.
 

Ein Gastbeitrag von Dr. Tim Delbrügger,  Head of AI & IoT bei iits-consulting und Jonathan Eschbach, Senior AI Engineer bei iits-consulting

In diesem Artikel lesen Sie,

  • wie eine KI auf Basis von Open Source LLMs bei Ausschreibungen unterstützt,
  • wie sie ihre Ergebnisse selbst kontrolliert
  • und wie Sie selbst mit KI experimentieren können.


Künstliche Intelligenz (KI), insbesondere Generative KI und KI-basierte Chatbots wie ChatGPT, sind heute aus unserem Alltag kaum noch wegzudenken. Sie finden sich in Navigationsgeräten, übernehmen Recherche-Aufgaben oder erstellen Texte. Sie bieten eine beeindruckende Bandbreite an Anwendungsmöglichkeiten – von der Beantwortung allgemeiner Fragen bis hin zur Unterstützung in spezialisierteren Bereichen.

Besonders im Unternehmensumfeld ergeben sich jedoch spezifische Anforderungen und Herausforderungen, die eine einfache Nutzung solcher KI-Tools erschweren.  Insbesondere stellen sich dabei die folgenden Fragen:

  1. Wie können KIs unternehmensspezifische Informationen nutzen, um gezielte Antworten auf unternehmensrelevante Fragen zu liefern?  
  2. Wie kann ich sicherstellen, dass die Antworten der KI vertrauenswürdig sind?
  3. Wie kann ich sicherstellen, dass meine sensiblen Unternehmensdaten geschützt bleiben, datenschutzkonform verarbeitet werden und innerhalb Deutschlands verbleiben?


Ein Lösungsansatz hierfür ist der Einsatz sogenannter Retrieval-Augmented-Generation-Systeme (RAG). Diese Systeme ermöglichen es, Sprachmodelle mit fachspezifischen Daten anzureichern, um präzise und relevante Antworten auf spezifische Fragen zu generieren. Dabei bleibt die Vertraulichkeit der Unternehmensinformationen gewahrt, da die Daten in kontrollierten Umgebungen verarbeitet werden.

Beispiel: Ausschreibungsdokumente und KI-basierte Antworten

Beispielhafter Ausschnitt aus einem Ausschreibungsdokument
Beispielhafter Ausschnitt aus einem Ausschreibungsdokument
 

Ein gängiges Anwendungsbeispiel im Unternehmensumfeld wäre die Auswertung von Ausschreibungsdokumenten. Stellen wir uns vor, ein Landkreis veröffentlicht ein umfangreiches Dokument über die Vergabebedingungen für den Glasfaser-Ausbau, beispielsweise mit 22 Seiten Text und weiteren referenzierten Dokumenten. Eine solche Ausschreibung enthält zahlreiche wichtige Informationen, wie etwa Fristen, Anforderungen und Vertragsbedingungen. Die Teilnahme an Ausschreibungen generiert substanzielle Aufwände im Unternehmen. Ein wichtiger Entscheidungsfaktor über eine Teilnahme ist daher die Gewinnwahrscheinlichkeit. Hierzu kann die Extraktion von bestimmten Fakten aus dem Dokument sehr hilfreich sein, wie beispielsweise die genannten Fristen für Angebotsabgabe oder Realisierung. 

Hier kommt das RAG-System ins Spiel. Mithilfe eines solchen Systems können große Sprachmodelle (LLMs) gezielt mit dem Dokument „gefüttert“ werden. Die relevanten Informationen aus der Datenquelle – in diesem Fall das Ausschreibungsdokument – werden mit an das Modell geschickt, sodass präzise Antworten auf spezielle Fragen möglich werden. Stellen wir beispielsweise die Frage „Wie lautet das Datum für die Angebotsfrist?“, so könnte das RAG-System daraufhin die Antwort liefern: „15.07.2022“. Zusätzlich verweist es darauf, dass diese Information auf Seite 9 des Dokuments zu finden ist.

Konzept des RAG-Systems zur Beantwortung unternehmensrelevanter Fragen
Konzept des RAG-Systems zur Beantwortung unternehmensrelevanter Fragen
 

Dieser Ansatz zeigt, wie RAG-Systeme spezifische, unternehmensrelevante Fragen beantworten können, indem sie direkt auf die bereitgestellten Datenquellen zugreifen. Ein solches System steigert die Effizienz erheblich, da es zeitaufwändige manuelle Durchsuchungen von Dokumenten überflüssig macht. Dennoch sollte ein Mitarbeiter die gefundenen Fakten prüfen, um “Halluzinationen” des LLMs auszuschließen. Dies ist der Ansatzpunkt für einen weiteren Effizienz-Boost, den wir in unseren Projekten üblicherweise zünden: die Selbstevaluation.

 

Selbstevaluation

Ziel der Selbstevaluation ist es, dass die KI selbst eine Einschätzung gibt, wie zuverlässig eine ihrer Aussagen ist. Insbesondere sollen „alternative Fakten“ oder „Halluzinationen“ vermieden werden. Hierzu verwenden wir bei iits folgende Metriken:

Selbstevaluation mittels RAG-Triade zur Vermeidung von „Halluzinationen“
Selbstevaluation mittels RAG-Triade zur Vermeidung von „Halluzinationen“
 

Als Teil des RAG-Systems haben wir hierbei Frage, relevanten Kontext und die Antwort. Durch weitere Anfragen an das LLM-System erfragen wir paarweise, ob die einzelnen Bestandteile zueinander passen. Diese einzelnen Bewertungen sind Bestandteil einer Gesamtbewertung, die uns Hinweise über die Vertrauenswürdigkeit der eigentlichen Antwort auf die Ursprungsfrage liefern. Dadurch ermöglichen wir die automatisierte Selbstevaluation des KI-Systems und schließen faktisch Halluzination aus.

Datenschutz und Sicherheit – warum die Open Telekom Cloud?

Die Frage, wie diese Lösung datenschutzkonform und sicher umgesetzt werden kann, ist von zentraler Bedeutung. Im unternehmerischen Umfeld stehen häufig sensible Daten im Mittelpunkt, deren Schutz höchste Priorität hat. Zudem verlangen die europäischen Datenschutzvorschriften, insbesondere die DSGVO, strenge Maßnahmen zum Schutz personenbezogener und unternehmensrelevanter Daten. Hier spielt die Open Telekom Cloud eine entscheidende Rolle.

Die Open Telekom Cloud bietet als Alleinstellungsmerkmal die Möglichkeit, LLMs und KI-basierte Lösungen in Deutschland von einem deutschen Cloud-Provider zu hosten.

Dies gewährleistet, dass die Daten innerhalb Deutschlands verbleiben. Somit können Unternehmen sicherstellen, dass sie die hohen Anforderungen an den Datenschutz erfüllen und ihre Daten nicht in unsicheren oder rechtlich problematischen Regionen verarbeitet werden.

Zusätzlich dazu bietet die Open Telekom Cloud die Skalierbarkeit und Flexibilität, die moderne Unternehmen für den Einsatz von KI benötigen. Durch den Einsatz leistungsstarker Cloud-Infrastruktur können auch große Datenmengen und komplexe Modelle effizient verarbeitet werden, ohne dass dabei die Datensicherheit gefährdet wird. Die Datenverarbeitung erfolgt dabei vollständig nach den strengen Anforderungen der DSGVO.

Fazit: KI-Lösungen in Verbindung mit Datenschutz und Sicherheit

Der Einsatz von KI im Unternehmenskontext bietet enorme Vorteile, insbesondere wenn es darum geht, spezifische Informationen aus umfangreichen Dokumenten effizient zu extrahieren und in nutzbare Antworten zu verwandeln. Mit der Kombination von RAG-Systemen und einer sicheren, DSGVO-konformen Infrastruktur wie der Open Telekom Cloud können Unternehmen das volle Potenzial von KI ausschöpfen, ohne Kompromisse bei der Datensicherheit einzugehen.

Durch diese Integration wird sichergestellt, dass sensible Unternehmensdaten geschützt bleiben, während gleichzeitig KI-gestützte Prozesse die Effizienz steigern und wertvolle Zeit sparen. Die Open Telekom Cloud bietet hier einen entscheidenden Mehrwert durch die Möglichkeit, KI-basierte Lösungen sicher und datenschutzkonform in Deutschland zu betreiben.

Legen Sie jetzt los mit KI

Sie haben Lust, einmal selbst diese neuen Technologien auszuprobieren? Dann unterhalten Sie sich doch mal mit Cloudia, dem Chatbot der Open Telekom Cloud. Oder erstellen Sie sich einen Probezugang für IITS.AI, das den modernsten Stand der KI-Technik abdeckt und in der Open Telekom Cloud läuft.

Wenn sie alternativ daran interessiert sind, eigene KI-Applikationen mit LLMs zu programmieren, können sie hier den T-Systems LLM-Hub Playground nutzen, um erste Eindrücke von den Potenzialen der KI zu erhalten. Außerdem haben Sie die Möglichkeit, hier einen API-Key anzufragen.


Diese Inhalte könnten Sie auch interessieren
 

Illustration of the Open Telekom Cloud Chatbot

So geht’s: In sieben Wochen zum KI-Chatbot

Erfahren Sie, wie Unternehmen mit der Open Telekom Cloud in Rekordzeit einen leistungsstarken, DSGVO-konformen KI-Chatbot entwickeln.

 
Bereit für die Zukunft von KI und HPC: Die Open Telekom Cloud liefert mit NVIDIA H100 GPUs noch mehr Rechenpower und Effizienz.

Verbessern Sie Ihre KI- und HPC-Anwendungen mit NVIDIA H100 GPUs

Die Open Telekom Cloud stellt die nächste Generation von Grafikprozessoren von NVIDIA vor. H100 bringt neue Leistung für Ihre Projekte im Bereich der Künstlichen Intelligenz und andere leistungsstarke Anwendungsfälle.

 
World Summit AI 2024 in Amsterdam

World Summit AI: Das Epizentrum der Künstlichen Intelligenz

Was Rang und Namen in der Künstlichen Intelligenz hat, trifft sich zum World Summit AI. Die Open Telekom Cloud bringt zwei neue Use Cases mit: einen Menschenzähler und einen Erdrutsch-Detektor.

 

Die Open Telekom Cloud Community

Hier treffen sich Nutzer, Entwickler und Product Owner um sich zu helfen, auszutauschen und zu diskutieren.

Jetzt entdecken  

Kostenfreie Experten-Hotline

Unsere zertifizierten Cloud-Experten stehen Ihnen mit persönlichem Service zur Seite.

 0800 3304477 (aus Deutschland)

 +800 33044770 (aus dem Ausland)

 24 Stunden am Tag, 7 Tage die Woche

E-Mail schreiben

Unser Kunden-Service steht Ihnen per E-Mail-Support kostenlos zur Verfügung.

E-Mail schreiben 

AIssistant Cloudia

Unsere KI-gestützte Suche hilft bei Ihrem Cloud-Anliegen.