Low-Code-RAG-Plattform mit UI

Von Confluence bis File-Upload: Importer, Observability und Betrieb in wenigen Minuten

Zurück zu Insights
/de/de/insights
Teilen

Wie aus einem HR-Bot eine ganze Plattform wurde

Unsere ersten RAG-Erfahrungen haben wir mit einem HR-Bot gesammelt, der den Confluence-Space von HR als Wissensbasis nutzt. Das Schöne daran: Änderungen an Dokumenten wurden automatisch erkannt, über Nacht neu gecrawlt und standen am nächsten Tag im Bot zur Verfügung. Ein echter Effizienzgewinn.

Bei den S3-Bots kam dann ein neues Requirement dazu: der manuelle Upload von Anleitungen und Policies. Denn wir haben gelernt: Handverfasste, kuratierte Übersichtsdateien liefern einfach bessere Ergebnisse als unstrukturierte Daten. Das betont auch ein Fachbeitrag von LangChain: Die Qualität und Struktur der Daten entscheidet maßgeblich über die Qualität der Antworten.

false
Performance-Verbesserung durch strukturierte Daten: Je besser die Dokumentation aufbereitet ist, desto präziser arbeiten LLMs. Datengrundlage nach LangChain-Studie.
false
medium
Performance-Verbesserung durch strukturierte Daten: Je besser die Dokumentation aufbereitet ist, desto präziser arbeiten LLMs. Datengrundlage nach LangChain-Studie.

Genau da entstand die Idee: Warum nicht eine Plattform bauen, die automatisierte Crawler und manuelle Datei-Uploads vereint – und ohne ständige Developer-Eingriffe betrieben werden kann?

Datenqualität ist alles – oder fast alles

Die Leistung eines RAG-Systems hängt weniger vom Algorithmus ab als von der Qualität der zugrunde liegenden Daten. Strukturiertes, konsistentes und aktuelles Wissen führt zu präzisen Antworten – unvollständige oder veraltete Quellen dagegen zu Frustration.

Deshalb ist nicht nur wichtig, dass die Technik funktioniert. Die Fachabteilungen müssen auch aktiv Verantwortung für ihre Inhalte übernehmen. Und genau hier zeigt sich der Mehrwert einer Plattform: Fachbereiche können ihre Dokumente selbst pflegen, aktualisieren und hochladen. Sie wissen schließlich am besten, welche Informationen relevant sind und wo Anpassungen nötig sind.

Ein praktisches Beispiel: Das HR-Team entdeckt einen fehlerhaften Passus in einer Policy. Statt auf den nächsten nächtlichen Crawl zu warten, laden sie die korrigierte Datei direkt hoch und triggern sofort ein Re-Indexing. Wenige Minuten später liefert der Bot bereits die aktualisierte Information. Dieser unmittelbare Kreislauf zeigt, wie wichtig es ist, dass Fachabteilungen selbst steuern können, wann und wie Wissen aktualisiert wird.

Importer: Einfach anschließen und loslegen

Damit RAGs im Alltag wirklich nutzbar sind, müssen Datenquellen einfach angebunden werden – ohne dass jedes Mal Entwickler eingreifen müssen. Unsere Plattform setzt deshalb auf konfigurierbare Importer, die direkt über die Benutzeroberfläche eingerichtet werden.

Für Confluence, Jira oder Bitbucket genügt ein Account mit den passenden Rechten: Zugangsdaten eintragen, Space oder Projekt auswählen, Crawl-Intervall definieren – fertig. Die Indexierung läuft anschließend automatisch über einen Cron-Job und hält die Wissensbasis kontinuierlich aktuell.

Manuelle Uploads sind genauso unkompliziert: Fachbereiche können eigene Dateien wie Handbücher oder Policies per Drag-and-Drop hinzufügen. Für öffentliche Webseiten genügt die Angabe einer URL – den Rest übernimmt der integrierte Web-Crawler. Technisches Know-how? Nicht erforderlich. Wichtig ist nur zu wissen, welche Quelle relevant ist.

Importer-Konfiguration in der Praxis: Confluence Crawler einrichten mit wenigen Klicks – Space auswählen, File Converter definieren, fertig.
false
medium
Importer-Konfiguration in der Praxis: Confluence Crawler einrichten mit wenigen Klicks – Space auswählen, File Converter definieren, fertig.

Die Architektur haben wir so ausgelegt, dass weitere Importer ohne großen Aufwand ergänzt werden können. Neue Datenquellen lassen sich über klar definierte Schnittstellen anbinden – je nach Projektbedarf und Kundenanforderung.

Zugriff steuern mit Projekten

Die Plattform unterstützt mehrere Projekte, die jeweils vollständig voneinander getrennt sind. Jedes Projekt kann eigenständig betrieben und über autorisierte Endpoints angebunden werden. Wie und in welchen Bots diese Endpoints eingesetzt werden, liegt außerhalb der Plattform – sie stellt nur die sauberen Schnittstellen bereit.

In der Praxis setzen wir dafür OpenWebUI ein: Dort lassen sich Bots anlegen, die jeweils nur auf ein bestimmtes RAG-Projekt zugreifen. Über Benutzergruppen und SSO wird dann gesteuert, welche Mitarbeitenden Zugriff auf welchen Bot erhalten. So können etwa Projektteams A und B strikt voneinander getrennt arbeiten, obwohl beide auf derselben Plattform basieren. Mehr zu unserem OpenWebUI-Setup und den Erfahrungen damit haben wir in einem früheren Blog-Artikel beschrieben.

Projekt-Trennung in der Praxis: Jedes RAG-Projekt hat seine eigenen Datenquellen und API-Endpoints – so bleiben Teams und ihre Wissensbasis strikt voneinander getrennt.
false
medium
Projekt-Trennung in der Praxis: Jedes RAG-Projekt hat seine eigenen Datenquellen und API-Endpoints – so bleiben Teams und ihre Wissensbasis strikt voneinander getrennt.

Ein internes Rechte-Management gibt es bereits insofern, dass Projekte jeweils einem User gehören und nicht kollaborativ bearbeitet werden können. Ein echtes Sharing-Modell, in dem mehrere Nutzer gemeinsam an einem Projekt arbeiten oder Rollen vergeben werden, steht noch auf der Roadmap.

Unter der Haube: Komponentenbasiert und erweiterbar

Unsere RAG-Plattform ist komponentenbasiert und auf Erweiterbarkeit ausgelegt. Für die Vektorspeicherung und das Retrieval setzen wir auf LightRAG. Für Embeddings nutzen wir aktuell die Amazon-Titan-Familie – die Auswahl des konkreten Modells ist konfigurierbar und kann bei Bedarf durch andere Provider ersetzt werden.

Die Anwendung läuft im Elastic Container Service (ECS) von AWS. Diese Containerisierung ermöglicht standardisierte Deployments, Rolling Updates und horizontale Skalierung. ECS reduziert außerdem den Betriebsaufwand und fügt sich gut in bestehende Cloud-Security- und Observability-Praktiken ein.

Im Applikationskern verwenden wir PocketBase als schlankes Backend für Projekt- und User-Verwaltung, Hono.js für den API-Layer und Vue.js für die Web-UI. Für die Cloud-Integration setzen wir derzeit vor allem auf Amazon Bedrock (Embeddings). Jobs und deren Zustände werden bereits zentral persistiert, sodass Ausführungen transparent nachvollziehbar bleiben.

Technische Architektur der RAG-Plattform: Vue.js Frontend, Hono.js API-Layer, PocketBase für Datenhaltung und LightRAG für Vektorsuche – alles containerisiert in AWS ECS.
false
medium
Technische Architektur der RAG-Plattform: Vue.js Frontend, Hono.js API-Layer, PocketBase für Datenhaltung und LightRAG für Vektorsuche – alles containerisiert in AWS ECS.

Was kommt als nächstes: Kollaboration & bessere Suche

Der nächste Schritt fokussiert kollaboratives Arbeiten in Projekten: Projekt-Sharing mit RBAC (Owner, Maintainer, Viewer), Audit-Events für Änderungen und Abfragen sowie vertiefte SSO-Integration zur gezielten Freigabe für Personengruppen. Ziel ist Zusammenarbeit innerhalb eines Projekts – ohne Datenvermischung zwischen Projekten.

Außerdem diskutieren wir Ansätze, um die Suchergebnisse weiter zu verbessern – etwa durch die Rückgabe von Provenance-Daten (Informationen zur Datenherkunft) direkt in der API oder durch Relevanz-Schwellen, mit denen sich veraltete Inhalte gezielt ausblenden lassen. Der Embeddings-Layer bleibt provider-agnostisch und flexibel konfigurierbar.

Für den Betrieb prüfen wir cloud-native Ergänzungen wie AWS CloudWatch (Metriken/Alarme) und S3 (Backups/Snapshots). So wächst die Plattform gezielt bei Skalierbarkeit und Beobachtbarkeit, bleibt im Kern aber schlank.

Überblick statt Blindflug: Observability & Betrieb

Damit RAG-Systeme verlässlich laufen, braucht es Transparenz über den Zustand der einzelnen Jobs und Endpoints. Unsere Plattform liefert dafür eine Event-Übersicht, in der alle Import- und Crawl-Vorgänge sichtbar sind. Nutzer können direkt nachvollziehen, ob ein Job erfolgreich abgeschlossen wurde oder ob Fehler aufgetreten sind.

Event-Übersicht mit allen Import-Jobs: Status, Fehlermeldungen und Zeitstempel auf einen Blick – so bleibt nachvollziehbar, was das System gerade macht und wo Probleme auftreten.
false
medium
Event-Übersicht mit allen Import-Jobs: Status, Fehlermeldungen und Zeitstempel auf einen Blick – so bleibt nachvollziehbar, was das System gerade macht und wo Probleme auftreten.

Zusätzlich stehen Health-Endpoints bereit, über die sich der Zustand der API kontinuierlich prüfen lässt. Damit lassen sich einfache Monitoring-Checks oder Alarme integrieren, die sofort anzeigen, wenn ein Service nicht wie erwartet reagiert.

Für weitergehende Integrationen bietet die Plattform außerdem eine Schnittstelle im Model Context Protocol (MCP). Darüber können externe Systeme oder Agenten direkt mit den Endpoints arbeiten und erhalten standardisierte Rückmeldungen. Als nächster Ausbauschritt ist ein zentrales KPI-Dashboard geplant – mit Kennzahlen wie Import-Laufzeiten, Fehlerquoten oder Kostenübersichten.

Projekte anlegen: Setup in wenigen Minuten

Die Plattform macht vor allem den Einstieg einfach. Neue Projekte lassen sich in wenigen Schritten über die Oberfläche erstellen: Projektname vergeben, API-Key generieren, Crawl-Intervalle festlegen – alles tab-basiert und ohne Konfigurationsdateien.

Über Dropdowns werden Importer und File-Converter ausgewählt, Cron-Schedules definiert und Berechtigungen für externe Zugriffe gesetzt. Sobald ein Projekt gespeichert ist, stehen sofort autorisierte Endpoints zur Verfügung, die direkt in Bots oder Anwendungen eingebunden werden können.

Projekt-Konfiguration: API-Keys, Cron-Schedules und Berechtigungen werden direkt über die Benutzeroberfläche verwaltet – keine Konfigurationsdateien nötig.
false
medium
Projekt-Konfiguration: API-Keys, Cron-Schedules und Berechtigungen werden direkt über die Benutzeroberfläche verwaltet – keine Konfigurationsdateien nötig.

Dieser schlanke Setup-Prozess sorgt dafür, dass ein RAG nicht erst nach Tagen von Development und Testing produktiv geht, sondern innerhalb weniger Minuten betriebsbereit ist. Das senkt die Einstiegshürde erheblich und beschleunigt die Nutzung im Alltag.

API-Integration: Fertige Snippets zum Loslegen

Sobald ein Projekt erstellt ist, stehen autorisierte Endpoints bereit, die ohne zusätzliche Konfiguration genutzt werden können. Die Plattform liefert dafür fertige Beispiele in Form von cURL-Snippets, die sich direkt testen oder in Skripte übernehmen lassen.

Unterstützt werden unter anderem Endpoints für /query, /query/stream, /health und /mcp. Die Response-Beispiele sind so gestaltet, dass Entwickler unmittelbar sehen, wie ein Request aufgebaut sein muss und welche Parameter – etwa mode: hybrid oder top_k – zur Verfügung stehen.

Damit entfällt die Hürde, sich erst durch lange API-Dokumentationen zu arbeiten. Wer schnell einen Prototyp bauen oder eine Integration testen möchte, kann die Snippets einfach übernehmen und sofort loslegen.

Fertige API-Snippets zum direkten Einsatz: cURL-Beispiele, Request-Parameter und Response-Formate – so können Entwickler sofort loslegen, ohne sich durch lange Dokumentationen zu arbeiten.
false
medium
Fertige API-Snippets zum direkten Einsatz: cURL-Beispiele, Request-Parameter und Response-Formate – so können Entwickler sofort loslegen, ohne sich durch lange Dokumentationen zu arbeiten.

Der größte Hebel: Weniger Entwicklungsaufwand

Der größte Vorteil der Plattform liegt nicht in einzelnen eingesparten Rechenzyklen, sondern in der drastischen Reduktion von Entwicklungs- und Wartungsaufwand. Bislang bedeutete jeder neue Chatbot: Setup durch Entwickler, manuelles Anbinden von Datenquellen, Tests und regelmäßige Updates. Mit der Plattform entfällt dieser Prozess – Fachabteilungen können Projekte selbst anlegen und aktualisieren.

Das verkürzt nicht nur die Time-to-Value, sondern entlastet auch IT-Teams, die ihre Kapazitäten auf komplexere Aufgaben konzentrieren können. Gleichzeitig sinkt das Risiko von Wissenslücken: Änderungen in Dokumenten oder neue Policies sind schneller im System und sofort nutzbar.

Ein Nebeneffekt: Verfügbarkeit wird zum Wirtschaftsfaktor. Fällt ein vielgenutzter Bot aus, während Mitarbeitende sich bereits an die neue Arbeitsweise gewöhnt haben, entstehen sofort Opportunitätskosten. Durch integrierte Monitoring-Funktionen – von Event-Logs bis Health-Endpoints – lassen sich solche Risiken früh erkennen und Gegenmaßnahmen einleiten.

Vier typische Einsatzszenarien aus der Praxis

Die Vorteile der Plattform werden besonders greifbar, wenn man sie im Alltag anwendet. Von internen Prozessen bis hin zum IT-Betrieb – hier sind vier Szenarien, in denen strukturierte RAGs spürbar Mehrwert liefern:

  • Prozess-Bots: Unterstützung bei internen Abläufen, etwa in HR- oder IT-Abteilungen. Policies, Anleitungen oder Standardprozesse sind jederzeit verfügbar – gepflegt direkt von den Fachbereichen, die für diese Inhalte verantwortlich sind. Das reduziert Rückfragen und entlastet Support-Teams.
  • Projekt-Bots: Zugriff auf projektspezifische Dokumentation. Bots können nicht nur technische Inhalte wie Stacktraces interpretieren, sondern diese auch im fachlichen und konzeptionellen Kontext erklären. Teams halten ihre eigene Projektdokumentation aktuell und profitieren unmittelbar von den Verbesserungen.
  • Runbook-Bots: Unterstützung im IT-Betrieb. Sie verarbeiten nicht nur hochgeladene Handbücher, sondern kombinieren verschiedene Quellen wie Troubleshooting-Guides, Incident-Reports und bekannte Fehlerbilder. Operations-Teams können ihre Runbooks laufend erweitern – der Bot wächst automatisch mit.
  • Knowledge-Bots für Teams: Individuell trainierte Bots für bestimmte Bereiche – z. B. ein "Onboarding-Bot" für neue Kollegen oder ein "Tool-Support-Bot" für interne Software. Die Inhalte stammen direkt von den jeweiligen Teams, die so ihr Wissen eigenständig bündeln und bereitstellen können.

Der eigentliche Mehrwert liegt darin, dass Wissen nicht zentral "eingespielt" werden muss, sondern direkt dort gepflegt wird, wo es entsteht – in den jeweiligen Teams. Die Plattform macht dieses Wissen unmittelbar nutzbar.

Roadmap: Was als nächstes kommt

Die Plattform ist heute bereits produktiv nutzbar: Projekte können eigenständig angelegt und über autorisierte Endpoints genutzt werden. Auf der kurzfristigen Roadmap steht nun die Möglichkeit, Projekte kollaborativ zu bearbeiten sowie ein vollwertiges Berechtigungsmodell mit Multi-Tenancy einzuführen. Damit lassen sich Zugriffe granular steuern und mehrere Nutzer können gemeinsam an denselben Projekten arbeiten.

Mittelfristig planen wir die Integration von Guardrails, um Abfragen gezielt zu kontrollieren, sowie die Bereitstellung von SDK-Snippets für gängige Programmiersprachen. Auch zusätzliche Importer und Konverter sind vorgesehen, sodass noch mehr Datenquellen ohne Aufwand eingebunden werden können.

Ein wichtiges Thema ist die Governance, insbesondere wenn interne und externe Inhalte kombiniert werden. Hier wird eine klare Trennung und Freigabe notwendig sein. Zudem müssen die Betriebskosten im Blick bleiben – etwa durch zu häufige Crawls oder große Dokumentmengen. Mit den geplanten KPI-Dashboards und Monitoring-Funktionen schaffen wir jedoch die Basis, diese Risiken frühzeitig zu erkennen und aktiv zu steuern.

Geplantes KPI-Dashboard: So könnte das zentrale Monitoring der RAG-Plattform aussehen – mit Kosten-Trends, Import-Status und Performance-Kennzahlen auf einen Blick.
false
small
Geplantes KPI-Dashboard: So könnte das zentrale Monitoring der RAG-Plattform aussehen – mit Kosten-Trends, Import-Status und Performance-Kennzahlen auf einen Blick.

Fazit: Weniger Abhängigkeiten, mehr Eigenständigkeit

RAG-Systeme entfalten ihren Wert erst, wenn sie einfach gepflegt und zuverlässig betrieben werden können. Genau hier setzt unsere Plattform an: Sie ermöglicht es Fachabteilungen, Wissen eigenständig einzubringen, und stellt gleichzeitig stabile Endpoints für Bots und Anwendungen bereit. So sinkt der Entwicklungsaufwand, die Datenqualität steigt, und Teams können schneller von KI-gestützten Assistenten profitieren.

Für Unternehmen bedeutet das: Weniger Abhängigkeit von einzelnen Entwicklern, mehr Eigenständigkeit der Fachbereiche und eine klare Basis für Skalierung und Governance.

Simon Bönisch, Januar 2026

Gestalten wir gemeinsam Ihre AI-Zukunft!
Sie überlegen, wie RAG-Systeme in Ihrem Unternehmen eingeführt oder professionalisiert werden können? Wir unterstützen Sie bei Konzeption, Architektur und Betrieb – von ersten Use Cases bis zur skalierbaren Lösung. Oder möchten Sie die hier vorgestellte Anwendung selbst einsetzen und prüfen, ob sie zu Ihrem Bedarf passt? Sprechen Sie uns an – gemeinsam finden wir den passenden Einstieg.
/content/dam/ews/videos/alex_hands_contact_code_2K_recbitrate.mp4
Let’s talk
/de/de/about-eggs/contact
Ihr nächstes Projekt startet genau hier
Neue Ideen, innovative Herangehensweisen und nachhaltige Lösungen – um diese für Sie zu verwirklichen, müssen wir Ihre Ziele verstehen. Lassen Sie uns gemeinsam den richtigen Weg zum Erfolg gestalten.