Interne KI, die aus Ihrem Wissen antwortet — nicht aus dem Internet
Eine Beratungsgesellschaft mit 24 Mitarbeitern wollte „so etwas wie ChatGPT, aber das unsere Methodik kennt". Heute fragt jeder neue Mitarbeiter die interne KI — und bekommt Antworten aus dem hauseigenen Wiki, nicht aus dem Internet.
Setup
6-10 Tage
Einmalig
ab 8.500 €
Laufend
Server + KI-API ab 60 €/Monat
Spart
ca. 20 h/Monat Onboarding/Recherche
So läuft der Workflow
Vom Auslöser bis zum Ergebnis — automatisch.
Docmost
Wissensbasis & Wiki
n8n
Embedding-Pipeline
Qdrant
Vektor-Speicher
LibreChat
Mitarbeiter stellt Frage
Antwort
mit Quellen aus dem Wiki
Ausgangslage
Eine Beratungsgesellschaft mit 24 Mitarbeitern. Über die Jahre ist viel Wissen entstanden: Methoden, Vorlagen, Lessons Learned, Branchenwissen. Das alles liegt in einem Confluence, das nie wirklich genutzt wird, weil die Suche schlecht ist und die Struktur nicht mehr stimmt. Neue Mitarbeiter brauchen Wochen, um zu finden, was sie für ihre erste Aufgabe brauchen.
Gleichzeitig wollten alle „so etwas wie ChatGPT” — aber Mandantendaten dürfen unter keinen Umständen an OpenAI gesendet werden.
Lösung im Überblick
Das alte Confluence wird in Docmost migriert (saubere Struktur, moderne Suche, deutsche UI). LibreChat dient als zentrale KI-Oberfläche für das Team. Über eine RAG-Pipeline (Retrieval-Augmented Generation) durchsucht die KI bei jeder Frage zuerst die hauseigenen Docmost-Inhalte — und antwortet aus diesen, nicht aus generischem Internet-Wissen. Wo Docmost nichts hergibt, fällt sie auf das Sprachmodell zurück, mit klarem Hinweis.
Die KI-API ist konfigurierbar: Default ist ein europäischer Anbieter (Mistral) für unkritische Anfragen, sensible Anfragen laufen über ein lokales Modell.
Workflow im Detail
- Wissensbasis wird einmalig aus Confluence in Docmost migriert, bereinigt und neu strukturiert
- Embedding-Pipeline (n8n + Embedding-Service): jeder Docmost-Artikel wird vektorisiert und in einer Qdrant-Datenbank abgelegt
- Mitarbeiter stellt Frage in LibreChat
- LibreChat sucht passende Wiki-Einträge in Qdrant, fügt sie als Kontext zur Frage hinzu
- KI beantwortet auf Basis dieses Kontexts, mit Quellenangabe (welche Docmost-Seiten wurden verwendet)
- Bei neuem Wiki-Eintrag triggert n8n eine erneute Vektorisierung — die KI lernt automatisch dazu
Aufwand und Investition
- Setup: 6–10 Tage (Migration, Embedding-Pipeline, LibreChat-Konfiguration, Test mit Mitarbeitern, Schulung)
- Einmalig: ab 8.500 €
- Laufend: ca. 60 €/Monat (Server + KI-API-Verbrauch bei moderater Nutzung)
- Gespart: ~20 Stunden/Monat Recherche und Onboarding-Begleitung
Was Sie damit vermeiden
- Datenabfluss an OpenAI / Microsoft Copilot
- „ChatGPT-Schatten-IT” — Mitarbeiter nutzen ohnehin KI, jetzt halt zentral und sicher
- Wissen, das verloren geht, weil neue Mitarbeiter nicht wissen, wo sie suchen sollen
- Halluzinationen ohne Quellenbezug — die Antworten verlinken auf konkrete Wiki-Einträge
Werkzeuge in diesem Setup
- LibreChat — die Chat-Oberfläche
- Docmost — das Wissensspeicher-Wiki
- n8n — die Embedding-Pipeline und Wissens-Synchronisation
Ähnliches Setup besprechen?
Erstgespräch 30 Minuten, kostenlos. Termin anfragen →