
KI-Wissensdatenbank: Wie intelligent soll Ihre Wissensdatenbank wirklich sein?

Michael Haushofer
23. Mai 2025
Das Problem kennt jeder
Stellen Sie sich vor: Ihr Unternehmen hat hunderte PDFs oder sonstige Dokumente mit wichtigen Informationen. Handbücher, Richtlinien, Forschungsdokumente. Wenn ein Mitarbeiter eine spezifische Frage hat, beginnt das große Suchen. Oder schlimmer - er fragt Sie, weil Sie "bestimmt wissen, wo das steht".
Die Lösung scheint klar: Ein KI-Bot, der diese Dokumente kennt und Fragen beantwortet. Aber wie komplex muss das wirklich sein?
Die einfachste Form: Eine 10-Minuten-Demo
Um zu zeigen, wie zugänglich diese Technologie heute ist, hab ich bewusst die simpelste Variante gebaut. Mit einer etablierten Automatisierungsplattform (n8n) als Low-Code-Framework und dem Anthropic-Paper über Contextual Retrieval als Testdokument.
Der Workflow im Detail
Setup-Phase (einmalig):
- Google Drive: PDF automatisch herunterladen (ein Klick)
- Text Splitter: Dokument in 3000-Zeichen-Chunks aufteilen (200 Zeichen Overlap)
- Embeddings: Azure OpenAI Text-Embedding-3-Small erstellt Vektoren
- Vector Store: Alles indexieren und speichern (hier Pinecone für die schnelle Demo - für Produktivsysteme empfehlen sich auch Qdrant, PostgreSQL mit pgvector, AWS OpenSearch, Azure AI Search, Google Cloud Vertex AI oder andere Vektordatenbanken. Qdrant bietet sich besonders für On-Premise-Lösungen an)
Query-Phase (bei jeder Frage):
- Chat Trigger: User stellt Frage
- Embedding: Frage wird vektorisiert
- Vector Search: Ähnlichste Chunks finden
- LLM-Antwort: GPT-4o-mini generiert Antwort basierend auf Context
Ein Beispiel-Prompt
1Du bist ein hilfsbereiter, präziser Assistenz-Bot.
2Du beantwortest Fragen auf Basis von Wissensdokumenten,
3die in einer Vektordatenbank gespeichert sind.
4Verwende ausschließlich die Informationen aus der Vektorsuche.
5Erfinde keine Fakten.
Was diese simple Version kann - und was nicht
✅ Funktioniert überraschend gut:
- "Was ist der Unterschied zwischen einfachem Vektorindex und Contextual Retrieval?"
- "Welche Verbesserungen bringt die neue Methode?"
- "Wie hoch ist die Fehlerreduktion?" → "Bis zu 49% weniger Abruffehler"
❌ Stößt an Grenzen:
- Komplexe Querverweise über mehrere Dokumentabschnitte
- Fragen die Zusammenhänge zwischen weit auseinanderliegenden Chunks erfordern
- Sehr spezifische Details, die in kleinen Chunks "verloren" gehen
Setup-Zeit: 10 Minuten
Kosten: Index aufbauen kostet am meisten (einmalig), dann meist unter einem Cent pro Chat-Session - variiert je nach gewählten Modellen und Anfragevolumen
Wichtiger Hinweis: Die Qualität der KI-Antworten hängt direkt von der Qualität Ihrer Eingangsdokumente ab. Schlecht strukturierte oder unvollständige Quelldaten führen zu entsprechend schlechteren Ergebnissen.
So sieht das System in der Praxis aus
Um Ihnen einen besseren Eindruck zu geben, wie das Ganze funktioniert, hier die wichtigsten Screenshots aus einer Automatisierungsplattform. (Hinweis: Obwohl auf dem Bild ein Agent-Workflow zu sehen ist, reicht für unsere Demo eigentlich ein einfacher RAG-Chatbot aus. Agenten behandeln wir in einem späteren Beitrag.)

Der Setup-Workflow: PDF aus Google Drive laden, in 3000-Zeichen-Chunks aufteilen, mit Azure OpenAI vektorisieren und in Pinecone speichern

Der Query-Workflow: Chat-Nachricht triggert Vektorsuche in Pinecone, relevante Chunks werden an GPT-4o-mini zur Antwortgenerierung weitergegeben

Live-Chat: Eine konkrete Frage zu Contextual Retrieval wird detailliert und korrekt beantwortet - die KI erklärt sogar die technischen Details und Verbesserungen

Unter der Haube: Die Debug-Logs zeigen genau, welche Textpassagen aus dem Dokument gefunden und als Kontext an das LLM weitergegeben wurden
Aber wo können die User eigentlich mit dem Bot chatten?
Toll, jetzt haben wir einen funktionierenden Chatbot - aber keinen Kanal für die Nutzer. Das ist natürlich kein Problem: Dieser kann sowohl in Microsoft Teams als auch in Slack, als Webchat auf der Firmenwebsite oder in ähnlichen Plattformen integriert werden. Die meisten Automatisierungsplattformen bieten vorgefertigte Konnektoren für alle gängigen Chat-Systeme.
Beliebte Integrationsoptionen:
- Microsoft Teams: Perfekt für Office 365-Umgebungen
- Slack: Ideal für agile Entwicklungsteams
- Webchat: Direkt auf der Unternehmenswebsite
- WhatsApp Business/Telegram: Für externe Kundenanfragen
- E-Mail: Für asynchrone Kommunikation
Warum Low-Code für die Demo?
Nicht weil's unbedingt einfacher ist, sondern weil es den Punkt illustriert: Diese Technologie ist heute für jeden zugänglich. Der visuelle Workflow zeigt sofort, wo man optimieren kann.
Die vier Entwicklungsstufen: Von der Demo zur Perfektion
Jetzt wo klar ist, dass die Basis funktioniert, schauen wir uns an, wie man es besser machen kann:
Stufe 1: Keyword-Suche (Old School)
Der klassische Ansatz: Stichwörter im Text suchen.
- Vorteil: Schnell, günstig, transparent
- Nachteil: Findet nur exakte Begriffe
Stufe 2: Vektor-Suche (Unsere Demo)
Textabschnitte werden in mathematische Vektoren umgewandelt.
- Vorteil: Versteht Bedeutung, findet verwandte Konzepte
- Nachteil: Kontext geht bei kleinen Chunks verloren
Stufe 3: Hybrid-Suche
Kombiniert Keyword- und Vektor-Suche, gewichtet die Resultate.
- Vorteil: Präziser als reine Vektor-Suche
- Nachteil: Komplexere Implementierung, Tuning erforderlich
Stufe 4: Contextual Retrieval (Anthropic's neuer Ansatz)
Vor der Vektorisierung wird jeder Chunk mit Kontext angereichert.
- Vorteil: 49% weniger Abruffehler, versteht komplexe Zusammenhänge
- Nachteil: Deutlich höhere KI-Kosten, langsamere Indexierung
Wann welcher Ansatz?
Start mit Vektor-Suche (unsere Demo), wenn:
- Sie schnell einen Proof-of-Concept brauchen
- Die Dokumente einigermaßen strukturiert sind
- Budget und Zeit knapp sind
Upgrade zu Hybrid-Suche, wenn:
- Sie sowohl präzise als auch semantische Suche brauchen
- Die ersten Tests vielversprechend waren
- Sie bereit sind, etwas mehr zu investieren
Contextual Retrieval nur, wenn:
- Genauigkeit absolut kritisch ist
- Sie komplexe, verschachtelte Dokumente haben
- Die KI-Kosten verkraftbar sind
Was sich in der Praxis bewährt hat
- MVP first: Die Demo löst 80% der Probleme in 10 Minuten
- Messe konkret: Wie viele Fragen werden richtig beantwortet?
- Kosten im Blick: Contextual Retrieval kann bei großen Dokumentenmengen teuer werden
- User-Feedback: "Gut genug" ist oft besser als "perfekt aber langsam"
- Datenqualität zählt: Auch die beste KI kann aus schlechten Eingangsdaten keine perfekten Antworten zaubern
Die Technologie entwickelt sich rasant. Was heute komplex ist, wird morgen Standard sein. Aber die Grundprinzipien bleiben: Verstehe dein Problem, fang einfach an, iteriere basierend auf echtem Nutzer-Feedback.