veilSense AI – DSGVO konforme Platform

Veröffentlicht von sklaffke am

veilSense: Wer Open WebUI kennt, kommt sofort zurecht – und merkt schnell den Unterschied

Wer bereits mit Open WebUI gearbeitet hat, wird sich in veilSense auf Anhieb orientieren können.

Die grundlegende Interaktion ist vertraut: ein klar strukturierter Chat, verschiedene Modelle, iterative Dialoge.

Der entscheidende Unterschied liegt jedoch weniger im Wie als im Wofür.

veilSense wurde nicht als Experiment oder Prototyp gebaut, sondern als produktive, DSGVO-konforme AI-Plattformfür reale Arbeitsumgebungen. Im Fokus stehen Struktur, Kontrolle und Erweiterbarkeit – nicht die möglichst schnelle Anbindung beliebiger Modelle.

Vom Chat zur Arbeitsplattform

Klassische Chat-UIs sind primär auf Einzelinteraktionen ausgelegt.

veilSense denkt stattdessen in Workspaces.

Ein Workspace definiert unter anderem:

  • welche LLMs genutzt werden (OpenAI, Anthropic, Gemini, Ollama)
  • wie mit sensiblen Daten umgegangen wird
  • welche Dokumente, Prompts und Kontexte verfügbar sind
  • welche Nutzer und Rollen Zugriff haben

So entsteht kein isolierter Chat, sondern ein klar abgegrenzter Arbeitsraum, der sich an realen Team- und Projektstrukturen orientiert.

Datenschutz als architektonisches Prinzip

Datenschutz ist in veilSense kein optionales Feature, sondern Bestandteil der Architektur.

Konkret bedeutet das:

  • Anonymisierung sensibler Inhalte vor der Übergabe an externe LLMs(z. B. mit Microsoft Presidio und firmenspezifischen Dictionaries)
  • Verschlüsselung ruhender Daten mittels BYOK (Bring Your Own Key)
  • strikte Trennung von Workspaces, Nutzern und Kontexten
  • keine unkontrollierte Weitergabe von Rohdaten an Modellanbieter

Damit eignet sich veilSense besonders für Umgebungen, in denen klassische Chatbots aus Compliance-Gründen nicht einsetzbar sind.

Strukturierte Prompts statt Prompt-Wildwuchs

Ein häufiges Problem beim produktiven Einsatz von LLMs ist fehlende Struktur:

Prompts sind individuell, flüchtig und kaum reproduzierbar.

veilSense setzt daher bewusst auf strukturierte Prompts:

  • vordefinierte Prompt-Vorlagen (z. B. für Meeting-Zusammenfassungen)
  • klar definierte Eingabeparameter
  • konsistente und nachvollziehbare Ergebnisse

So wird AI-Nutzung nicht nur effizienter, sondern auch teamfähig und überprüfbar.

RAG: Kontext entsteht vor der Antwort

Retrieval-Augmented Generation (RAG) ist in veilSense kein nachträglicher Zusatz, sondern ein zentrales Plattformprinzip.

Der Fokus liegt darauf, Kontext vor der eigentlichen LLM-Anfrage gezielt aufzubauen – nicht ihn im Nachhinein zu „reparieren“.

Der Ansatz:

  • strukturierte Extraktion aus semi-strukturierten Quellen (z. B. PDFs, Confluence)
  • Zusammenfassung logisch zusammengehöriger Inhalte zu konsistenten Einheiten
  • semantische Suche über pgVector
  • Übergabe eines klar abgegrenzten Kontexts an das LLM

Entscheidend ist dabei die klare Trennung von Themenblöcken und Workspaces.

Inhalte aus unterschiedlichen Kontexten werden nicht vermischt, sondern explizit isoliert behandelt.

Dadurch werden typische Probleme vermieden:

  • Vermischung fachlich oder organisatorisch unterschiedlicher Kontexte
  • Antworten, die zwar plausibel klingen, aber auf falschen Zusammenhängen beruhen
  • fehlende Nachvollziehbarkeit der Antwortgrundlage

Dieses Prinzip gilt plattformweit und bildet die Basis für alle Assistenzfunktionen in veilSense.

Assistenz nach dem Baukastenprinzip

veilSense ist kein monolithisches AI-System, sondern eine erweiterbare Assistenzplattform.

Nach dem Baukastenprinzip können spezialisierte Assistenten ergänzt werden, die jeweils klar abgegrenzte Aufgaben übernehmen. Diese arbeiten überwiegend im Hintergrund und dienen dazu, Informationen zu:

  • recherchieren
  • konsolidieren
  • strukturieren
  • und für weitere Auswertungen aufzubereiten

Beispiel (CV-Assistent):

Lebensläufe werden extrahiert, relevante Inhalte strukturiert erfasst und in einem Knowledge Graphen abgelegt.

Auf dieser Grundlage lassen sich gezielt Fragen beantworten, etwa zu passenden Profilen für eine Projektanfrage oder zu Erfahrungen in bestimmten Technologien und Zeiträumen.

Die so gewonnenen Strukturen fließen in ein Workspace Memory, das spätere Abfragen, Auswertungen und kontextbezogene Assistenz ermöglicht.

Statt „magischer Antworten“ entsteht eine belastbare, nachvollziehbare Wissensbasis, auf der LLMs kontrolliert arbeiten können.

Technische Basis: bewusst stabil

veilSense setzt auf einen wartbaren, klar strukturierten Technologie-Stack:

  • Java / Spring Boot im Backend
  • Angular im Frontend
  • LangChain4J als Abstraktionsschicht für LLMs
  • PostgreSQL mit pgVector für semantische Suche

LangChain4J ermöglicht es, neue Modelle oder Anbieter zu integrieren, ohne bestehende Logik aufzubrechen.

Ist die Architektur einmal stabil, wird Erweiterbarkeit zur Konsequenz – nicht zum Risiko.

Fazit

Wer Open WebUI kennt, wird veilSense sofort bedienen können.

Wer jedoch mehr erwartet als einen Chat – nämlich Kontrolle, Struktur und produktiven Einsatz – wird den Unterschied schnell erkennen.

veilSense ersetzt keine fachlichen Entscheidungen.

Es schafft die architektonischen Voraussetzungen, damit AI sicher, nachvollziehbar und sinnvoll unterstützen kann.


0 Kommentare

Schreibe einen Kommentar

Avatar-Platzhalter

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert