🤖 AI Research Edition

Whats Live Today

Deutsch

What Is Live in Production - Eine ungeschminkte Bestandsaufnahme


Serie: Architektonische KI-Governance auf Gemeinschaftsebene - Eine technische Untersuchung von Village AI (Artikel 4 von 5) Autor: My Digital Sovereignty Ltd Datum: März 2026 Lizenz: CC BY 4.0 International


Geltungsbereich

Dieser Artikel beschreibt das System, wie es im März 2026 in Produktion ist. Wo eine Fähigkeit geplant ist, aber noch nicht eingesetzt wird, wird dies erwähnt. Wo eine Fähigkeit bereits eingesetzt wird, aber bekannte Einschränkungen aufweist, werden diese beschrieben. Ziel ist eine Bestandsaufnahme, anhand derer ein Forscher den Reifegrad des Systems und die an anderer Stelle in dieser Reihe gemachten Aussagen beurteilen kann.

Village AI ist seit Oktober 2025 in Betrieb. Es handelt sich um ein junges System, das in bescheidenem Umfang betrieben wird. Im Folgenden finden Sie eine technische Beschreibung der eingesetzten Architektur.

Modellarchitektur

Basismodell: villageai-8b-corrected-v4 - ein 8B-Parametermodell, das als Basisschicht für alle Mieter dient. Geschult an den operativen Inhalten der Plattform: Funktionsdokumentation, Navigationsmuster, Muster für Hilfeabfragen und Konventionen für die Interaktion mit der Gemeinschaft.

Spezialisierte Schichten: Pro Produkttyp feinabgestimmte Modelle, die über eine Routing-Schicht (model-routing.js) bereitgestellt werden. Die erste Produktionsspezialisierung ist villageai-8b-episcopal-v2, fein abgestimmt auf bischöfliche/anglikanische liturgische, pastorale und Governance-Inhalte. Weitere Spezialisierungen (Familie, Naturschutz, Gemeinschaft) sind geplant, aber noch nicht ausgebildet.

Modell-Routing: Ein InferenceRouter wählt das geeignete Modell auf der Grundlage des Produkttyps des Mandanten aus. Wenn für die Produktart des Mandanten eine Spezialisierung existiert, wird diese verwendet; andernfalls wird das Basismodell für die Anfrage verwendet. Eine erweiterte Ebene ist in der Architektur definiert, aber noch nicht bestückt.

Inferenz-Hardware: Die primäre Inferenz läuft auf einer AMD RX 7900 XTX GPU, auf die über WireGuard VPN vom Anwendungsserver (OVH Frankreich) zugegriffen wird. CPU-Fallback ist unter Verwendung eines 3B-Parameter-degradierten Modells für die Verfügbarkeit bei GPU-Ausfällen verfügbar. Der Grafikprozessor befindet sich nicht am gleichen Standort wie der Anwendungsserver - die Inferenzanfragen durchqueren einen VPN-Tunnel, wodurch sich die Netzwerklatenz auf dem Inferenzpfad erhöht.

Framework: Die Inferenz wird über Ollama verwaltet, wobei der InferenceRouter die Modellauswahl und die Weiterleitung von Anfragen übernimmt. Das System verwendet keine Inferenz-API von Drittanbietern; die gesamte Generierung erfolgt auf einer kontrollierten Infrastruktur.

Abruf-erweiterte Generierung

Vektorspeicher: Qdrant, der Einbettungen von Community-Inhalten speichert (Beiträge, Ankündigungen, Dokumente, Ereignisbeschreibungen, Governance-Datensätze).

Einbettungspipeline: Der EmbeddingService verarbeitet Community-Inhalte in Vektordarstellungen. Die Inhalte werden pro Tenant gechunked, eingebettet und indiziert, wobei eine strikte Tenant-Isolierung auf der Ebene des Vektorspeichers beibehalten wird.

Retrieval zur Inferenzzeit: Benutzeranfragen werden eingebettet und für die Cosinus-Ähnlichkeitssuche gegen den Dokumentenkorpus des Mandanten verwendet. Die abgerufenen Dokumente werden dem Generierungsmodell als Kontext zur Verfügung gestellt, so dass die Antworten auf den tatsächlichen Inhalt der Community basieren.

Inhaltsindizierung: Ein ContentIndexer-Dienst verarbeitet neue und aktualisierte Inhalte im Vektorspeicher. Bei der Indizierung werden die Grenzen der Zustimmung beachtet - Inhalte, die nicht ausdrücklich für die KI-Nutzung freigegeben sind, werden nicht indiziert.

Guardian Agent Pipeline

Jede KI-Antwort durchläuft vier Guardian Agent Schichten, bevor sie den Benutzer erreicht. Die Pipeline ist in src/services/guardians/ implementiert und ist strukturell unabhängig vom Generierungsmodell.

Schicht 1: AccuracyVerifier

Schicht 2: HalluzinationDetector

Schicht 3: AnomalyDetector + PressureMonitor

Schicht 4: ResponseReviewer + RegressionMonitor + Adaptive Feedback

Schutz vor Präferenzen

Ein PreInferenceProtector arbeitet vor der Generierung, indem er Eingaben auf Injektionsmuster überprüft und bestimmte Abfragetypen direkt zur menschlichen Überprüfung weiterleitet. Dabei handelt es sich um einen konservativen Filter, der eher blockiert, und der von der Guardian-Pipeline nach der Generierung getrennt ist.

Was das System heute kann

Gemeindebezogene Fragebeantwortung Bei einer Abfrage zu Gemeindeinhalten ("Wann ist die nächste Gemeindeversammlung?", "Was hat der Rektor über den Baufonds gesagt?") ruft das System relevante Dokumente ab und erzeugt eine Antwort, die auf diesen Inhalten basiert. Wenn keine relevanten Dokumente gefunden werden, zeigt das System dies an, anstatt eine Antwort auf der Grundlage der Priors des Basismodells zu generieren.

**Das System kann Entwürfe für Bulletins, Ankündigungen und Korrespondenz erstellen, die den Ton und das Vokabular der Gemeinschaft widerspiegeln. Alle Entwürfe werden vor der Veröffentlichung von einem Moderator geprüft.

Dokumentenzusammenfassung. Lange Dokumente (Gemeindeprotokolle, Grundsatzdokumente) können zusammengefasst und die wichtigsten Punkte extrahiert werden.

Übersetzungsunterstützung. Die Plattform unterstützt fünf Sprachen: Englisch, Deutsch, Französisch, Niederländisch und Te Reo Maori. Die Übersetzung verwendet DeepL (nicht das Generierungsmodell), um die Genauigkeit zu gewährleisten.

Feedback Triage. Die Rückmeldungen der Mitglieder werden automatisch klassifiziert, wenn möglich untersucht und an den zuständigen Moderator weitergeleitet. Der HelpFeedbackSweepService und der GeneralFeedbackProcessor übernehmen die automatische Untersuchung und Lösung.

OCR und Dokumentenverarbeitung. Der DocumentExtractor-Dienst verarbeitet gescannte Dokumente und macht deren Inhalt durchsuchbar und für den Abruf durch die RAG verfügbar.

Vokabularsystem

Das Vokabularsystem (product-vocabularies.js, vocabulary.js) passt die Terminologie der Plattform an den Community-Typ an. Dies geschieht auf zwei Ebenen:

Oberflächenebene: Benutzeroberflächenbezeichnungen, Navigationsbegriffe und Funktionsnamen werden durch bereichsgerechtes Vokabular ersetzt. Eine episkopale Kirchengemeinde sieht "Gemeindemitglieder", "Kirchenvorstand" und "Gemeindebriefe" statt allgemeiner Plattformterminologie.

Modellebene: Das Vokabular bestimmt den Kontext, der dem Modell zur Verfügung gestellt wird. Wenn sich das System im Kontext der Eingabeaufforderung auf "Gemeindemitglieder" und nicht auf "Benutzer" bezieht, spiegelt die Ausgabe des Modells diesen Rahmen wider. Dies ist ein leichter Eingriff - er wirkt auf der Ebene der Eingabeaufforderung, nicht auf der Ebene der Gewichtung - aber er verringert die Reibung zwischen den Verteilungsprioritäten des Modells und der Terminologie der Gemeinde.

Es werden neun Produkttypen definiert: Gemeinde, Familie, Naturschutz, Diaspora, Vereine, Unternehmen, Ehemalige, Whanau und Episkopal. Jeder dieser Typen hat eine eigene Vokabularzuordnung.

Was noch nicht bewiesen ist

Wir zählen bestimmte Aussagen auf, die noch nicht validiert wurden:

**Guardian Agent Wirksamkeit unter gegnerischen Bedingungen. ** Das System wurde keinem systematischen Red-Teaming unterzogen. Guardian Agent Die Leistung bei gegnerischen Aufforderungen, absichtlichen Versuchen, Halluzinationen hervorzurufen, oder koordinierten Injektionsangriffen ist unbekannt.

**Die Spezialisierung Episcopal (villageai-8b-episcopal-v2) wurde für einen Produkttyp eingesetzt. Ob sich die Strategie der spezialisierten Ebene wirksam auf andere Bereiche (Naturschutzökologie, kulturelle Kontexte der Maori, Familienforschung) übertragen lässt, wurde nicht empirisch nachgewiesen.

**Die vom AccuracyVerifier verwendeten Ähnlichkeitsschwellenwerte wurden auf der Grundlage von Entwicklungstests und ersten Produktionserfahrungen festgelegt. Sie wurden nicht durch systematische Evaluierung anhand eines gelabelten Datensatzes mit fundierten und nicht fundierten Antworten optimiert.

Langfristige Verteilungsstabilität. Das System ist seit etwa fünf Monaten in Produktion. Ob sich die Prioritäten des Basismodells im Laufe der Zeit wieder durchsetzen - ein langsames Abdriften zurück zur Trainingsverteilung trotz Feinabstimmung - wurde nicht über einen ausreichenden Zeithorizont beobachtet, um Schlussfolgerungen zu ziehen.

Sprachübergreifende Verifikation. Für Communities, die in anderen Sprachen als Englisch arbeiten, arbeitet die Guardian Agent Pipeline mit Einbettungen des nicht-englischen Textes. Ob die Kosinus-Ähnlichkeitsprüfung in allen Sprachen gleich effektiv ist, wurde nicht systematisch untersucht.

Konvergenz der Rückkopplungsschleife Der adaptive Rückkopplungsmechanismus (Schicht 4) ist so konzipiert, dass er das Systemverhalten im Laufe der Zeit verbessert. Ob er zu einer stabilen, verbesserten Leistung konvergiert oder unter bestimmten Feedback-Mustern ein oszillierendes oder divergierendes Verhalten zeigt, wurde nicht formal analysiert.

Wir stellen diese Fragen nicht als Aufschub, sondern als offene Fragen dar. Das System ist in Betrieb; diese Fragen sind unbeantwortet.

Infrastruktur

Alle Schlussfolgerungen erfolgen innerhalb der Infrastruktur des Betreibers. Es werden keine Prompts, Antworten oder Community-Inhalte an Drittanbieter von KI übertragen.


Dies ist Artikel 4 von 5 in der Reihe "Architektonische KI-Governance im Gemeinschaftsmaßstab". Die vollständige technische Architektur finden Sie unter Village AI on Agentic Governance.

Vorherige Seite: Warum Governance zur Einarbeitungszeit scheitert - Architektonische Einschränkungen als Alternative Nächste: Jenseits des Modells - Plattformarchitektur und Governance-Integration

Published under CC BY 4.0 by My Digital Sovereignty Ltd. You are free to share and adapt this material, provided you give appropriate credit.