🎓 Academia Edition

Big Tech vs Community

Deutsch

Plattform-KI vs. Community-Governed AI - eine strukturelle Analyse


Reihe: Community-Scale AI Governance - Eine Forschungsperspektive auf die Village Platform (Artikel 2 von 5) Autor: My Digital Sovereignty Ltd Datum: März 2026 Lizenz: CC BY 4.0 International


Das Korpusproblem

Die Steuerungseigenschaften eines KI-Systems werden wesentlich durch seinen Trainingskorpus bestimmt. Dies ist kein zweitrangiges Problem - es ist eine architektonische Eigenschaft erster Ordnung.

Kommerzielle LLMs von großen Plattformanbietern werden auf Korpora im Web-Maßstab trainiert: Milliarden von Dokumenten aus dem offenen Internet, ergänzt durch lizenzierte Datensätze und proprietäre Sammlungen. Die daraus resultierenden Systeme sind sehr leistungsfähig und haben dementsprechend breite Verteilungsannahmen.

Das Internet als Trainingskorpus repräsentiert bestimmte Bereiche und Perspektiven übermäßig:

Dementsprechend sind sie unterrepräsentiert:

Dieses Ungleichgewicht in der Verteilung lässt sich nicht durch den Umfang korrigieren. Ein größerer Webkorpus verstärkt die gleichen Verzerrungen. Es handelt sich um eine strukturelle Eigenschaft der Datenquelle, nicht um einen Stichprobenfehler.

Bereichsspezifische KI: Die Alternative und ihre Grenzen

Die Village-Plattform verfolgt einen anderen architektonischen Ansatz: ein kleineres Modell, das auf einem mehrschichtigen Korpus trainiert wird, der domänenspezifischen Inhalten Vorrang vor der Breite einräumt.

Die Trainingsarchitektur besteht aus drei Schichten:

Plattform-Ebene: Gemeinsames operatives Wissen, das in allen Einsätzen genutzt wird - wie die Plattform funktioniert, welche Funktionen verfügbar sind, Navigationshilfen. Diese Ebene ist vergleichbar mit einer gemeinsamen Ontologie für alle Instanzen.

**Community-Schicht: ** Inhalte, die für einen bestimmten Einsatz spezifisch sind - die Aufzeichnungen, Mitteilungen und Dokumente, die von der Community erstellt werden, die die Instanz betreibt. Diese Schicht unterscheidet einen Einsatz von einem anderen und verankert die Ergebnisse des Modells im lokalen Kontext.

Zustimmungsschicht. Eine strukturelle Einschränkung: Kein Inhalt gelangt in den Trainingskorpus ohne ausdrückliche, überprüfbare Zustimmung des Inhaltserstellers. Dies wird architektonisch durchgesetzt, nicht durch Richtlinien.

Das resultierende System ist enger gefasst als ein kommerzielles LLM. Es kann keine Themen außerhalb seines Trainingsbereichs kompetent diskutieren. Es wird keine kreativen Texte für allgemeine Zwecke verfassen oder sich an weitreichenden Gesprächen beteiligen. Was es stattdessen bietet, sind Ergebnisse, die auf den Aufzeichnungen einer bestimmten Gemeinschaft beruhen und anhand dieser Aufzeichnungen überprüfbar sind.

Beschränkungen dieses Ansatzes

Es sollten mehrere Einschränkungen anerkannt werden:

Reduzierte Allgemeingültigkeit. Ein domänenspezifisches Modell kann nicht bei Aufgaben außerhalb seiner Trainingsdomäne helfen. Community-Mitglieder, die allgemeine KI-Hilfe benötigen, müssen ein separates System verwenden.

Beschränkungen der Korpusgröße. Kleine Gemeinschaften produzieren nur begrenzte Inhalte. Ein Modell, das auf ein paar hundert Dokumente trainiert wurde, hat eine entsprechend schmale Wissensbasis. Die Qualität der Ergebnisse wird direkt durch den Umfang und die Qualität der Gemeinschaftsinhalte eingeschränkt.

**Die Community-Schicht muss regelmäßig neu trainiert werden, um neue Inhalte einzubeziehen. Zwischen den Umschulungszyklen ist das Wissen des Modells veraltet. Die derzeitige Umschulungsfrequenz (wöchentlich während der Beta-Phase) kann für sich schnell ändernde Kontexte unzureichend sein.

Feinabstimmungsanfälligkeit. Die bereichsspezifische Feinabstimmung überlagert die bestehende Verteilung eines Basismodells mit neuen Mustern. Unter bestimmten Abfragebedingungen - insbesondere bei neuartigen oder komplexen Fragen - können sich die Muster des Basismodells wieder durchsetzen, ein Phänomen, das in der Literatur als katastrophales Vergessen bekannt ist. Das Ausmaß, in dem sich dies in der Praxis auf Governance-relevante Ergebnisse auswirkt, ist für dieses System noch nicht gut charakterisiert.

Guardian Agents: Externe Überprüfungsarchitektur

Die Village-Plattform verlässt sich nicht allein auf die Ausbildung, um die Qualität der Ergebnisse zu gewährleisten. Sie schaltet eine Verifizierungsebene - genannt "Guardian Agents" - zwischen den Ergebnissen des Modells und dem Endbenutzer.

Die Architektur von Guardian Agent umfasst vier unabhängige Überprüfungsmechanismen:

Überprüfung der semantischen Grundlage. Die Ausgabe des Modells wird mit dem Dokumentenkorpus der Gemeinschaft verglichen, wobei einbettungsbasierte Ähnlichkeitsmaße verwendet werden. Ausgaben, denen es an ausreichender Grundlage in den tatsächlichen Datensätzen mangelt, werden markiert oder unterdrückt.

**Die Ausgabe wird in einzelne Aussagen zerlegt, die jeweils unabhängig voneinander überprüft werden. Damit wird dem häufigen Fehler begegnet, dass eine Antwort eine Mischung aus begründeten und nicht begründeten Behauptungen enthält.

Überwachung der Verhaltensdrift. Eine longitudinale Überwachungsschicht verfolgt Muster in den Ausgaben des Modells im Laufe der Zeit und erkennt systematische Verschiebungen im Tonfall, in der Formulierung oder in der Genauigkeit, die auf eine Verteilungsdrift oder Verschlechterung hinweisen können.

Adaptive Feedback-Integration. Das Feedback der Community-Mitglieder (sowohl explizite Bewertungen als auch Moderationskorrekturen) wird in die Überprüfungsschwellenwerte integriert. Dadurch entsteht eine Rückkopplungsschleife, in der das Überprüfungssystem mit der Zeit immer besser auf die Erwartungen der Community abgestimmt wird.

Gegenargumente und Fehlermöglichkeiten

Die Architektur von Guardian Agent ist ein Forschungsbeitrag und kein gelöstes Problem. Mehrere Gegenargumente und Fehlermöglichkeiten sollten untersucht werden:

Semantische Ähnlichkeit ist nicht Wahrheit. Die auf Einbettung basierende Überprüfung misst die semantische Nähe, nicht die faktische Genauigkeit. Eine Aussage, die einem Quelldokument semantisch nahe kommt, kann dennoch faktisch falsch sein - Paraphrasen können die Bedeutung umkehren, während die Einbettungsähnlichkeit erhalten bleibt. Die Dekompositionsebene auf der Behauptungsebene trägt diesem Umstand teilweise Rechnung, aber falsch positive und falsch negative Ergebnisse bleiben bestehen.

Die Überprüfungsabdeckung ist unvollständig. Die Wächter können Behauptungen anhand vorhandener Datensätze überprüfen. Sie können keine Behauptungen über Themen überprüfen, die nicht von den Aufzeichnungen der Gemeinschaft abgedeckt werden. Bei neuartigen Fragen steht das System vor der Wahl, entweder die Antwort zu verweigern (konservativ, aber nicht hilfreich) oder nicht überprüfbare Ergebnisse zu erzeugen (hilfreich, aber ungeschützt). Die derzeitige Implementierung kennzeichnet Antworten mit geringem Vertrauen, anstatt sie zu unterdrücken, wodurch die Überprüfungslast auf den Endbenutzer übertragen wird.

Feedback-Schleifen können zu Verzerrungen führen. Der adaptive Feedback-Mechanismus geht davon aus, dass das Feedback der Community ein zuverlässiges Signal ist. In der Praxis kann das Feedback spärlich sein, bestimmte demografische Gruppen von Nutzern bevorzugen oder Vorlieben widerspiegeln, die mit der Genauigkeit in Konflikt stehen. Das System unterscheidet derzeit nicht zwischen Feedback, das sachliche Fehler korrigiert, und Feedback, das ästhetische oder ideologische Präferenzen widerspiegelt.

Rechenaufwand. Die vierschichtige Überprüfung verursacht zusätzliche Latenzzeiten und Rechenkosten. Bei zeitkritischen Abfragen kann dieser Aufwand die Benutzerfreundlichkeit so weit verschlechtern, dass das System nicht genutzt wird - ein Versagen der Verwaltung durch Nichtannahme und nicht durch technische Fehler.

The Trade-Off: Ein analytischer Rahmen

Die Wahl zwischen kommerzieller KI und von der Gemeinschaft verwalteter KI ist keine Wahl zwischen einer guten und einer schlechten Option. Es ist eine Wahl zwischen verschiedenen Kompromissprofilen:

Dimension Kommerzielle Plattform-KI Community-Governed AI
Breite der Fähigkeiten Hoch Niedrig (domänenspezifisch)
Verteilungsbias Reflektiert Web-Scale-Korpus Reflektiert Community-Korpus
Verifizierbarkeit Gering (proprietär, undurchsichtig) Höher (Open-Source, überprüfbar)
Datenhoheit Daten fließen zum Anbieter Daten bleiben innerhalb der Community-Grenzen
Verifizierungsarchitektur Anbieter-kontrolliert Community-kontrollierbar
Rechenressourcen Erheblich (Cloud-Skala) Begrenzt (lokal oder Small-Cloud)
Verallgemeinerbarkeit Hoch Gering (durch Design)

Keines der beiden Profile ist kategorisch überlegen. Die geeignete Wahl hängt von den Governance-Prioritäten der einführenden Gemeinschaft ab - ein Punkt, der selbst eine Governance-Entscheidung darstellt.

Replizierbarkeit und Verallgemeinerbarkeit

Eine Frage von besonderem Interesse für die Forschungsgemeinschaft ist, ob die Village-Architektur über ihren aktuellen Einsatzkontext hinaus replizierbar und verallgemeinerbar ist.

Die Plattform ist für den mandantenfähigen Betrieb in verschiedenen Gemeinschaftstypen ausgelegt (die derzeitige Implementierung unterstützt neun Produkttypen, von Kirchengemeinden über Naturschutzgruppen bis hin zu Ehemaligenvereinigungen). Das Vokabularsystem passt die Terminologie an den Gemeinschaftskontext an, was auf ein gewisses Maß an Verallgemeinerbarkeit der Plattformschicht schließen lässt.

Mehrere Faktoren schränken jedoch die Verallgemeinerbarkeit ein:

Dies sind offene Forschungsfragen, keine beschlossenen Designentscheidungen.


Dies ist Artikel 2 von 5 in der Reihe "Community-Scale AI Governance". Für die vollständige Guardian Agents architektur finden Sie unter Village AI on Agentic Governance.

Zurück: Was KI ist, was sie nicht ist und was ungewiss bleibt Nächste: Warum politikbasierte KI-Governance unzureichend ist - Die strukturelle Alternative

Published under CC BY 4.0 by My Digital Sovereignty Ltd. You are free to share and adapt this material, provided you give appropriate credit.