🎓 Academia Edition

Governance Challenge

Deutsch

Warum eine politikbasierte KI-Governance unzureichend ist - Die strukturelle Alternative


Reihe: Community-Scale AI Governance - Eine Forschungsperspektive auf die Village Platform (Artikel 3 von 5) Autor: My Digital Sovereignty Ltd Datum: März 2026 Lizenz: CC BY 4.0 International


Das Problem der stummen Substitution

Stellen Sie sich ein Szenario vor, das ein Versagen der Verwaltung veranschaulicht, das sich von faktischen Fehlern unterscheidet.

Ein Forscher bittet ein KI-System, die Governance-Grundsätze einer Gemeinschaftsorganisation zusammenzufassen, und gibt an, dass die Zusammenfassung das kommunitäre Ethos der Organisation widerspiegeln soll - gemeinsame Entscheidungsfindung, gegenseitige Verpflichtung, Subsidiarität. Das System erstellt eine gut strukturierte Zusammenfassung. Sie ist flüssig, kohärent und liest sich verbindlich. Außerdem werden die kommunitären Grundsätze systematisch in individualistische Begriffe umgewandelt: aus "gemeinsamer Entscheidungsfindung" wird "Konsultation der Interessengruppen", aus "gegenseitiger Verpflichtung" wird "Engagement der Mitglieder", und aus "Subsidiarität" wird "delegierte Autorität"

Die Ersetzung ist nicht zufällig. Sie spiegelt die statistische Dominanz der Corporate-Governance-Sprache in den Trainingsdaten des Modells wider. Das Modell hat die Anweisung nicht abgelehnt. Es hat keinen Konflikt angezeigt. Es hat stillschweigend einen Werterahmen durch einen anderen ersetzt - einen, der angesichts seiner Trainingsverteilung statistisch wahrscheinlicher ist.

Dies könnte man als Verteilungsdrift auf Werteebene bezeichnen: Die Ergebnisse der KI weichen systematisch vom beabsichtigten Werterahmen ab, nicht weil das System fehlerhaft ist, sondern weil seine Trainingsverteilung und die Zielverteilung nicht übereinstimmen. Die Abweichung ist subtil - das Vokabular ist nahe genug, um eine zufällige Inspektion zu überstehen - und unauffällig - das System gibt keinen Hinweis darauf, dass eine Substitution stattgefunden hat.

Dieser Fehlermodus unterscheidet sich qualitativ von faktischen Fehlern. Sachliche Fehler können durch einen Abgleich mit den Quelldokumenten festgestellt werden. Die Abweichung auf der Wertebene erfolgt auf der Ebene der Formulierung, der Betonung und der impliziten Annahmen - Dimensionen, die nur schwer in einer Überprüfungsregel erfasst werden können und für einen nicht fachkundigen Leser schwer zu erkennen sind.

Die Grenzen der politikbasierten Governance

Der vorherrschende Ansatz für KI-Governance im organisatorischen Kontext ist politikbasiert: Richtlinien zur akzeptablen Nutzung, ethische Richtlinien, Rahmenwerke für verantwortungsvolle KI, Nutzungsbedingungen. Diese Instrumente weisen eine strukturelle Einschränkung auf, die in der Governance-Theorie gut verstanden, in der KI-Governance-Praxis jedoch nur unzureichend anerkannt wird.

Die auf Richtlinien basierende Governance verlässt sich darauf, dass die regierte Einheit die Richtlinien einhält. Bei menschlichen Agenten hat dieses Modell zwar seine Grenzen, ist aber teilweise wirksam - Menschen können Richtlinien lesen, interpretieren und sich dafür entscheiden, sie zu befolgen, und die sozialen und rechtlichen Konsequenzen der Nichteinhaltung bieten Durchsetzungsmechanismen.

Für KI-Systeme ist das Modell grundlegend unpassend. Ein LLM liest und interpretiert ein Richtliniendokument nicht so, wie es ein menschlicher Mitarbeiter tun würde. Wenn eine Systemaufforderung das Modell anweist, "Gemeinschaftswerte zu respektieren" oder "einen kommunitären Ton zu pflegen", verarbeitet das Modell diese Anweisungen als zusätzlichen Kontext, der seine Ausgabeverteilung beeinflusst, aber nicht bestimmt. Unter Bedingungen, in denen die Anweisung mit starken Mustern in der Basis-Trainingsverteilung kollidiert, dominiert die Trainingsverteilung tendenziell.

Die Feinabstimmung behebt dies zum Teil, indem sie die Verteilung des Modells so anpasst, dass die gewünschten Ausgaben begünstigt werden. Die Feinabstimmung setzt jedoch auf der Basisverteilung auf, anstatt sie zu ersetzen. In der Fachliteratur werden mehrere Fehlerarten beschrieben:

Der richtlinienbasierte Ansatz ist nicht ohne Wert. Er legt Normen fest, kommuniziert Erwartungen und bietet einen Bezugspunkt für die Rechenschaftspflicht. Er ist jedoch als alleiniger Steuerungsmechanismus für Systeme unzureichend, die - in einem sinnvollen Sinne - die von ihnen zu befolgenden Richtlinien nicht verstehen oder sich nicht zu ihnen bekennen.

Theoretische Grundlagen: Wittgenstein, Berlin und polyzentrisches Regieren

Der Rahmen von Tractatus stützt sich auf drei intellektuelle Traditionen, die zwar unterschiedlich sind, aber in einer gemeinsamen Einsicht konvergieren: Einige Governance-Probleme lassen sich nicht auf Regeln reduzieren.

Wittgenstein und die Grenzen der Formalisierung Ludwig Wittgensteins Arbeit über die Grenzen der Sprache und der Formalisierung ist unmittelbar relevant. Seine Beobachtung, dass einige Sätze präzise formuliert werden können, während sich andere einer präzisen Formulierung entziehen, lässt sich auf eine praktische Unterscheidung in der KI-Governance übertragen. Einige Entscheidungen der Gemeinschaft sind formalisierbar: auf die Frage "Wann findet das nächste Treffen statt?" gibt es eine eindeutige Antwort, die aus den Aufzeichnungen abgerufen werden kann. Andere sind es nicht: "Wie sollen wir eine heikle Angelegenheit mit einem langjährigen Mitglied angehen?" beinhaltet kontextbezogene Beurteilungen, Beziehungswissen und Wertabwägungen, die sich einer systematischen Behandlung entziehen.

Der Tractatus Rahmen operationalisiert diese Unterscheidung als Grenzdurchsetzungsmechanismus: Anfragen, die in den formalisierbaren Bereich fallen, werden von der KI bearbeitet; Anfragen, die in den nicht-formalisierbaren Bereich fallen, werden an menschliche Entscheidungsträger weitergeleitet. Die Grenze wird architektonisch durchgesetzt, nicht durch Richtlinien.

**Das Argument von Isaiah Berlin, dass menschliche Werte irreduzibel plural sind - dass einige Güter wirklich unvereinbar sind und nicht gleichzeitig optimiert werden können - hat Auswirkungen auf KI-Systeme, die versuchen, "optimale" Antworten zu finden. In einem Gemeinschaftskontext lassen sich die Spannungen zwischen individueller Privatsphäre und kollektiver Transparenz, zwischen Tradition und Anpassung, zwischen Effizienz und Beteiligung nicht optimal lösen. Sie müssen von den Menschen, die die Konsequenzen tragen, ständig neu ausgehandelt werden.

Ein KI-System, das solche Spannungen löst, indem es sich auf seine Trainingsverteilung stützt, regiert nicht - es setzt eine bestimmte Lösung ohne Autorität durch. Der Rahmen von Tractatus geht auf dieses Problem ein, indem er werthaltige Entscheidungspunkte identifiziert und eine menschliche Entscheidung anstelle einer KI-Lösung verlangt.

**Elinor Ostroms Arbeit über die Verwaltung von Gemeinschaftsressourcen bietet einen Rahmen für das Verständnis, wie kleine Gemeinschaften gemeinsame Ressourcen ohne zentrale Autorität effektiv verwalten können. Mehrere von Ostroms Gestaltungsprinzipien - klar definierte Grenzen, kollektive Wahlmöglichkeiten, Überwachung, abgestufte Sanktionen, Konfliktlösungsmechanismen - sind direkt auf die KI-Governance auf Gemeinschaftsebene anwendbar.

Der Rahmen von Tractatus nimmt ausdrücklich ein polyzentrisches Modell an: Die Governance-Autorität ist auf mehrere unabhängige Mechanismen verteilt (die Guardian Agents wie im vorigen Artikel beschrieben), von denen keiner eine einseitige Autorität hat und jeder die anderen überwacht. Dies entspricht strukturell Ostroms Beobachtung, dass eine wirksame Governance von Gemeingütern eher mehrere, sich überschneidende Durchsetzungsmechanismen erfordert als eine einzige zentralisierte Behörde.

Der Tractatus Rahmen: Architektonische Governance

Der Tractatus Rahmen schlägt vier strukturelle Governance-Mechanismen vor, die unabhängig von dem KI-System funktionieren, das sie steuern:

Grenzendurchsetzung Eine Klassifizierungsschicht, die eingehende Anfragen bewertet und diejenigen identifiziert, die Werturteile, ethische Kompromisse oder kontextuelle Sensibilität außerhalb des formalisierbaren Bereichs beinhalten. Solche Anfragen werden nicht von der KI beantwortet - sie werden an bestimmte menschliche Entscheidungsträger innerhalb der Gemeinschaft weitergeleitet. Die Grenze wird durch die Community-spezifische Konfiguration definiert, nicht durch die Einschätzung der eigenen Kompetenz durch das KI-Modell.

**Die von der Community definierten Anweisungen - "verwende immer diese Terminologie", "erstelle niemals Inhalte zu diesem Thema", "leite Fragen zu diesem Thema an den Moderator weiter" - werden in einem separaten System gespeichert, auf das das KI-Modell weder zugreifen noch es verändern kann. Die Ergebnisse des Modells werden nach der Generierung mit diesen gespeicherten Anweisungen abgeglichen. Konflikte werden zugunsten der gespeicherten Anweisung gelöst, unabhängig von der Ausgabeverteilung des Modells.

Querverweisvalidierung Die im vorigen Artikel beschriebene Verifizierungsschicht Guardian Agent - semantische Erdung, Anspruchszerlegung, Driftüberwachung und adaptives Feedback. Diese Mechanismen sind strukturell unabhängig vom KI-Modell und verwenden unterschiedliche Berechnungsmethoden (Einbettungsähnlichkeit, nicht generative Vorhersage) zur Bewertung der Ergebnisse.

Context pressure monitoring. Eine Meta-Governance-Schicht, die die Betriebsbedingungen überwacht, unter denen die KI arbeitet - Anfragekomplexität, Neuartigkeit im Verhältnis zur Trainingsverteilung, Systemlast - und die Überprüfungsintensität entsprechend anpasst. Unter Hochdruckbedingungen (neuartige Abfragen, Grenzfälle, komplexe mehrteilige Anfragen) werden die Überprüfungsschwellen verschärft. Damit wird der Beobachtung Rechnung getragen, dass KI-Systeme am ehesten unter Bedingungen versagen, unter denen ihre Ergebnisse am folgenreichsten sind.

Was der Rahmen nicht behauptet

Es ist wichtig, explizit darauf hinzuweisen, was der Tractatus Rahmen nicht behauptet, da die Versuchung, den Beitrag zu übertreiben, eine anerkannte Fehlerquelle in der Governance-Forschung darstellt.

Es erhebt nicht den Anspruch, das Alignment-Problem zu lösen. Der Rahmen regelt die KI-Outputs nach der Generation. Er befasst sich nicht mit der tieferen Frage, ob die internen Repräsentationen eines KI-Systems mit menschlichen Werten in Einklang gebracht werden können. Der Rahmen geht von der Annahme aus, dass eine Angleichung mit der derzeitigen Technologie nicht möglich ist und daher eine externe Steuerung erforderlich ist - diese Annahme könnte jedoch falsch sein, und ein Durchbruch in der Angleichungsforschung könnte den Ansatz des Rahmens weniger relevant machen.

Es wird nicht behauptet, dass die Verteilungsverzerrung beseitigt wird. Der Rahmen mildert die Auswirkungen der Verteilungsverzerrung durch Überprüfung und Durchsetzung der Grenzen. Er beseitigt die Verzerrung nicht aus dem Modell. Unter Bedingungen, bei denen die Überprüfungsebenen versagen (neuartige Domänen, spärliche Community-Datensätze, gegnerische Eingaben), wird sich die Verteilungsverzerrung wieder durchsetzen.

Es erhebt keinen Anspruch auf universelle Anwendbarkeit. Der Rahmen ist für den Einsatz auf Gemeinschaftsebene konzipiert - Organisationen mit einigen Dutzend bis Hunderten von Mitgliedern, authentifiziertem Zugang und identifizierbaren Moderatoren. Ob es auch für größere Organisationen, anonymen Zugang oder Gemeinschaften ohne stabile Verwaltungsstrukturen geeignet ist, wurde noch nicht getestet.

Es erhebt keinen Anspruch auf eine empirische Validierung im großen Maßstab. Der Rahmen ist implementiert und einsatzbereit, aber die Einsatzbasis ist klein. Behauptungen über die Wirksamkeit beruhen auf einer Architekturanalyse und begrenzten operativen Daten, nicht auf kontrollierten Studien oder Längsschnittuntersuchungen. Die Autoren halten dies für eine erhebliche Einschränkung.

Es erhebt nicht den Anspruch, existenzielle KI-Risiken zu behandeln. Das Rahmenwerk regelt KI-Systeme der aktuellen Generation in spezifischen Einsatzkontexten. Er befasst sich nicht mit spekulativen Risiken im Zusammenhang mit künstlicher allgemeiner Intelligenz oder Superintelligenz, die grundlegend andere Governance-Ansätze erfordern.

Offene Forschungsfragen

Das Rahmenwerk Tractatus wirft mehrere Fragen auf, die die Autoren für offen und untersuchungswürdig halten:

  1. Grenzkalibrierung. Wie sollte die Grenze zwischen formalisierbaren und nicht formalisierbaren Abfragen festgelegt werden? Die derzeitige Implementierung verwendet eine gemeinschaftsspezifische Konfiguration, aber die Kriterien für die Festlegung der Grenze sind nicht formalisiert. Ist eine verallgemeinerbare Methodik zur Grenzbestimmung möglich?

  2. Angemessenheit der Verifikation. Unter welchen Bedingungen versagen die Verifikationsmechanismen von Guardian Agent? Wie hoch ist die Falsch-Negativ-Rate bei der Erkennung von Drifts auf Werteebene? Können gegnerische Eingaben die Verifikationsschichten systematisch umgehen?

  3. Dynamik der Rückkopplungsschleife. Konvergiert der adaptive Rückkopplungsmechanismus im Laufe der Zeit zu den Präferenzen der Gemeinschaft, oder führt er zu systematischen Verzerrungen? Unter welchen Bedingungen verschlechtert sich das Rückkopplungssignal?

  4. Verallgemeinerbarkeit über Gemeindegrenzen hinweg. Führt die Architektur zu vergleichbaren Governance-Ergebnissen in verschiedenen Gemeindetypen (Religion, Umwelt, Wirtschaft, Bildung)? Welche Gemeinschaftsmerkmale sagen Erfolg oder Misserfolg voraus?

  5. Skalierbarkeitsgrenzen. Ab welcher Gemeinschaftsgröße bricht das polyzentrische Governance-Modell zusammen? Gibt es eine Schwelle, jenseits derer eine zentralisierte Verwaltung effektiver wird?

  6. Langfristige Stabilität. Verringern sich die Governance-Eigenschaften im Laufe der Zeit, wenn sich der Inhaltskorpus der Gemeinschaft weiterentwickelt und das Modell neu trainiert wird? Gibt es ein Governance-Äquivalent zur Modelldrift?

Diese Fragen sind nicht rhetorisch. Sie definieren eine Forschungsagenda, die die Autoren als notwendig erachten, um den Beitrag des Rahmens zu evaluieren. Der Wert des Rahmens als Forschungsbeitrag hängt von der Bereitschaft ab, ihn einer empirischen Prüfung zu unterziehen, und die Autoren laden aktiv zu einer solchen Prüfung ein.


Dies ist Artikel 3 von 5 in der Reihe "Community-Scale AI Governance". Die vollständige Governance-Architektur finden Sie unter Village AI on Agentic Governance. Der Quellcode des Tractatus Frameworks ist unter Apache 2.0 auf agenticgovernance.digital. verfügbar

Zurück: Plattform-KI vs. Community-Governed AI - Eine strukturelle Analyse Next: Ein Produktionssystem auf dem Prüfstand - was heute eingesetzt wird

Published under CC BY 4.0 by My Digital Sovereignty Ltd. You are free to share and adapt this material, provided you give appropriate credit.