⚖ Leadership Edition

Governance Challenge

Deutsch

Warum Regeln und Schulungen nicht ausreichen - Die Governance-Herausforderung


Reihe: AI Governance für kommunale Führungskräfte - Verständnis Village AI für Treuhänder, Ratsmitglieder und Vorstandsmitglieder (Artikel 3 von 5) Autor: My Digital Sovereignty Ltd Datum: März 2026 Lizenz: CC BY 4.0 International


Die Planungskommunikation

Bevor wir die Governance-Philosophie diskutieren, wollen wir mit einem praktischen Beispiel beginnen.

Eine Stadträtin bittet ein KI-System um Hilfe beim Verfassen eines Briefes an die Anwohner über ein geplantes Bauvorhaben in einem Naturschutzgebiet. Sie ist sehr genau: Sie möchte eine maßvolle Formulierung, die die Bedenken der Anwohner anerkennt, den Planungsrahmen erläutert und die Verpflichtung der Stadtverwaltung zur transparenten Abwägung konkurrierender Interessen deutlich macht. Sie tippt ihren Antrag sorgfältig ab und wartet.

Die KI erstellt einen gut strukturierten Brief. Es ist flüssig, professionell und sorgfältig formuliert. Es ist die Rede vom "Umgang mit den Erwartungen der Interessengruppen", von der "Ausrichtung an strategischen Prioritäten", von der "Nutzung von Möglichkeiten zur Einbindung der Gemeinschaft" und von der "Positionierung der Entwicklungsgeschichte" Er liest sich kompetent. Es klingt professionell. Und er ist völlig falsch.

Die Einwohner brauchen keine Steuerung ihrer Erwartungen. Sie müssen verstehen, was ihr Rat beschlossen hat und warum. Sie brauchen keine Erzählung. Sie brauchen einen transparenten Bericht über die Planungsüberlegungen, die eingegangenen Stellungnahmen und die Gründe für die Entscheidung. Die Beamtin fragte nach bürgerlicher Rechenschaftspflicht, und die KI gab ihr Corporate Stakeholder Management - denn ihre Schulungsdaten enthalten weitaus mehr geschäftliche Mitteilungen als bürgerliche Korrespondenz.

Die KI hat die Anweisung der Beamtin nicht abgelehnt. Sie hat nicht gesagt: "Ich verstehe nichts von öffentlicher Rechenschaftspflicht" Sie ersetzte einfach das, wonach sie fragte, durch das, was in ihren Trainingsdaten statistisch gesehen häufiger vorkam. Die Ersetzung erfolgte stillschweigend. Hätte die Beamtin unter Zeitdruck gestanden, wäre sie weniger erfahren gewesen oder hätte sie sich mehr auf die KI verlassen, als sie sollte, hätte sie es vielleicht nicht bemerkt. Der Brief wäre rausgegangen, und die Bewohner hätten eine Mitteilung erhalten, die sie als zu verwaltende Interessengruppen und nicht als zu betreuende Wähler behandelt hätte.

Ihr Telefon korrigiert Wörter automatisch. Sie sehen den roten Unterstrich und korrigieren ihn. AI korrigiert automatisch Werte. Und es gibt keinen Unterstrich.

Wenn Muster die Werte überschreiben

Die Planungskommunikation ist kein Einzelfall. Derselbe Mechanismus wirkt in jeder KI-Interaktion.

Wenn ein Bürger ein KI-System um Informationen über eine schwierige Planungsangelegenheit bittet, greift das System auf die Sprache der individuellen Verbraucherrechte zurück - Beschwerdeeskalation, Rechtsmittel, kontradiktorisches Framing -, da dies in seinen Trainingsdaten vorherrscht. Es greift nicht nach der Sprache des Gemeinschaftsinteresses, der kollektiven Beratung und der langfristigen Perspektive, die sich aus dem Verständnis ergibt, dass diese Entscheidung eine Nachbarschaft für Jahrzehnte prägen wird.

Wenn ein Vorstandssekretär die KI bittet, ihm bei der Abfassung eines Protokolls zu helfen, greift sie auf die Sprache des Vorstands zurück - "der Vorstand hat es zur Kenntnis genommen", "es wurde beschlossen", "es wurden Aktionspunkte zugewiesen" -, weil die Protokolle von Unternehmen in den Trainingsdaten weitaus zahlreicher sind als die Protokolle der Gemeindeverwaltung. Die Nuancen der Community-Beratungen - wo Dissens aufgezeichnet wird, wo eine Entscheidung widerwillig getroffen wurde, wo die Begründung genauso wichtig ist wie der Beschluss - werden auf die Effizienz von Unternehmen heruntergebrochen.

Die KI ist nicht feindlich gegenüber bürgerlichen Werten. Sie kennt bürgerliche Werte einfach nicht in der Tiefe. Sie weiß, was statistisch gesehen üblich ist, und was statistisch gesehen üblich ist, ist nicht das, was für Organisationen mit einer Fürsorgepflicht gegenüber ihren Gemeinschaften am besten geeignet ist.

Das ist das Problem der Verwaltung. Nicht Böswilligkeit. Nicht Inkompetenz. Strukturelle Voreingenommenheit, die im Stillen wirkt.

Warum mehr Regeln das Problem nicht lösen

Der Instinkt der meisten Organisationen, wenn sie mit KI-Risiken konfrontiert werden, besteht darin, Richtlinien zu schreiben. Richtlinien zur akzeptablen Nutzung. KI-Ethik-Richtlinien. Rahmenwerke für verantwortungsvolle KI. Aufgabenbeschreibungen für KI-Aufsichtsgremien.

Diese Dokumente sind nicht ohne Wert, aber sie haben eine grundlegende Einschränkung: Sie sind darauf angewiesen, dass das KI-System sie befolgt.

Ein KI-System liest nicht Ihre Richtlinien zur akzeptablen Nutzung und beschließt, sie einzuhalten. Es generiert Antworten auf der Grundlage statistischer Muster in seinen Trainingsdaten. Wenn diese Muster im Widerspruch zu Ihrer Richtlinie stehen, gewinnen die Muster - nicht weil die KI trotzig ist, sondern weil sie keine Richtlinien verarbeitet. Sie verarbeitet Muster.

Sie können ein Modell feinabstimmen, d. h. sein Training anpassen, um bestimmte Verhaltensweisen zu betonen. Das hilft zwar, löst aber nicht das eigentliche Problem. Die Feinabstimmung fügt neue Muster zu den bestehenden hinzu. Unter Druck, unter ungewöhnlichen Umständen oder bei neuartigen Fragen setzen sich die alten Muster wieder durch. Der Fachbegriff lautet "katastrophales Vergessen", aber die einfache Version ist einfacher: Das Training nutzt sich ab.

Eine Richtlinie zu schreiben, die besagt: "Unsere KI wird die Werte unserer Gemeinschaft respektieren", ist so, als würde man eine Richtlinie schreiben, die besagt: "Unser Fluss wird nicht überschwemmt." Der Fluss kann keine Richtlinien lesen. Wenn man Überschwemmungen verhindern will, muss man Dämme bauen - bauliche Maßnahmen, die unabhängig davon funktionieren, was der Fluss tut.

Die Steuerung der KI erfordert den gleichen Ansatz. Es geht nicht um Regeln, die die KI befolgen soll, sondern um Strukturen, die unabhängig von der KI funktionieren und ihr Verhalten von außen kontrollieren.

Die KI-Verordnung der EU erkennt diesen Grundsatz an. Sie verlangt nicht nur, dass KI-Systeme "ethisch" sind, sondern auch technische Dokumentation, Konformitätsbewertungen, menschliche Kontrollmechanismen und eine Überwachung nach dem Inverkehrbringen. Die Verfasser des Gesetzes haben verstanden, dass ein Anspruch ohne Architektur unzureichend ist. Die Frage, die sich den Verwaltungsorganen stellt, ist, ob ihre eigene KI-Einführung das gleiche Verständnis widerspiegelt.

Was uns die Governance-Theorie sagt

Die Einsicht, dass sich manche Entscheidungen nicht auf Regeln reduzieren lassen, ist nicht neu. Sie ist ein Grundpfeiler der Governance-Theorie.

Der Philosoph Ludwig Wittgenstein verbrachte seine Karriere damit, die Grenze zwischen dem, was genau gesagt werden kann, und dem, was jenseits einer präzisen Aussage liegt, zu erforschen. Seine Schlussfolgerung, dass "man über das, was man nicht sagen kann, schweigen muss", ist für die KI-Governance unmittelbar relevant. Einige Fragen können systematisiert werden: auf die Frage "Wann ist die nächste Ratssitzung?" gibt es eine eindeutige Antwort, die eine KI nachschlagen kann. Andere Fragen lassen sich nicht beantworten: "Wie sollen wir diese Entscheidung den betroffenen Einwohnern mitteilen?" beinhaltet Beurteilungen, Zusammenhänge, Beziehungen und Werte, die sich einer systematischen Behandlung widersetzen.

Die Grenze zwischen dem, was an eine Maschine delegiert werden kann, und dem, was beim Menschen verbleiben muss, ist die Grundlage einer soliden KI-Governance. Der Fehler besteht darin, KI nicht für die erste Art von Fragen einzusetzen. Der Fehler besteht darin, der KI zu erlauben, die zweite Art von Fragen ohne menschliche Aufsicht zu beantworten.

Der politische Philosoph Isaiah Berlin argumentierte, dass einige menschliche Werte wirklich unvereinbar sind - Freiheit und Gleichheit, Tradition und Fortschritt, individuelle Rechte und kollektives Wohlergehen. Es gibt keine Formel, die diese Spannungen auflöst. Sie erfordern ein ständiges menschliches Urteilsvermögen, Verhandlungen und die Art von praktischer Weisheit, die Leitungsorgane im Laufe der Jahre im Dienste ihrer Gemeinschaften entwickeln.

KI-Systeme streben von Natur aus nach Optimierung. Sie suchen nach der besten Antwort. Aber wenn Werte wirklich in Konflikt stehen, gibt es keine beste Antwort - es gibt nur die Antwort, die diese Gemeinschaft zu diesem Zeitpunkt und unter diesen Umständen für die angemessenste hält. Dieses Urteil ist von Natur aus menschlich, und jeder KI-Governance-Rahmen, der etwas anderes annimmt, regiert nicht - er gibt auf.

Elinor Ostroms Arbeit über das Regieren von Gemeingütern ist besonders lehrreich. Ostrom hat gezeigt, dass Gemeinschaften gemeinsame Ressourcen erfolgreich verwalten können, ohne sie zu privatisieren oder zentral zu kontrollieren - allerdings nur, wenn die Verwaltungsstrukturen der Komplexität der zu verwaltenden Ressource entsprechen. KI ist eine gemeinsam genutzte Ressource in jeder Organisation, die sie einsetzt. Die Frage ist, ob die Governance-Strukturen der Komplexität des Werkzeugs entsprechen.

Wie das Dorf KI strukturell verwaltet

Village verlässt sich nicht darauf, der KI zu sagen, wie sie sich verhalten soll. Es baut Governance in die Architektur ein - Strukturen, die unabhängig von der KI funktionieren und nicht von ihr außer Kraft gesetzt werden können.

Der Boundary Enforcer verhindert, dass die KI Wertentscheidungen trifft. Wenn eine Frage Kompromisse in Bezug auf die Privatsphäre, ethische Urteile oder den kulturellen Kontext beinhaltet, hält das System an und leitet die Frage an einen Menschen weiter - Ihren Moderator, Ihren Vorsitzenden, Ihren Vorstand. Die KI kann sich nicht über diese Grenze hinwegsetzen, da die Grenze außerhalb der Kontrolle der KI liegt.

Das System zur Aufbewahrung von Anweisungen speichert die expliziten Anweisungen Ihrer Organisation in einem separaten System, das von der KI nicht verändert werden kann. Wenn die KI eine Antwort generiert, wird sie mit diesen gespeicherten Anweisungen verglichen. Wenn die Antwort einer Anweisung widerspricht, hat die Anweisung Vorrang - und zwar standardmäßig, unabhängig davon, was die Trainingsmuster der KI nahelegen.

Der Cross-Reference-Validator prüft die von der KI vorgeschlagenen Ausgaben anhand der tatsächlichen Aufzeichnungen Ihrer Organisation. Er fragt die KI nicht, ob ihre Antwort korrekt ist - das würde bedeuten, dass das System sich selbst überprüfen soll. Er nutzt mathematische Messungen, die sich grundlegend von denen der KI unterscheiden, um festzustellen, ob die Antwort auf den tatsächlichen Inhalten Ihrer Gemeinschaft beruht.

Der Kontextdruckmonitor achtet auf verschlechterte Betriebsbedingungen - Situationen, in denen die KI unter Stress steht, komplexe Anfragen verarbeitet oder mit neuartigen Fragen konfrontiert wird. Wenn er diese Bedingungen feststellt, erhöht er die Intensität der Überprüfung. Je schwieriger die Frage, desto intensiver wird die Antwort geprüft.

Dies sind keine Richtlinien. Es sind Strukturen. Sie funktionieren unabhängig davon, ob die KI-Muster mit ihnen übereinstimmen oder nicht, so wie ein Deich funktioniert, unabhängig davon, ob der Fluss mitspielt oder nicht.

Der Unterschied zwischen Bestreben und Architektur

Viele Organisationen veröffentlichen ethische Erklärungen zur KI. Village stützt sich nicht auf ethische Erklärungen. Es stützt sich auf architektonische Zwänge, die die Governance strukturell erzwingen.

Diese Unterscheidung ist wichtig, weil man sich erhofft, dass etwas passiert. Die Architektur ist das, was tatsächlich geschieht. Ihre Treuhandgesellschaft verlässt sich nicht auf die Hoffnung, dass der Schatzmeister die Gelder ordnungsgemäß verwaltet - sie verlangt zwei Unterzeichner und eine unabhängige Prüfung. Das ist architektonische Governance. Dasselbe Prinzip gilt für KI.

Für die Leitungsorgane ergibt sich diese Unterscheidung direkt aus den rechtlichen Anforderungen. Das EU-KI-Gesetz akzeptiert nicht, dass ein Anbieter gute Absichten hat - es verlangt nachweisbare technische Sicherheitsvorkehrungen, Protokollierung und menschliche Überwachungsmechanismen. Eine Organisation, die eine architektonische Steuerung ihrer KI nachweisen kann, befindet sich in einer wesentlich anderen Position zur Einhaltung der Vorschriften als eine, die nur auf ein Grundsatzdokument verweisen kann.

Das Tractatus Framework - Transparent und offen

Die Governance-Architektur hinter Village AI wird als Tractatus Framework bezeichnet. Es lohnt sich, drei Dinge über sie zu wissen.

Es ist offen. Das gesamte Rahmenwerk ist unter einer Apache 2.0 Open-Source-Lizenz veröffentlicht. Jeder kann den Code lesen, die Regeln einsehen und überprüfen, ob die Governance das tut, was sie zu tun vorgibt. Dies ist das Gegenteil der KI-Governance von Big Tech, bei der die Regeln proprietär sind und die Überlegungen nicht offengelegt werden. Wenn ein großer KI-Anbieter Ihnen sagt, sein System sei "an menschlichen Werten ausgerichtet", haben Sie keine Möglichkeit, diese Behauptung zu überprüfen. Bei Tractatus können Sie jede Zeile lesen.

*Es ist transparent Jede Entscheidung der Unternehmensführung wird protokolliert. Wenn der Boundary Enforcer die KI daran hindert, eine Wertentscheidung zu treffen, wird dieses Ereignis aufgezeichnet. Wenn der Cross-Reference-Validator eine Diskrepanz feststellt, wird dies aufgezeichnet. Ihre Moderatoren und Administratoren können genau sehen, was das Governance-System getan hat und warum. Es gibt keine versteckte Ebene, in der Entscheidungen ohne Rechenschaftspflicht getroffen werden. Für Organisationen, die Informationsfreiheitsverpflichtungen oder öffentlichen Rechenschaftspflichten unterliegen, ist diese Überprüfbarkeit unmittelbar relevant.

Er kann angepasst werden. Der Rahmen ist kein starres Regelwerk, das von außen aufgezwungen wird. Die Organisationen können die Governance so gestalten, dass sie ihre eigenen Prioritäten widerspiegelt. Ein Gemeinderat und ein gemeinnütziger Verein haben unterschiedliche Verpflichtungen, unterschiedliche Sensibilitäten und unterschiedliche Grenzen. Der Rahmen von Tractatus trägt dem Rechnung - und zwar nicht, indem er den Organisationen erlaubt, die Governance zu schwächen, sondern indem er ihnen die Möglichkeit gibt, zu definieren, was die Governance schützt. Die Verfassung Ihrer Organisation, Ihr Werterahmen, Ihre operativen Grenzen - strukturell durchgesetzt, nicht nur dokumentiert.

Der vollständige Rahmen, einschließlich der zugrundeliegenden Forschung, ist verfügbar unter [agenticgovernance.digital] (https://agenticgovernance.digital). Sie brauchen ihn nicht zu lesen, um Village zu nutzen - die Governance funktioniert, ob Sie sie einsehen oder nicht. Aber wenn Sie genau verstehen wollen, wie Ihre KI gesteuert wird, oder wenn Sie die Einhaltung der Vorschriften gegenüber einer Aufsichtsbehörde nachweisen müssen, steht Ihnen die Tür offen.

Im nächsten Artikel sehen wir uns an, was Village AI heute in der Praxis tut - wie es Ihrem Unternehmen helfen kann, wie Voreingenommenheit durch das Vokabularsystem angesprochen wird und was noch in der Entwicklung ist.


Dies ist Artikel 3 von 5 in der Serie "AI Governance for Community Leaders". Die vollständige Governance-Architektur finden Sie unter Village AI on Agentic Governance.

Zurück: Big Tech AI vs. Community-Governed AI - Warum der Unterschied wichtig ist Nächste: Was läuft heute im Dorf

Published under CC BY 4.0 by My Digital Sovereignty Ltd. You are free to share and adapt this material, provided you give appropriate credit.