⛪ Parish Edition

Governance Challenge

Deutsch

Warum Regeln und Schulungen nicht ausreichen - Die Governance-Herausforderung


Serie: Deine Gemeinde, deine KI - Village AI für Gemeinden verstehen (Artikel 3 von 5) Autor: My Digital Sovereignty Ltd Datum: März 2026 Lizenz: CC BY 4.0 International


Der Hirtenbrief

Bevor wir die Philosophie des Regierens erörtern, wollen wir mit einer Geschichte über einen Brief beginnen.

Eine Pfarrerin bittet ein KI-System, ihr beim Verfassen eines Briefes an eine trauernde Familie zu helfen. Sie möchte die Sprache der Auferstehungshoffnung - den Trost des Glaubens, den diese Familie tatsächlich hat. Sie tippt ihre Anfrage sorgfältig ein und wartet.

Die KI erstellt einen wunderschön geschriebenen Brief. Er ist warmherzig, professionell und mitfühlend. Darin ist die Rede von "dem Weg der Heilung", "der Suche nach einem Abschluss", "dem Gedenken an die Verstorbenen, indem Sie Ihr bestes Leben leben" und "dem Vermächtnis, das sie hinterlassen" Es liest sich gut. Es klingt fürsorglich. Und es ist völlig falsch.

Die Familie braucht keinen Abschluss. Sie braucht die Gemeinschaft der Heiligen. Sie müssen kein Vermächtnis ehren. Sie müssen hören, dass die Toten auferweckt werden und dass der Abschied vorübergehend ist. Die Pfarrerin bat um Auferstehungshoffnung, und die KI gab ihr therapeutische Selbsthilfe - denn ihre Schulungsdaten enthalten tausend Traueranleitungen von Beratungswebsites für jede, die von der Auferstehung der Toten spricht.

Die KI hat die Anweisung der Pfarrerin nicht abgelehnt. Sie hat nicht gesagt: "Ich kenne Ihre Tradition nicht" Sie ersetzte einfach das, wonach sie fragte, durch das, was in ihren Trainingsdaten statistisch gesehen häufiger vorkam. Die Ersetzung erfolgte stillschweigend. Wäre die Rektorin müde, in Eile oder weniger aufmerksam als sonst gewesen, hätte sie es vielleicht nicht bemerkt. Der Brief wäre rausgegangen, und die Familie hätte Trost aus der falschen Tradition erhalten - professionell formuliert, aufrichtig gemeint und auf subtile Weise ungläubig.

Ihr Telefon korrigiert Wörter automatisch. Sie sehen den roten Unterstrich und korrigieren ihn. AI korrigiert automatisch Werte. Und es gibt keinen Unterstrich.

Wenn Muster die Werte überschreiben

Der Hirtenbrief ist kein Einzelfall. Derselbe Mechanismus wirkt in jedem KI-Gespräch.

Wenn ein Gemeindemitglied ein KI-System um Ratschläge für eine schwierige Familiensituation bittet, greift das System auf die Sprache der individuellen Therapie zurück - Selbstbehauptungstraining, Grenzsetzung, Selbstfürsorge -, weil dies in seinen Trainingsdaten vorherrscht. Es greift nicht auf die Sprache der Geduld, der gegenseitigen Nachsicht und der Weitsicht zurück, die sich daraus ergibt, dass man weiß, dass man die nächsten dreißig Jahre neben dieser Person in der Kirche sitzen wird.

Wenn ein Kirchenvorsteher die KI um Hilfe bei einer heiklen Ankündigung bittet, greift sie auf die Sprache der Unternehmenskommunikation zurück - Stakeholder-Management, Messaging-Frameworks, Gesprächsleitfäden -, weil die Geschäftskorrespondenz in ihren Trainingsdaten die kirchliche Korrespondenz bei weitem übersteigt.

Die KI ist nicht feindselig gegenüber Ihrer Tradition. Sie kennt nur Ihre Tradition nicht. Sie weiß, was statistisch gesehen üblich ist, und was statistisch gesehen üblich ist, ist nicht das, was für Ihre Gemeinde am wichtigsten ist.

Das ist das Problem der Verwaltung. Nicht Böswilligkeit. Nicht Inkompetenz. Strukturelle Voreingenommenheit, die im Stillen wirkt.

Warum mehr Regeln das Problem nicht lösen

Der Instinkt der meisten Organisationen, wenn sie mit KI-Risiken konfrontiert werden, besteht darin, Richtlinien zu schreiben. Richtlinien zur akzeptablen Nutzung. KI-Ethikrichtlinien. Allgemeine Geschäftsbedingungen. Rahmenwerke für verantwortungsvolle KI.

Diese Dokumente sind nicht nutzlos, aber sie haben eine grundlegende Einschränkung: Sie sind darauf angewiesen, dass das KI-System sie befolgt.

Ein KI-System liest nicht Ihr Grundsatzdokument und beschließt, es zu befolgen. Es generiert Antworten auf der Grundlage statistischer Muster in seinen Trainingsdaten. Wenn diese Muster im Widerspruch zu Ihrer Richtlinie stehen, gewinnen die Muster - nicht weil die KI rebellisch ist, sondern weil sie Richtlinien nicht versteht. Sie versteht Muster.

Sie können ein Modell feinabstimmen, d. h. sein Training anpassen, um bestimmte Verhaltensweisen zu betonen. Das hilft zwar, löst aber nicht das eigentliche Problem. Die Feinabstimmung fügt neue Muster zu den bestehenden hinzu. Unter Druck, unter ungewöhnlichen Umständen oder bei neuartigen Fragen setzen sich die alten Muster wieder durch. Der Fachbegriff lautet "katastrophales Vergessen", aber die einfache Version ist einfacher: Das Training nutzt sich ab.

Eine Richtlinie zu schreiben, die besagt: "Unsere KI wird die Werte unserer Gemeinschaft respektieren", ist wie eine Richtlinie zu schreiben, die besagt: "Unser Fluss wird kein Hochwasser haben." Der Fluss kann keine Richtlinien lesen. Wenn man Überschwemmungen verhindern will, muss man Dämme bauen - strukturelle Maßnahmen, die unabhängig davon funktionieren, was der Fluss beabsichtigt.

Die Steuerung der KI erfordert den gleichen Ansatz. Es geht nicht um Regeln, die die KI befolgen soll, sondern um Strukturen, die unabhängig von der KI funktionieren und ihr Verhalten von außen kontrollieren.

Was uns die Weisheitstraditionen sagen

Die Einsicht, dass sich manche Entscheidungen nicht auf Regeln reduzieren lassen, ist nicht neu. Sie ist uralt.

Der Philosoph Ludwig Wittgenstein verbrachte seine Karriere damit, die Grenze zwischen dem, was genau gesagt werden kann, und dem, was jenseits präziser Aussagen liegt, zu erforschen. Seine Schlussfolgerung, dass "man darüber, was man nicht sagen kann, schweigen muss", ist für die KI-Governance unmittelbar relevant. Einige Fragen können systematisiert werden: auf die Frage "Wann ist der Gottesdienst am Sonntag?" gibt es eine eindeutige Antwort, die eine KI nachschlagen kann. Andere Fragen können das nicht: "Wie soll ich meinen Nachbarn auf die Hecke ansprechen?" beinhaltet Urteile, Zusammenhänge, Beziehungen und Werte, die sich einer systematischen Behandlung widersetzen.

Die Grenze zwischen dem, was an eine Maschine delegiert werden kann, und dem, was beim Menschen bleiben muss, ist die Grundlage einer soliden KI-Governance. Der Fehler besteht darin, KI nicht für die erste Art von Fragen einzusetzen. Der Fehler besteht darin, der KI zu erlauben, die zweite Art von Fragen ohne menschliche Aufsicht zu beantworten.

Der politische Philosoph Isaiah Berlin argumentierte, dass einige menschliche Werte wirklich unvereinbar sind - Freiheit und Gleichheit, Tradition und Fortschritt, individuelles Gewissen und gemeinschaftliche Harmonie. Es gibt keine Formel, die diese Spannungen auflöst. Sie erfordern ein ständiges menschliches Urteil, Verhandlungen und die Art von praktischer Weisheit, die Gemeinschaften über Generationen hinweg entwickeln.

KI-Systeme streben von Natur aus nach Optimierung. Sie suchen nach der besten Antwort. Aber wenn Werte wirklich in Konflikt stehen, gibt es keine beste Antwort - es gibt nur die Antwort, die diese Gemeinschaft, zu diesem Zeitpunkt, mit diesen Menschen, als die am wenigsten schlechte erachtet. Dieses Urteil ist von Natur aus menschlich, und jeder KI-Governance-Rahmen, der etwas anderes vorgibt, regiert nicht - er gibt auf.

Die anglikanische Tradition hat ihre eigene Version dieser Einsicht. Die Via Media - der Mittelweg - ist kein Kompromiss zwischen den Extremen. Es ist die Erkenntnis, dass es für ein Leben im Glauben notwendig ist, Spannungen auszuhalten, anstatt sie aufzulösen. Schrift, Tradition und Vernunft haben jeweils ihre Berechtigung, und keine kann auf eine Formel reduziert werden. Eine Kirchengemeinde, die diese Art der Unterscheidung seit Jahrhunderten praktiziert, versteht bereits in ihren Grundfesten, warum man der KI keine Wertentscheidungen anvertrauen kann.

Wie das Dorf AI strukturell regiert

Village verlässt sich nicht darauf, der KI zu sagen, wie sie sich verhalten soll. Es baut die Steuerung in die Architektur ein - Strukturen, die unabhängig von der KI funktionieren und nicht von ihr außer Kraft gesetzt werden können.

Der Boundary Enforcer verhindert, dass die KI Wertentscheidungen trifft. Wenn eine Frage Kompromisse in Bezug auf die Privatsphäre, ethische Urteile oder den kulturellen Kontext beinhaltet, hält das System an und leitet die Frage an einen Menschen weiter - Ihren Moderator, Ihren Rektor, Ihre Gemeinde. Die KI kann sich nicht über diese Grenze hinwegsetzen, da die Grenze außerhalb der Kontrolle der KI liegt.

Das System zur Aufbewahrung von Anweisungen speichert die ausdrücklichen Anweisungen Ihrer Gemeinschaft in einem separaten System, das die KI nicht verändern kann. Wenn die KI eine Antwort erzeugt, wird sie mit diesen gespeicherten Anweisungen verglichen. Steht die Antwort im Widerspruch zu einer Anweisung, hat die Anweisung Vorrang - standardmäßig, unabhängig davon, was die Trainingsmuster der KI nahelegen.

Der Querverweis-Validator prüft die von der KI vorgeschlagenen Aktionen anhand der tatsächlichen Aufzeichnungen Ihrer Gemeinschaft. Dabei wird die KI nicht gefragt, ob ihre Antwort richtig ist - das würde bedeuten, dass das System sich selbst überprüfen soll. Er verwendet mathematische Messungen, die sich grundlegend von denen der KI unterscheiden, um festzustellen, ob die Antwort auf den tatsächlichen Inhalten Ihrer Gemeinschaft beruht.

Der Kontextdruckmonitor achtet auf verschlechterte Betriebsbedingungen - Situationen, in denen die KI unter Stress steht, komplexe Anfragen verarbeitet oder mit neuartigen Fragen konfrontiert wird. Wenn er diese Bedingungen feststellt, erhöht er die Intensität der Überprüfung. Je schwieriger die Frage, desto intensiver wird die Antwort geprüft.

Dies sind keine Richtlinien. Es sind Strukturen. Sie funktionieren unabhängig davon, ob die KI mit ihnen einverstanden ist oder nicht, so wie ein Deich unabhängig davon funktioniert, ob der Fluss damit einverstanden ist oder nicht.

Der Unterschied zwischen Anspruch und Architektur

Viele Organisationen veröffentlichen Ethikerklärungen für KI. Village stützt sich nicht auf ethische Erklärungen. Es stützt sich auf architektonische Zwänge, die die Governance strukturell erzwingen.

Diese Unterscheidung ist wichtig, weil man sich erhofft, dass etwas passiert. Die Architektur ist das, was tatsächlich geschieht. Ihre Kirchengemeinde verlässt sich nicht auf die Hoffnung, dass der Schatzmeister ordnungsgemäß mit den Geldern umgeht - sie verlangt zwei Unterschriften für jeden Scheck. Das ist architektonische Führung. Das gleiche Prinzip gilt für AI.

Das Tractatus Framework - Transparent und offen

Die Governance-Architektur, die hinter Village AI steht, wird als Tractatus Framework bezeichnet. Es lohnt sich, drei Dinge über sie zu wissen.

Es ist offen. Das gesamte Rahmenwerk ist unter einer Apache 2.0 Open-Source-Lizenz veröffentlicht. Jeder kann den Code lesen, die Regeln einsehen und überprüfen, ob die Governance das tut, was sie zu tun vorgibt. Dies ist das Gegenteil der KI-Governance von Big Tech, bei der die Regeln proprietär sind und die Argumentation verborgen bleibt. Wenn Google oder OpenAI Ihnen sagen, dass ihre KI "an menschlichen Werten ausgerichtet" ist, haben Sie keine Möglichkeit, dies zu überprüfen. Bei Tractatus können Sie jede Zeile lesen.

Sie ist transparent. Jede Entscheidung der Unternehmensführung wird protokolliert. Wenn der Boundary Enforcer die KI daran hindert, eine Wertentscheidung zu treffen, wird dieses Ereignis aufgezeichnet. Wenn der Querverweis-Validator eine Diskrepanz feststellt, wird dies aufgezeichnet. Ihre Moderatoren können genau sehen, was das Governance-System getan hat und warum. Es gibt keine versteckte Ebene, auf der Entscheidungen ohne Rechenschaftspflicht getroffen werden.

**Der Rahmen ist kein starres Regelwerk, das von außen aufgezwungen wird. Die Gemeinschaften können die Governance so gestalten, dass sie ihre eigenen Prioritäten widerspiegelt. Eine bischöfliche Gemeinde und eine Naturschutzgruppe haben unterschiedliche Werte, unterschiedliche Empfindlichkeiten und unterschiedliche Grenzen. Der Rahmen von Tractatus trägt dem Rechnung - nicht, indem er den Gemeinden erlaubt, die Governance zu schwächen, sondern indem er ihnen erlaubt zu definieren, was die Governance schützt. Die Verfassung Ihrer Gemeinschaft, die moralische Landschaft Ihrer Gemeinschaft, die Grenzen Ihrer Gemeinschaft - strukturell durchgesetzt, nicht nur dokumentiert.

Der vollständige Rahmen, einschließlich der zugrunde liegenden Forschung, ist unter [agenticgovernance.digital] (https://agenticgovernance.digital) zu finden. Sie brauchen es nicht zu lesen, um Village zu nutzen - die Governance funktioniert, ob Sie sie einsehen oder nicht. Aber wenn Sie genau verstehen wollen, wie Ihre KI gesteuert wird, steht Ihnen die Tür offen.

Im nächsten Artikel werden wir uns ansehen, was Village AI heute in der Praxis tut - womit es Ihrer Gemeinde helfen kann, wie Voreingenommenheit durch das Vokabularsystem angegangen wird und was sich noch in der Entwicklung befindet.


Dies ist Artikel 3 von 5 in der Reihe "Ihre Pfarrei, Ihre KI". Die vollständige Governance-Architektur finden Sie unter Village AI on Agentic Governance.

Zurück: Big Tech KI vs. KI in Ihrer Gemeinde - Warum der Unterschied wichtig ist Nächste: Was heute im Dorf läuft

Published under CC BY 4.0 by My Digital Sovereignty Ltd. You are free to share and adapt this material, provided you give appropriate credit.