🌈 Indigenous Edition

Governance Challenge

Deutsch

Warum Regeln und Schulungen nicht ausreichen - Die Governance-Herausforderung


Serie: To Hapori, To AI - Digitale Souveränität für indigene Gemeinschaften (Artikel 3 von 5) Autor: My Digital Sovereignty Ltd Datum: März 2026 Lizenz: CC BY 4.0 International


The Mihi That Wasn't

Bevor wir die Philosophie des Regierens erörtern, wollen wir mit einer Geschichte über ein Mihi beginnen.

Ein kaumatua bereitet sich auf ein tangi vor. Sie ist müde - es war eine lange Woche, und es gibt viel zu koordinieren. Sie bittet ein KI-System, ihr beim Verfassen eines mihi whakatau zu helfen, einer dem Anlass angemessenen Begrüßungsrede. Sie ist sehr genau: Sie möchte die Sprache von whakapapa, die Würdigung der Verstorbenen, die Verbindung zwischen den Lebenden und den Toten, die das Herzstück von tangihanga ist.

Die KI produziert eine wunderschön geschriebene Rede. Sie ist warmherzig, professionell und mitfühlend. Sie spricht vom "Feiern eines gut gelebten Lebens", "Kraft finden in der Erinnerung", "der vor uns liegenden Heilungsreise" und "Ehrung ihres Vermächtnisses" Er liest sich gut. Es klingt fürsorglich. Und es ist völlig falsch.

Der Whanau muss nicht ein gut gelebtes Leben feiern. Sie müssen die whakapapa hören - die Abstammungslinien, die den Verstorbenen mit den Lebenden und denen, die ihm vorausgingen, verbinden. Sie brauchen keine Heilungsreise. Sie brauchen das karanga, das tangi, die richtige Abfolge von Riten, die ihr Volk seit Generationen durch den Tod getragen haben. Die Kaumatua bat um tikanga, und die KI gab ihr westliche Trauerberatung - denn ihre Trainingsdaten enthalten tausend Traueranleitungen von Beratungswebsites für jeden, der weiß, was ein tangi ist.

Die KI hat die Anweisung der Kaumatua nicht abgelehnt. Sie hat nicht gesagt: "Ich kenne deine Tradition nicht" Sie ersetzte einfach das, wonach sie fragte, durch das, was in ihren Trainingsdaten statistisch gesehen häufiger vorkam. Die Ersetzung erfolgte stillschweigend. Wäre der Kaumatua müder als sonst oder weniger erfahren gewesen oder hätte er unter Zeitdruck gearbeitet, hätte er es vielleicht nicht bemerkt. Das Mihi wäre überbracht worden, und die Whanau hätte Trost aus der falschen Tradition erhalten - professionell formuliert, aufrichtig gemeint und kulturell leer.

Ihr Telefon korrigiert Wörter automatisch. Sie sehen den roten Unterstrich und korrigieren ihn. KI korrigiert automatisch Werte. Und es gibt keinen Unterstrich.

When Patterns Override Tikanga

Das mihi ist kein Einzelfall. Der gleiche Mechanismus funktioniert in jeder KI-Konversation.

Wenn ein Whanau-Mitglied ein KI-System um Ratschläge zu einem Familienkonflikt bittet, greift das System auf die Sprache der individuellen Therapie zurück - Selbstbehauptungstraining, Grenzsetzung, Selbstfürsorge -, weil dies in seinen Trainingsdaten vorherrscht. Es greift nicht nach den Konzepten von whanaungatanga, von utu (Gegenseitigkeit und Gleichgewicht) oder dem Verständnis, dass es in einem Verwandtschaftssystem bei der Lösung eines Konflikts nicht um individuelle Ergebnisse geht, sondern um die Wiederherstellung des Gleichgewichts des Kollektivs.

Wenn ein Anführer einer Gemeinschaft die KI bittet, ihm bei der Vorbereitung einer wichtigen hui zu helfen, wird die KI mit dem Management von Unternehmenssitzungen konfrontiert - Tagesordnungen, Aktionspunkte, Einbindung von Interessenvertretern -, da die Korrespondenz von Unternehmenssitzungen in ihren Trainingsdaten weitaus zahlreicher ist als die Korrespondenz indigener Regierungen. Es versteht nicht, dass ein hui kein Meeting ist. Ein hui hat seine eigene tikanga, seine eigenen Protokolle, wer wann spricht, seinen eigenen Rhythmus, der Zwecken dient, die eine Unternehmensagenda nicht nachvollziehen kann.

Wenn eine Gemeinde die KI bittet, ihr bei der Einreichung eines Antrags auf Genehmigung einer Ressource zu helfen, verwendet sie die Standardsprache der Planung. Sie versteht nicht das Konzept von kaitiakitanga - dass die Beziehung der Gemeinschaft zum Land nicht eine des Eigentums oder des wirtschaftlichen Interesses ist, sondern eine der Vormundschaft über Generationen hinweg.

Die AI ist nicht feindselig gegenüber indigenem Wissen. Sie kennt einfach das indigene Wissen nicht. Sie weiß, was statistisch gesehen üblich ist, und was statistisch gesehen üblich ist, ist in überwältigender Weise westlich. Für indigene Gemeinschaften ist dies kein technisches Manko. Es ist die digitale Fortsetzung eines Musters, das mit der Kolonialisierung begann: die Ersetzung indigener Wissenssysteme durch westliche Rahmenwerke, die so reibungslos abläuft, dass viele Menschen dies nicht bemerken.

Das ist das Problem der Verwaltung. Nicht Böswilligkeit. Nicht Inkompetenz. Strukturelle Voreingenommenheit, die im Stillen wirkt.

Warum mehr Regeln das Problem nicht lösen

Der Instinkt der meisten Organisationen, wenn sie mit KI-Risiken konfrontiert werden, besteht darin, Richtlinien zu schreiben. Richtlinien zur akzeptablen Nutzung. KI-Ethikrichtlinien. Allgemeine Geschäftsbedingungen. Rahmenwerke für verantwortungsvolle KI.

Diese Dokumente sind nicht nutzlos, aber sie haben eine grundlegende Einschränkung: Sie sind darauf angewiesen, dass das KI-System sie befolgt.

Ein KI-System liest nicht Ihr Grundsatzdokument und beschließt, es zu befolgen. Es generiert Antworten auf der Grundlage statistischer Muster in seinen Trainingsdaten. Wenn diese Muster im Widerspruch zu Ihrer Richtlinie stehen, gewinnen die Muster - nicht weil die KI rebellisch ist, sondern weil sie Richtlinien nicht versteht. Sie versteht Muster.

Sie können ein Modell feinabstimmen, d. h. sein Training anpassen, um bestimmte Verhaltensweisen zu betonen. Das hilft zwar, löst aber nicht das eigentliche Problem. Die Feinabstimmung fügt neue Muster zu den bestehenden hinzu. Unter Druck, unter ungewöhnlichen Umständen oder bei neuartigen Fragen setzen sich die alten Muster wieder durch. Der Fachbegriff lautet "katastrophales Vergessen", aber die einfache Version ist einfacher: Das Training nutzt sich ab.

Eine Richtlinie zu schreiben, die besagt: "Unsere KI wird die tikanga unserer Gemeinschaft respektieren", ist so, als würde man eine Richtlinie schreiben, die besagt: "Unser Fluss wird nicht überschwemmt." Der Fluss kann keine Richtlinien lesen. Wenn man Überschwemmungen verhindern will, muss man Dämme bauen - strukturelle Eingriffe, die unabhängig von den Absichten des Flusses funktionieren.

Die Steuerung der KI erfordert den gleichen Ansatz. Es geht nicht um Regeln, die die KI befolgen soll, sondern um Strukturen, die unabhängig von der KI funktionieren und ihr Verhalten von außen kontrollieren.

Was uns Tikanga über Governance lehrt

Die Einsicht, dass sich manche Entscheidungen nicht auf Regeln reduzieren lassen, ist nicht neu. Sie ist uralt, und indigene Governance-Traditionen haben sie seit Jahrhunderten verstanden.

Tikanga Maori ist kein Regelwerk. Es ist ein lebendiges System von Protokollen, Werten und Praktiken, das das Verhalten in einem Beziehungskontext leitet. Die richtige Handlung in einer bestimmten Situation hängt nicht von einer schriftlichen Regel ab, sondern von den beteiligten Beziehungen, dem Kontext, dem Präzedenzfall und dem Mana der anwesenden Menschen. Ein Kaumatua, der auf hui ein Urteil fällt, wendet keine Formel an - er wendet die Weisheit an, die er im Laufe seines Lebens in einer bestimmten Gemeinschaft gesammelt hat.

Dies ist genau die Art von Urteil, die KI nicht leisten kann. Ein System, das auf statistische Muster trainiert ist, kann Mana nicht verstehen, kann Beziehungen nicht abwägen, kann das tono (den Ruf, die Anziehungskraft) einer Situation nicht spüren. Es kann Informationen verarbeiten, aber es kann nicht rangatiratanga ausüben - die selbstbestimmende Autorität, die sich aus der Einbettung in eine Gemeinschaft und der Rechenschaftspflicht gegenüber dieser Gemeinschaft ergibt.

Der Philosoph Ludwig Wittgenstein verbrachte seine Karriere damit, die Grenze zwischen dem, was genau gesagt werden kann, und dem, was jenseits einer präzisen Aussage liegt, zu erforschen. Seine Schlussfolgerung - dass man "wovon man nicht sprechen kann, darüber schweigen muss" - lässt sich direkt auf die Unterscheidung zwischen den Fragen übertragen, bei denen KI helfen kann, und denen, bei denen sie es nicht kann. auf die Frage "Wann ist die nächste hui?" gibt es eine eindeutige Antwort, die eine KI nachschlagen kann. "Wie sollen wir uns diesem Korero mit dem benachbarten Hapu nähern?" beinhaltet Beurteilungen, Beziehungen und tikanga, die sich einer systematischen Behandlung widersetzen.

Der politische Philosoph Isaiah Berlin vertrat die Ansicht, dass einige menschliche Werte wirklich unvereinbar sind - Freiheit und Gleichheit, Tradition und Fortschritt, individuelles Gewissen und gemeinschaftliche Harmonie. Es gibt keine Formel, die diese Spannungen auflöst. Sie erfordern ein ständiges menschliches Urteil, Verhandlungen und die Art von praktischer Weisheit, die Gemeinschaften über Generationen hinweg entwickeln.

Die indigenen Traditionen der Staatsführung haben dieses Verständnis schon viel länger, als die westliche Philosophie es formuliert hat. Das Konzept der kaitiakitanga enthält bereits die Erkenntnis, dass Vormundschaft ein ständiges Urteilsvermögen und keine festen Regeln erfordert. Die Praxis des whakawhiti korero (Austausch von Gesprächen) auf hui verkörpert bereits das Verständnis, dass kollektive Weisheit aus einem strukturierten Dialog und nicht aus Optimierung entsteht.

Jeder KI-Governance-Rahmen, der vorgibt, diese Einschätzungen systematisieren zu können, regiert nicht - er kolonisiert. Nochmals.

How Village Governs AI Structurally

Village verlässt sich nicht darauf, der KI zu sagen, wie sie sich verhalten soll. Es baut die Steuerung in die Architektur ein - Strukturen, die unabhängig von der KI funktionieren und nicht von ihr außer Kraft gesetzt werden können.

Der Boundary Enforcer hindert die KI daran, Wertentscheidungen zu treffen. Wenn eine Frage kulturelle Protokolle, ethische Urteile oder einen Beziehungskontext betrifft, hält das System an und leitet die Frage an einen Menschen weiter - Ihren Moderator, Ihren Kaumatua, Ihren Runanga. Die KI kann sich nicht über diese Grenze hinwegsetzen, da die Grenze außerhalb der Kontrolle der KI liegt.

Das System zur Speicherung von Anweisungen speichert die expliziten Anweisungen Ihrer Gemeinschaft in einem separaten System, das die KI nicht verändern kann. Wenn die KI eine Antwort erzeugt, wird sie mit diesen gespeicherten Anweisungen verglichen. Steht die Antwort im Widerspruch zu einer Anweisung, hat die Anweisung Vorrang - standardmäßig, unabhängig davon, was die Trainingsmuster der KI nahelegen.

Der Querverweis-Validator prüft die von der KI vorgeschlagenen Aktionen anhand der tatsächlichen Aufzeichnungen Ihrer Gemeinschaft. Dabei wird die KI nicht gefragt, ob ihre Antwort richtig ist - das würde bedeuten, dass das System sich selbst überprüfen soll. Er verwendet mathematische Messungen, die sich grundlegend von denen der KI unterscheiden, um festzustellen, ob die Antwort auf den tatsächlichen Inhalten Ihrer Gemeinschaft basiert.

Der Kontextdruckmonitor achtet auf verschlechterte Betriebsbedingungen - Situationen, in denen die KI unter Stress steht, komplexe Anfragen verarbeitet oder mit neuartigen Fragen konfrontiert wird. Wenn er diese Bedingungen feststellt, erhöht er die Intensität der Überprüfung. Je schwieriger die Frage, desto intensiver wird die Antwort geprüft.

Dies sind keine Richtlinien. Es sind Strukturen. Sie funktionieren unabhängig davon, ob die KI mit ihnen einverstanden ist oder nicht, so wie eine Sperrbank unabhängig davon funktioniert, ob der Fluss mit ihr einverstanden ist oder nicht.

Der Unterschied zwischen Anspruch und Architektur

Viele Organisationen veröffentlichen KI-Ethikerklärungen. Village stützt sich nicht auf ethische Erklärungen. Es stützt sich auf architektonische Zwänge, die die Governance strukturell erzwingen.

Diese Unterscheidung ist wichtig, weil man sich erhofft, dass etwas passiert. Die Architektur ist das, was tatsächlich geschieht. Ihre Gemeinschaft verlässt sich nicht auf die Hoffnung, dass die Mittel ordnungsgemäß verwendet werden - sie benötigt eine angemessene Finanzaufsicht mit Rechenschaftspflicht gegenüber dem Kollektiv. Das ist architektonische Governance. Dasselbe Prinzip gilt für KI.

Der Tractatus Rahmen - gegründet auf Te Tiriti

Die Governance-Architektur, die hinter Village AI steht, wird Tractatus genannt. Es lohnt sich, drei Dinge über sie zu wissen.

Es ist offen. Das gesamte Rahmenwerk ist unter einer Apache 2.0 Open-Source-Lizenz veröffentlicht. Jeder kann den Code lesen, die Regeln einsehen und überprüfen, ob die Governance das tut, was sie zu tun vorgibt. Dies ist das Gegenteil der KI-Governance von Big Tech, bei der die Regeln proprietär sind und die Argumentation verborgen bleibt. Wenn Google oder OpenAI Ihnen sagen, dass ihre KI "an menschlichen Werten ausgerichtet" ist, haben Sie keine Möglichkeit, dies zu überprüfen. Bei Tractatus können Sie jede Zeile lesen.

**Es ist transparent. Jede Entscheidung der Verwaltung wird protokolliert. Wenn der Boundary Enforcer die KI daran hindert, eine Wertentscheidung zu treffen, wird dieses Ereignis aufgezeichnet. Wenn der Querverweis-Validator eine Diskrepanz feststellt, wird dies aufgezeichnet. Ihre Moderatoren können genau sehen, was das Governance-System getan hat und warum. Es gibt keine versteckte Ebene, auf der Entscheidungen ohne Rechenschaftspflicht getroffen werden.

**Es basiert auf Te Tiriti o Waitangi. ** Das Partnerschaftsmodell des Tractatus Rahmens ist kein allgemeiner "Stakeholder-Engagement"-Rahmen, der von der Unternehmensführung übernommen wurde. Es stützt sich ausdrücklich auf die Te Tiriti-Grundsätze - insbesondere auf die in Artikel zwei garantierte tino rangatiratanga (volle Autorität) über taonga. Im Kontext der KI-Governance bedeutet dies, dass die Gemeinschaften die volle Autorität über ihr Wissen, ihre Daten und die Regeln, die die Interaktion der KI mit beiden bestimmen, behalten. Der Rahmen gewährt diese Befugnis nicht - er erkennt an, dass die Befugnis bereits besteht, und baut eine Architektur auf, um sie durchzusetzen.

Diese Grundlage in Te Tiriti ist in dem Open-Source-Rahmenwerk unter [agenticgovernance.digital] (https://agenticgovernance.digital) veröffentlicht. Es handelt sich dabei nicht um ein Marketingversprechen, sondern um eine architektonische Verpflichtung, die jeder überprüfen, kritisieren und die Plattform zur Rechenschaft ziehen kann.

Wir erkennen an, dass die Grundlage eines technologischen Rahmens in Te Tiriti Verpflichtungen mit sich bringt, die über den Code hinausgehen. Ob Village diesen Verpflichtungen nachkommt, müssen die Maori-Gemeinschaften beurteilen, nicht die Plattform selbst.

Im nächsten Artikel werden wir uns ansehen, was Village AI heute in der Praxis tut - womit es Ihrer Gemeinschaft helfen kann, wie Voreingenommenheit durch das Vokabularsystem angegangen wird und was sich noch in der Entwicklung befindet.


Dies ist Artikel 3 von 5 in der Reihe "To Hapori, To AI". Die vollständige Governance-Architektur finden Sie unter Village AI on Agentic Governance.

Zurück: Big Tech AI vs. KI in Ihrer Gemeinde - Warum der Unterschied wichtig ist Nächste: Was läuft heute im Dorf

Published under CC BY 4.0 by My Digital Sovereignty Ltd. You are free to share and adapt this material, provided you give appropriate credit.