🌈 Indigenous Edition

What AI Is

Deutsch

Was KI wirklich ist (und was nicht)


Serie: To Hapori, To AI - Digitale Souveränität für indigene Gemeinschaften (Artikel 1 von 5) Autor: My Digital Sovereignty Ltd Datum: März 2026 Lizenz: CC BY 4.0 International


A Machine That Finishes Your Sentences

Sie haben wahrscheinlich schon gehört, dass künstliche Intelligenz alles verändern wird. Vielleicht haben Sie auch schon gehört, dass es sich dabei nur um eine Modeerscheinung handelt, oder dass sie nichts wirklich Neues leisten kann. Beide Behauptungen gehen am Kern der Sache vorbei, und wenn Sie verstehen, warum, kann Ihre Gemeinschaft bessere Entscheidungen über diese Technologie treffen.

Hier ist die einfachste Beschreibung dessen, was KI heute tut: Sie sagt voraus, welches Wort als nächstes kommen sollte.

Wenn Sie eine Nachricht in ChatGPT eingeben oder Siri eine Frage stellen, denkt das System nicht über Ihre Frage nach, so wie Sie oder Ihr Kaumatua darüber denken würden. Es macht etwas viel Mechanischeres. Es hat Milliarden von Textseiten gesehen - Bücher, Websites, Gespräche, juristische Dokumente, Rezepte, medizinische Abhandlungen, Argumente in sozialen Medien - und aus all dem Gelesenen hat es Muster gelernt. Wenn Sie ihm eine Frage stellen, generiert es eine Antwort, indem es Wort für Wort vorhersagt, wie eine plausible Antwort auf der Grundlage all dessen, was es zuvor gesehen hat, aussehen könnte.

Das ist wirklich nützlich. Ein System, das die Muster von Milliarden von Textseiten verinnerlicht hat, kann Ihnen helfen, einen Brief zu verfassen, ein langes Dokument zusammenzufassen, eine Sachfrage zu beantworten oder Vorschläge für die Formulierung einer schwierigen Mitteilung zu machen. Dies sind echte Fähigkeiten, und sie sparen echte Zeit.

Aber es ist kein Denken. Es ist kein Verstehen. Es ist ein Musterabgleich in einem außergewöhnlichen Ausmaß.

"KI kann nichts Neues" - Es kommt darauf an, was Sie mit "neu" meinen

Menschen, die KI mit der Behauptung abtun, sie könne nichts Originelles schaffen, stellen eine Behauptung auf, die im engeren Sinne wahr und im weiteren Sinne irreführend ist.

Ein Sprachmodell kann nicht aus Erfahrung entstehen. Es hat noch nie an einem Tangi gesessen. Es hat noch nie das Gewicht gespürt, im Namen eines Whanau zu sprechen. Es kann nicht verstehen, warum das karanga am Tor von marae wichtig ist - es kann nur Muster reproduzieren, die statistisch gesehen dem Verständnis ähneln. In diesem Sinne ist alles, was es produziert, eine Rekombination von Material, das es während der Ausbildung aufgenommen hat.

Aber bedenken Sie, was "Rekombination" in diesem Maßstab eigentlich bedeutet.

Kein einziger Mensch hat alle Vertragsdokumente, jeden Bericht des Waitangi-Tribunals, jede Rechtsvorschrift über die Rechte der Ureinwohner im gesamten Commonwealth, jede wissenschaftliche Abhandlung über die Datensouveränität der Ureinwohner und jeden Gemeindebrief der letzten hundert Jahre gelesen. Die KI wurde auf einem riesigen Korpus trainiert, der viele dieser Quellen enthält. Wenn sie eine Verbindung zwischen der Theorie der polyzentrischen Regierungsführung und den traditionellen Entscheidungsstrukturen der Maori herstellt, ist diese Verbindung für jeden einzelnen Menschen wirklich neu, auch wenn beide Ideen getrennt voneinander existieren.

Die Aussage "KI kann nichts Neues" ist also auf der Ebene der Entstehung richtig und auf der Ebene der Synthese falsch. Beides ist wichtig, und eine ernsthafte Auseinandersetzung mit dieser Technologie erfordert beides.

Kann KI wirklich vernünftig sein?

Es gibt eine tiefer gehende Frage, die Forscher aktiv untersuchen, und die einfache Antwort lautet: Wir wissen es noch nicht.

Als die ersten KI-Systeme flüssige Texte produzierten, konnte man sie noch als hochentwickelte Mustererkennung bezeichnen. Aber als diese Systeme immer größer und leistungsfähiger wurden, geschah etwas Unerwartetes. Sie haben interne Strukturen - Schaltkreise, wenn Sie so wollen - entwickelt, die überraschenderweise dem Denken ähneln. Sie sind nicht mit dem menschlichen Denken identisch, aber auch nicht mit dem einfachen Abrufen von Informationen.

Forscher haben herausgefunden, dass große Sprachmodelle Probleme lösen können, für die sie nie explizit trainiert wurden. Sie können logische Ketten über mehrere Schritte hinweg verfolgen. Sie können Analogien zwischen verschiedenen Bereichen ziehen. Einige Forscher bezeichnen diese Fähigkeiten vorsichtig als "emergent", was bedeutet, dass sie in großem Umfang auftreten, ohne dass sie speziell dafür entwickelt wurden.

Ob es sich dabei um echtes logisches Denken oder um ein sehr ausgeklügeltes Mustervergleichsverfahren handelt, das das logische Denken imitiert, ist eine offene Frage. Die Forschung ist wirklich nicht schlüssig. Jeder, der Ihnen sagt, dass KI definitiv denken kann oder nicht, übertreibt, was die Beweise angeht.

Was wir sagen können, ist Folgendes: Die Entwicklung ist steil. Vor fünf Jahren konnten diese Systeme kaum einen zusammenhängenden Absatz formulieren. Heute können sie Aufsätze schreiben, juristische Prüfungen bestehen, Computercode generieren und Gespräche führen, die für viele Menschen nicht von einem menschlichen Gespräch zu unterscheiden sind. In fünf Jahren werden ihre Fähigkeiten noch einmal deutlich größer sein.

Warum dies jetzt wichtig ist

Niemand weiß mit Sicherheit, was passiert, wenn ein KI-System jemals so etwas wie seine eigenen Absichten entwickelt - seine eigenen Ziele und Prioritäten, die möglicherweise nicht mit unseren übereinstimmen. Wahrscheinlich sind wir von dieser Schwelle noch ein Stück entfernt. Aber die Architektur, die wir jetzt aufbauen, die Gewohnheiten der Governance, die wir heute etablieren, werden darüber entscheiden, ob wir vorbereitet sind, wenn dieser Moment kommt, oder ob wir zu spät feststellen, dass wir die Kontrolle abgegeben haben, ohne es zu merken.

Dies ist keine Science-Fiction. Es ist eine einfache Feststellung über die institutionelle Bereitschaft. Ihre Gemeinschaft hat ihre eigenen Führungsstrukturen - ihre eigene tikanga dafür, wie Entscheidungen getroffen werden, wie Autorität ausgeübt wird, wie Wissen geteilt wird. Diese gibt es nicht, weil jede hui im Chaos versinkt, sondern weil die Führungsstrukturen vorhanden sein müssen, bevor sie gebraucht werden, und nicht danach.

Das gleiche Prinzip gilt für die KI.

Das eigentliche Problem: Wessen Verhaltensmuster?

Hier wird es praktisch für Ihre Gemeinschaft.

Wenn ein großes KI-System im Internet trainiert wird, übernimmt es die Vorurteile, Annahmen und kulturellen Standardwerte des Internets. Das Internet ist überwiegend englischsprachig, westlich, kommerziell orientiert und von den Werten des Silicon Valley geprägt. Das ist keine Verschwörung - es ist einfach das, was passiert, wenn man ein System auf Daten trainiert, die unverhältnismäßig stark eine Kultur und eine Reihe von Prioritäten repräsentieren.

Für indigene Gemeinschaften ist diese Voreingenommenheit nicht nur subtil. Sie ist strukturell.

Im Internet ist das schriftliche, westliche, individualisierte Wissen überrepräsentiert. Mündliche Traditionen, kollektive Entscheidungsfindung, relationale Wissenssysteme und die Formen des Verständnisses, die indigene Völker seit Generationen pflegen, werden unterrepräsentiert. Wenn ein KI-System auf diese Daten trainiert wird, fehlt ihm nicht nur indigenes Wissen - es ist strukturell dagegen gewichtet. Die Muster, die es gelernt hat, behandeln westliche Rahmenbedingungen als Standard und alles andere als Ausnahme.

Wenn ein Whanau-Mitglied ein KI-System um Ratschläge für eine schwierige Familiensituation bittet, greift das System standardmäßig auf die Sprache der Einzeltherapie zurück - Selbstbehauptungstraining, Grenzsetzung, Selbstfürsorge -, weil dies in seinen Trainingsdaten vorherrscht. Es greift nicht auf die Konzepte von whanaungatanga (Verwandtschaftsverpflichtung), manaakitanga (Fürsorge für andere) oder die langfristige Perspektive zurück, die sich aus dem Wissen ergibt, dass die eigenen Verpflichtungen über Generationen hinweg bestehen. Nicht, weil diese Konzepte weniger gültig sind, sondern weil sie in den Daten, aus denen das System gelernt hat, statistisch gesehen selten sind.

Wenn ein Anführer einer Gemeinschaft die KI um Hilfe bei einer heiklen Kommunikation bittet, verwendet das System standardmäßig die Sprache von Unternehmen - Stakeholder-Management, Nachrichtenrahmen, Gesprächsleitfäden -, weil die Korrespondenz mit Unternehmen in den Trainingsdaten weitaus mehr ist als die Korrespondenz mit indigenen Gemeinschaften.

Das System ist nicht feindselig gegenüber Ihrem Wissen. Es kennt nur Ihr Wissen nicht. Es weiß, was statistisch gesehen üblich ist, und was statistisch gesehen üblich ist, ist überwältigend westlich.

Das ist das eigentliche Problem der KI für indigene Gemeinschaften. Nicht, ob sie denken kann. Nicht, ob sie die Welt erobern wird. Das eigentliche Problem ist: Wessen Muster trägt sie? Und kann Ihre Gemeinschaft ihre eigenen wählen?

Zwei Wege nach vorn

Es gibt zwei Möglichkeiten, wie sich eine Gemeinschaft mit KI auseinandersetzen kann.

Der erste Weg ist die Nutzung von Big-Tech-KI - Systemen wie ChatGPT, Google Gemini oder Microsoft Copilot. Diese Systeme sind leistungsstark, praktisch und kostenlos oder billig in der Nutzung. Aber sie sind an Bedingungen geknüpft. Ihre Daten fließen auf deren Server. Ihre Unterhaltungen werden Teil ihrer Systeme. Das Verhalten der KI unterliegt den Richtlinien des Unternehmens, die sich ohne Ihre Zustimmung ändern können. Und die Muster, die die KI übernimmt - ihre Standardeinstellungen, ihre Annahmen, ihre kulturelle Prägung - werden durch ihre Trainingsdaten festgelegt, auf die Sie keinen Einfluss haben. Für indigene Gemeinschaften, die über Generationen hinweg für die Souveränität über ihr eigenes Wissen gekämpft haben, ist dies kein neutraler Kompromiss.

Der zweite Weg besteht darin, eine KI einzusetzen, die von der Gemeinschaft kontrolliert wird. Ein kleineres System, das weniger leistungsfähig ist, aber auf Ihre Inhalte trainiert ist, auf der von Ihnen kontrollierten Infrastruktur läuft und den von Ihrer Gemeinschaft festgelegten Regeln unterliegt. Ein System, das den Unterschied zwischen einer Community-Ankündigung und einem Unternehmens-Blogpost kennt, weil Ihre Community es ihm beigebracht hat. Ein System, dessen Antworten von mathematischen Beobachtern, die unabhängig von der KI selbst arbeiten, mit Ihren tatsächlichen Aufzeichnungen abgeglichen werden.

Das ist es, was Village AI ist. Es ist nicht das leistungsfähigste KI-System auf dem Markt. Es ist so konzipiert, dass es Ihrer Gemeinschaft treu bleibt - Ihren Inhalten, Ihren Werten und Ihrer Verwaltung. Für indigene Gemeinschaften beinhaltet diese Treue die Möglichkeit, ihr eigenes Vokabular, ihre eigenen Verwaltungsgrenzen und ihre eigenen Regeln für den Wissensaustausch zu definieren.

Der nächste Artikel in dieser Reihe erklärt, wie sich Village AI strukturell von Big Tech AI unterscheidet und warum dieser Unterschied wichtig ist - insbesondere für Gemeinschaften, deren Wissenssysteme bereits eine Welle der Kolonisierung überlebt haben und nicht noch eine weitere überleben sollten.


Dies ist Artikel 1 von 5 in der Reihe "To Hapori, To AI". Die vollständige technische Architektur finden Sie unter Village AI - Agentic Governance.

Weiter: Big Tech KI vs. KI in Ihrer Gemeinde - Warum der Unterschied wichtig ist

Published under CC BY 4.0 by My Digital Sovereignty Ltd. You are free to share and adapt this material, provided you give appropriate credit.