Big Tech AI vs. Your Community AI - Warum der Unterschied wichtig ist
Serie: Ihre Gemeinschaft, Ihre KI - Verständnis von Village AI für Gemeinschaftsgruppen (Artikel 2 von 5) Autor: My Digital Sovereignty Ltd Datum: März 2026 Lizenz: CC BY 4.0 International
Wo Big Tech AI seine Manieren lernt
Stellen Sie sich vor, Sie würden ein Kind in einem Haushalt großziehen, in dem die einzigen Bücher Marketingbroschüren, Argumente aus den sozialen Medien und Wikipedia sind. Dieses Kind wäre wortgewandt, in gewissem Sinne belesen und in der Lage, flüssige Texte zu fast jedem Thema zu verfassen. Aber es hätte eine bestimmte Sicht auf die Welt - kommerziell geprägt, kontrovers, selbstbewusst im Ton, ohne Rücksicht auf die Tiefe. Sie wüssten, wie man autoritär klingt, ohne unbedingt weise zu sein.
Dies ist, grob gesagt, die Art und Weise, wie die KI-Systeme der Big Tech erzogen werden.
ChatGPT, Google Gemini und ihre Kollegen werden mit riesigen Mengen an Text aus dem Internet trainiert. Milliarden von Seiten. Das Ergebnis ist ein System, das fast alles besprechen kann - dessen Vorgaben, Annahmen und Instinkte jedoch von dem geprägt sind, was das Internet übermäßig repräsentiert.
Das Internet überrepräsentiert:
- Englischsprachige Inhalte (und innerhalb des Englischen das amerikanische Englisch)
- Kommerzielle und marketingorientierte Sprache
- Individualistisches Framing ("was ist das Beste für dich")
- Weltliche therapeutische Sprache für emotionale und moralische Fragen
- Technischer und professioneller Diskurs
- Inhalte aus den letzten zwanzig Jahren, mit begrenzter historischer Tiefe
Das Internet ist unterrepräsentiert:
- Gemeinschaftliches Regieren und Gremiensprache
- Traditionen der kommunalen Entscheidungsfindung
- Nicht-westliche Moralvorstellungen
- Mündliche Traditionen und Kulturen des Geschichtenerzählens
- Die gelebte Erfahrung von kleinen, verwurzelten Gemeinschaften
- Die tatsächliche Geschichte, die Menschen und die Praktiken Ihrer Gruppe
Wenn ein Mitglied Ihrer Gruppe ein Big-Tech-KI-System nach der Lösung einer Meinungsverschiedenheit bei einem Clubtreffen fragt, greift es auf Konfliktlösungskonzepte aus der Personalabteilung eines Unternehmens zurück - nicht, weil es diese für besser hält, sondern weil sie in seinen Trainingsdaten dominieren. Es bietet nicht die praktische Weisheit erfahrener Ausschussmitglieder, die Konventionen, die Ihre Gruppe über Jahre hinweg entwickelt hat, oder den Ansatz, der funktioniert, wenn Sie dieselben Personen bei der nächsten Sitzung im nächsten Monat wiedersehen. Diese Muster sind in den Daten, aus denen es gelernt hat, statistisch gesehen selten.
Dies ist kein Fehler, den man mit besserer Anleitung beheben kann. Er ist strukturell bedingt. Der Charakter des Systems wird durch seine Erziehung bestimmt, und seine Erziehung war das Internet.
Was bedeutet "lokal geschult" eigentlich?
Village AI funktioniert anders, und der Unterschied besteht nicht darin, dass sie kleiner oder weniger leistungsfähig ist. Der Unterschied liegt darin, wo die KI ihre Muster erlernt.
Eine Village AI für Ihre Community-Gruppe wird auf drei Ebenen von Inhalten trainiert:
Die Plattformebene. Dies ist die Grundlage - wie die Village-Plattform funktioniert, welche Funktionen verfügbar sind, wie man sich im System bewegt. Jedes Village hat diese Ebene gemeinsam. Das bedeutet, dass die KI einem neuen Mitglied helfen kann, sich zurechtzufinden, zu erklären, wie man eine Ankündigung teilt oder einem Videoanruf beitritt, ohne dass diese Grundlagen von Grund auf neu erlernt werden müssen.
Die Community-Ebene: Sie macht Ihr Village zu dem, was es ist. Die KI lernt aus den Inhalten, die Ihre Gruppe tatsächlich erstellt hat - Newsletter, Ankündigungen, die Mitglieder geteilt haben, Veranstaltungsbeschreibungen, Dokumente, die Ihr Ausschuss veröffentlicht hat. Wenn ein Mitglied fragt: "Was ist bei der Jahreshauptversammlung im letzten Jahr passiert?", kann die KI anhand der Aufzeichnungen Ihrer Gruppe antworten, und nicht anhand einer Vermutung, die darauf beruht, wie Jahreshauptversammlungen im Internet im Allgemeinen aussehen.
Zustimmung bei jedem Schritt. Kein Inhalt gelangt ohne ausdrückliche Zustimmung in das Training der KI. Ein Mitglied, das eine Ankündigung teilt, kann wählen, ob dieser Inhalt in das Wissen der KI aufgenommen werden soll. Inhalte, die als privat gekennzeichnet sind, bleiben privat - strukturell, nicht nur durch Richtlinien. Die KI kann nicht auf Inhalte zugreifen, die ihr nie gegeben wurden.
Das Ergebnis ist ein System, das Ihre Gruppe kennt - und nicht die Vorstellung des Internets davon, was eine Community-Gruppe sein könnte. Wenn es bei der Erstellung eines Newsletters hilft, stützt es sich auf die Muster Ihrer früheren Newsletter und nicht auf die Kommunikationsvorlagen von Unternehmen. Wenn es eine Frage über Ihre Gemeinschaft beantwortet, dann auf der Grundlage der Daten Ihrer Gruppe und nicht auf der Grundlage eines statistischen Durchschnitts aller Gemeinschaftsgruppen.
Guardian Agents: Die Wächter am Tor
Auch eine lokal trainierte KI kann Fehler machen. Sie kann sich an ein Detail falsch erinnern, zwei Ereignisse verwechseln oder eine Antwort geben, die sich zwar richtig anhört, aber nicht auf Ihren tatsächlichen Aufzeichnungen beruht. Das liegt in der Natur der Technik - sie sagt plausible Texte voraus, und plausibel ist nicht gleichbedeutend mit genau.
An dieser Stelle kommt Guardian Agents ins Spiel kommen.
Guardian Agents sind vier unabhängige Überprüfungsebenen, die jede KI-Antwort überprüfen, bevor sie das Mitglied erreicht. Sie sind nicht mehr KI - sie sind mathematische Messsysteme, die strukturell von der KI getrennt sind, die sie überwachen.
Hier ist, was sie tun, in einfachen Worten:
Der erste Wächter nimmt die Antwort der KI und misst, wie genau sie mit dem tatsächlichen Inhalt in den Aufzeichnungen Ihrer Community übereinstimmt. Es geht nicht darum, ob sie sich richtig anhört, sondern darum, ob sie den echten Dokumenten mathematisch ähnlich ist. Wenn die KI sagt: "Der Ausschuss hat beschlossen, das Dach des Clubhauses im September zu erneuern", prüft der Guardian, ob Ihre Sitzungsprotokolle tatsächlich einen Beschluss über die Erneuerung des Daches im September enthalten.
Der zweite Wächter zerlegt die Antwort in einzelne Behauptungen und prüft jede davon separat. Eine KI-Antwort könnte drei Aussagen enthalten - zwei richtige und eine erfundene. Der zweite Wächter erkennt die Fälschung, auch wenn die Antwort insgesamt überzeugend klingt.
Der dritte Wächter achtet auf ungewöhnliche Muster im Laufe der Zeit - Veränderungen im Verhalten der KI, wiederholte Fehler, Ausgaben, die sich bestimmten Grenzen nähern. Er überwacht den Zustand des Systems, nicht nur einzelne Antworten.
Der vierte Wächter lernt aus dem Feedback Ihrer Community. Wenn ein Mitglied eine KI-Antwort als nicht hilfreich markiert - ein einfacher Daumen nach unten reicht aus -, untersucht das System, was schief gelaufen ist, klassifiziert die Ursache und nimmt Anpassungen vor. Die Moderatoren können diese Korrekturen überprüfen und verfeinern, aber der Lernprozess beginnt bei den normalen Mitgliedern. Mit der Zeit gleicht sich die KI immer mehr an das tatsächliche Wissen Ihrer Community an, nicht weniger.
Jede KI-Antwort in Village enthält einen Vertrauensindikator, der dem Mitglied mitteilt, wie fundiert die Antwort ist. Hohes Vertrauen bedeutet, dass der Guardian gute Übereinstimmungen in Ihren Aufzeichnungen gefunden hat. Geringes Vertrauen bedeutet, dass die Antwort eher spekulativ ist. Mitglieder können jede KI-Behauptung bis zu ihrer Quelle zurückverfolgen - dem spezifischen Dokument, der Ankündigung oder dem Datensatz, der sie unterstützt.
Dies ist keine Funktion, die Big Tech AI bietet, da Big Tech AI nicht auf Ihren Aufzeichnungen basiert. Sie basiert auf dem Internet, und es gibt keine praktische Möglichkeit, Milliarden von Seiten mit Trainingsdaten anhand einer einzigen Antwort zu überprüfen.
Der Kompromiss
Village AI ist nicht so leistungsfähig wie ChatGPT oder Gemini. Es kann keine Gedichte im Stil von Shakespeare schreiben, keine fotorealistischen Bilder erzeugen und keine weitreichenden Gespräche über Quantenphysik führen. Es ist ein kleineres System mit einem gezielteren Zweck.
Was es stattdessen bietet, ist die Treue zu Ihrer Gemeinschaft - ihrem Inhalt, ihren Werten, ihrer Leitung - in Verbindung mit der mathematischen Überprüfung, dass ihre Antworten auf Ihren tatsächlichen Aufzeichnungen beruhen und nicht auf den statistischen Mustern des Internets.
Für eine Gemeinschaftsgruppe, die Hilfe bei der Erstellung von Rundbriefen, der Beantwortung von Fragen der Mitglieder zu Gruppenaktivitäten, der Zusammenfassung von Sitzungsprotokollen oder der Organisation von Veranstaltungsinformationen benötigt, stellt dies keine Einschränkung dar. Es ist genau das richtige Werkzeug für diese Aufgabe.
Die Frage lautet nicht: "Welche KI ist leistungsfähiger?" Die Frage lautet: "Welche KI dient meiner Gemeinschaft?"
Dies ist Artikel 2 von 5 in der Reihe "Ihre Gemeinschaft, Ihre KI". Für die vollständige Guardian Agents architektur finden Sie unter Village AI on Agentic Governance.
Zurück: Was KI wirklich ist (und was nicht) Nächste: Warum Regeln und Training nicht ausreichen - Die Governance-Herausforderung