⚖ Leadership Edition

Big Tech vs Community

Deutsch

Big Tech AI vs. Community-Governed AI - Warum der Unterschied wichtig ist


Reihe: KI-Governance für kommunale Führungskräfte - Verständnis von Village AI für Treuhänder, Ratsmitglieder und Vorstandsmitglieder (Artikel 2 von 5) Autor: My Digital Sovereignty Ltd Datum: März 2026 Lizenz: CC BY 4.0 International


Wo Big Tech AI seine Manieren lernt

Stellen Sie sich vor, was passiert, wenn ein System ausschließlich auf das offene Internet trainiert wird - auf Marketingmaterial, auf den Austausch in sozialen Medien und auf Einträge in Enzyklopädien. Das System wäre wortgewandt, in gewissem Sinne umfassend informiert und in der Lage, flüssige Texte zu fast jedem Thema zu verfassen. Aber es hätte eine bestimmte Sicht auf die Welt - kommerziell geprägt, kontrovers, selbstbewusst im Ton, ohne Rücksicht auf die Tiefe. Sie würde wissen, wie man autoritär klingt, ohne unbedingt fundiert zu sein.

So werden in der Praxis die KI-Systeme von Big Tech trainiert.

ChatGPT, Google Gemini und ihre Kollegen werden anhand enormer Textmengen trainiert, die sie aus dem Internet abrufen. Milliarden von Seiten. Das Ergebnis ist ein System, das fast alles besprechen kann - dessen Vorgaben, Annahmen und Instinkte jedoch von dem geprägt sind, was das Internet zu sehr repräsentiert.

Das Internet überrepräsentiert:

Das Internet ist unterrepräsentiert:

Wenn ein Wähler eine Anfrage zu einem Ratsbeschluss stellt und eine Big-Tech-KI bei der Abfassung der Antwort hilft, greift sie auf die Sprache der Unternehmenskommunikation zurück - nicht, weil sie diese für angemessen hält, sondern weil dies die vorherrschende Sprache in ihren Trainingsdaten ist. Sie greift nicht auf die Konventionen der öffentlichen Rechenschaftspflicht, die Sprache der Bürgerpflicht oder den angemessenen Tonfall eines Gremiums zurück, das seiner Gemeinschaft gegenüber Rechenschaft ablegt, da diese Muster in den Daten, aus denen sie gelernt hat, statistisch gesehen selten sind.

Dies ist kein Fehler, der sich durch eine bessere Aufforderung korrigieren lässt. Er ist strukturell bedingt. Der Charakter des Systems wird durch sein Training bestimmt, und sein Training war das Internet.

Was bedeutet "lokal geschult" eigentlich?

Village AI funktioniert anders, und der Unterschied besteht nicht darin, dass es kleiner oder weniger leistungsfähig ist. Der Unterschied liegt darin, wo die KI ihre Muster lernt.

Eine Village AI für Ihr Unternehmen wird auf drei Ebenen von Inhalten trainiert:

Die Plattformebene. Dies ist die Grundlage - wie die Village-Plattform funktioniert, welche Funktionen verfügbar sind, wie man sich im System bewegt. Jedes Village teilt diese Ebene. Das bedeutet, dass ein neues Mitglied Ihrer Organisation sich zurechtfinden, auf Dokumente zugreifen oder an einer Videokonferenz teilnehmen kann, ohne dass es diese Grundlagen von Grund auf lernen muss.

Die organisatorische Ebene macht Ihr Village zu dem, was es ist. Die KI lernt von den Inhalten, die Ihre Organisation tatsächlich erstellt hat - Vorstandsprotokolle, Ankündigungen, Veranstaltungsprotokolle, Grundsatzdokumente, veröffentlichte Berichte. Wenn ein Wähler fragt: "Was hat der Rat im letzten Quartal über das Gemeindezentrum beschlossen?", kann die KI anhand der Unterlagen Ihrer Organisation antworten, und nicht anhand von Vermutungen darüber, was die Räte im Allgemeinen diskutieren.

Zustimmung bei jedem Schritt. Kein Inhalt gelangt in das Training der KI ohne ausdrückliche Zustimmung. Ein Mitglied, das Inhalte beisteuert, kann wählen, ob dieser Beitrag in die Wissensbasis der KI aufgenommen werden soll. Inhalte, die als eingeschränkt gekennzeichnet sind, bleiben eingeschränkt - strukturell, nicht nur durch Richtlinien. Die KI kann nicht auf das zugreifen, was ihr nie gegeben wurde. Im Rahmen der Datenschutz-Grundverordnung ist diese Unterscheidung zwischen struktureller und richtlinienbasierter Beschränkung von Bedeutung: Strukturelle Kontrollen sind nachweislich durchsetzbar; richtlinienbasierte Kontrollen hängen von der Einhaltung ab.

Das Ergebnis ist ein System, das Ihre Organisation kennt - und nicht die Annäherung des Internets daran, wie eine Organisation wie die Ihre aussehen könnte. Wenn es Ihnen hilft, eine Mitteilung an Ihre Stakeholder zu verfassen, stützt es sich auf die Muster Ihrer früheren Mitteilungen und nicht auf Vorlagen für Unternehmensnewsletter. Wenn es eine Frage zu Ihren Entscheidungen beantwortet, stützt es sich auf Ihre Unterlagen und nicht auf einen statistischen Durchschnittswert.

Guardian Agents: Die Überprüfungsebene

Auch eine lokal trainierte KI kann Fehler machen. Sie könnte ein Detail falsch zuordnen, zwei Entscheidungen verwechseln oder eine Antwort erzeugen, die sich zwar plausibel liest, aber nicht auf Ihren tatsächlichen Aufzeichnungen beruht. Das liegt in der Natur der Technologie - sie sagt plausiblen Text voraus, und plausibel ist nicht gleichbedeutend mit genau.

An dieser Stelle Guardian Agents ins Spiel kommen.

Guardian Agents sind vier unabhängige Überprüfungsebenen, die jede KI-Antwort überprüfen, bevor sie das Mitglied erreicht. Es handelt sich dabei nicht um zusätzliche KI, sondern um mathematische Messsysteme, die strukturell von der KI getrennt sind, die sie überwachen.

Was sie tun, lässt sich wie folgt beschreiben:

Der erste Wächter nimmt die Antwort der KI und misst, wie genau sie mit dem tatsächlichen Inhalt in den Unterlagen Ihrer Organisation übereinstimmt. Dabei geht es nicht darum, ob sie sich korrekt anhört, sondern darum, ob sie den echten Dokumenten mathematisch ähnlich ist. Wenn die KI sagt: "Der Vorstand hat beschlossen, im September Mittel für den Spielplatz bereitzustellen", prüft der Guardian, ob Ihr Vorstandsprotokoll tatsächlich einen solchen Beschluss enthält.

Der zweite Wächter zerlegt die Antwort in einzelne Behauptungen und prüft jede davon separat. Eine KI-Antwort könnte drei Aussagen enthalten - zwei richtige und eine erfundene. Der zweite Wächter stellt die Fälschung fest, selbst wenn die Antwort insgesamt überzeugend klingt.

Der dritte Wächter achtet auf ungewöhnliche Muster im Laufe der Zeit - Veränderungen im Verhalten der KI, wiederholte Fehler, Ausgaben, die sich bestimmten Grenzen nähern. Er überwacht den Zustand des Systems, nicht nur einzelne Antworten.

Der vierte Wächter lernt aus dem Feedback Ihrer Community. Wenn ein Mitglied eine KI-Antwort als nicht hilfreich markiert - eine einfache Interaktion reicht aus -, untersucht das System, was schief gelaufen ist, klassifiziert die Ursache und nimmt Anpassungen vor. Moderatoren können diese Korrekturen überprüfen und verfeinern, aber das Lernen beginnt bei den normalen Mitgliedern. Mit der Zeit gleicht sich die KI immer mehr an das tatsächliche Wissen Ihrer Organisation an, nicht weniger.

Jede KI-Antwort in Village trägt einen Vertrauensindikator, der dem Mitglied mitteilt, wie fundiert die Antwort ist. Hohes Vertrauen bedeutet, dass der Guardian gute Übereinstimmungen in Ihren Unterlagen gefunden hat. Geringes Vertrauen bedeutet, dass die Antwort eher spekulativ ist. Mitglieder können jede KI-Behauptung bis zu ihrer Quelle zurückverfolgen - dem spezifischen Dokument, Protokoll oder der Aufzeichnung, die sie unterstützt.

Dies ist keine Funktion, die Big Tech AI bietet, da Big Tech AI nicht auf Ihren Aufzeichnungen basiert. Sie basiert auf dem Internet, und es gibt keine praktische Möglichkeit, Milliarden von Seiten mit Trainingsdaten anhand einer einzigen Antwort zu überprüfen.

Die Compliance-Dimension

Für die Aufsichtsbehörden hat der Unterschied zwischen Big-Tech-KI und gemeinschaftlich verwalteter KI unmittelbare regulatorische Auswirkungen.

**Nach der DSGVO ist der für die Datenverarbeitung Verantwortliche dafür zuständig, wie personenbezogene Daten verarbeitet werden. Wenn Ihre Organisation ein Big-Tech-KI-System nutzt und die Daten der Teilnehmer zu den Servern dieses Anbieters fließen, stellen sich Fragen zur Kontrolle, zur gemeinsamen Kontrolle und zu angemessenen Datenverarbeitungsverträgen. Village AI verarbeitet Daten innerhalb der von Ihrer Organisation kontrollierten Infrastruktur, ohne dass Daten an Drittanbieter von KI fließen.

**Artikel 22 der Datenschutz-Grundverordnung und die Erwägungsgründe des EU-KI-Gesetzes legen die Erwartung fest, dass Personen, die von einer automatisierten Entscheidungsfindung betroffen sind, aussagekräftige Informationen über die damit verbundene Logik erhalten können. Die KI-Systeme von Big Tech sind proprietär - die Gründe für ihre Ergebnisse sind nicht einsehbar. Village AI der Governance-Rahmen der Europäischen Kommission, Tractatus, ist quelloffen und überprüfbar. Jede Governance-Entscheidung wird protokolliert und kann überprüft werden.

**Für Organisationen, die nationalen Anforderungen an die Datenhoheit unterliegen, ist der Ort der Datenverarbeitung von Bedeutung. Big-Tech-KI-Systeme verarbeiten Daten in der Regel in den vom Anbieter festgelegten Rechtsordnungen. Die Village-Infrastruktur kann so eingerichtet werden, dass sie sich in einem bestimmten Land befindet - im aktuellen Fall in der Europäischen Union.

Risikoklassifizierung. Das EU-KI-Gesetz klassifiziert KI-Systeme nach Risikostufen. KI, die in der öffentlichen Verwaltung eingesetzt wird oder Entscheidungen trifft, die sich auf den Zugang des Einzelnen zu grundlegenden Dienstleistungen auswirken, kann mit einem höheren Risiko eingestuft werden. Die Verwendung eines Systems, bei dem die Verwaltung transparent und überprüfbar ist und unter der Kontrolle der Organisation steht, ist ein wesentlicher Unterschied zur Verwendung eines undurchsichtigen Systems eines Dritten.

Dies sind keine theoretischen Bedenken. Es sind praktische Fragen, die ein verantwortlicher Treuhänder, ein Ratsmitglied oder ein Vorstandsmitglied vor jeder Entscheidung über die Einführung von KI stellen sollte.

Der Kompromiss

Village AI ist nicht so leistungsfähig wie ChatGPT oder Gemini. Es kann keine Gedichte schreiben, keine fotorealistischen Bilder erzeugen und auch keine weitreichenden Gespräche über theoretische Physik führen. Es ist ein kleineres System mit einem gezielteren Zweck.

Was es stattdessen bietet, ist die Rechenschaftspflicht gegenüber Ihrer Gemeinschaft - ihr Inhalt, ihre Werte, ihr Governance-Rahmen - in Kombination mit der mathematischen Überprüfung, dass ihre Antworten auf Ihren tatsächlichen Aufzeichnungen beruhen und nicht auf den statistischen Mustern des Internets.

Für eine Organisation, die Hilfe bei der Abfassung von Mitteilungen, der Beantwortung von Fragen der Bürger zu Gemeinschaftsaktivitäten, der Zusammenfassung von Vorstandsunterlagen oder der Koordinierung von Veranstaltungsinformationen benötigt, ist dies keine Einschränkung. Es ist das geeignete Instrument für den jeweiligen Zweck.

Die Frage lautet nicht "Welche KI ist leistungsfähiger?" Die Frage lautet: "Für welche KI kann Ihre Organisation verantwortlich sein?"


Dies ist Artikel 2 von 5 in der Reihe "KI-Governance für Führungskräfte der Gemeinschaft". Für die vollständige Guardian Agents architektur finden Sie unter Village AI on Agentic Governance.

Zurück: Was KI wirklich ist (und was nicht) Nächste: Warum Regeln und Training nicht ausreichen - Die Governance-Herausforderung

Published under CC BY 4.0 by My Digital Sovereignty Ltd. You are free to share and adapt this material, provided you give appropriate credit.