⚖ Leadership Edition

What AI Is

Deutsch

Was KI wirklich ist (und was nicht)


Serie: KI-Governance für kommunale Führungskräfte - Verständnis von Village AI für Treuhänder, Ratsmitglieder und Vorstandsmitglieder (Artikel 1 von 5) Autor: My Digital Sovereignty Ltd Datum: März 2026 Lizenz: CC BY 4.0 International


A Machine That Finishes Your Sentences

Sie kennen sicher die Behauptung, dass künstliche Intelligenz den öffentlichen Dienst, die Gemeindeverwaltung und die Arbeitsweise von Organisationen verändern wird. Vielleicht sind Sie aber auch schon auf Behauptungen gestoßen, dass die künstliche Intelligenz übertrieben ist oder dass sie nichts wirklich Neues leisten kann. Beide Positionen gehen an der Sache vorbei, und wenn man versteht, warum, kann man bessere Governance-Entscheidungen treffen.

Hier ist die einfachste Beschreibung dessen, was KI heute tut: Sie sagt voraus, welches Wort als nächstes kommen sollte.

Wenn jemand eine Anfrage in ChatGPT eintippt oder einem Sprachassistenten eine Frage stellt, denkt das System nicht über die Anfrage nach, so wie ein Ratsmitglied oder ein Treuhänder über eine Sitzungsvorlage nachdenken würde. Es macht etwas eher Mechanisches. Ihm wurden Milliarden von Textseiten vorgelegt - Rechtsvorschriften, Berichte, Korrespondenz, technische Unterlagen, Nachrichtenartikel, soziale Medien, medizinische Literatur - und aus all diesem Material hat es Muster gelernt. Wenn Sie ihm eine Frage stellen, generiert er eine Antwort, indem er Wort für Wort vorhersagt, wie eine plausible Antwort auf der Grundlage all dessen, was er zuvor verarbeitet hat, aussehen könnte.

Das ist wirklich nützlich. Ein System, das die Muster von Milliarden von Textseiten verinnerlicht hat, kann dabei helfen, Korrespondenz zu verfassen, lange Dokumente zusammenzufassen, sachliche Fragen zu beantworten oder Vorschläge für die Formulierung einer heiklen Mitteilung zu machen. Das sind echte Fähigkeiten, und sie können den Verwaltungsaufwand verringern.

Aber es ist kein Denken. Es ist kein Verstehen. Es ist ein Musterabgleich in einem außergewöhnlichen Ausmaß.

"KI kann nichts Neues machen" - Es kommt darauf an, was Sie mit "neu" meinen

Menschen, die KI mit der Behauptung abtun, sie könne nichts Originelles schaffen, stellen eine Behauptung auf, die im engeren Sinne wahr und im weiteren Sinne irreführend ist.

Ein Sprachmodell kann nicht aus Erfahrung entstehen. Es hat noch nie an einer öffentlichen Anhörung teilgenommen, bei der die Einwohner verärgert waren. Es hat noch nie das Gewicht einer Finanzierungsentscheidung gespürt, die das Wohlergehen einer Gemeinschaft betrifft. Es kann nicht verstehen, warum der genaue Wortlaut eines Ratsbeschlusses wichtig ist - es kann nur Muster reproduzieren, die statistisch gesehen dem Verständnis ähneln. In diesem Sinne ist alles, was sie produziert, eine Rekombination von Material, das sie während ihrer Ausbildung aufgenommen hat.

Aber bedenken Sie, was "Rekombination" in diesem Maßstab eigentlich bedeutet.

Keine einzelne Person hat alle Gesetze der Kommunalverwaltungen, alle Jahresberichte der kommunalen Stiftungen, alle akademischen Abhandlungen über partizipatorische Governance und alle Folgenabschätzungen für Rechtsvorschriften gelesen, die im letzten Jahrzehnt veröffentlicht wurden. Die KI wurde auf einem Korpus trainiert, der viele dieser Quellen enthält. Wenn sie eine Verbindung zwischen der Theorie der polyzentrischen Governance und der Praxis der Gemeindeentwicklung herstellt, kann diese Verbindung für jeden einzelnen Leser wirklich neu sein, auch wenn beide Ideen getrennt voneinander existieren. Wenn sie Muster über Bereiche hinweg synthetisiert, die keine einzelne Person zusammen untersucht hat, ist die Synthese selbst eine Art von Neuheit - nicht die Neuheit der gelebten Erfahrung, sondern die Neuheit der Kombination in einem Umfang, den kein Einzelner erreichen kann.

Ein Treuhänder, der zwar die Literatur zur Gemeindeentwicklung, nicht aber die Governance-Theorie gelesen hat, würde die Synthese der KI informativ finden. Ein politischer Analyst, der die Theorie der Governance, aber nicht die Praxis der Gemeindeentwicklung kennt, würde dieselbe Synthese aus der anderen Richtung informativ finden. Die Atome sind nicht neu, aber die Moleküle schon.

Die Aussage "KI kann nichts Neues tun" ist also auf der Ebene der Entstehung richtig und auf der Ebene der Synthese falsch. Beides ist wichtig, und ein verantwortungsvoller Umgang mit dieser Technologie erfordert die Berücksichtigung beider Aspekte.

Kann KI wirklich vernünftig sein?

Es gibt eine tiefer gehende Frage, die Forscher aktiv untersuchen, und die einfache Antwort lautet: Wir wissen es noch nicht.

Als frühe KI-Systeme flüssige Texte produzierten, konnte man sie noch als hochentwickelte Mustererkennung bezeichnen. Doch als diese Systeme immer größer und leistungsfähiger wurden, geschah etwas Unerwartetes. Sie haben interne Strukturen - Schaltkreise, wenn Sie so wollen - entwickelt, die überraschenderweise dem Denken ähneln. Sie sind nicht mit dem menschlichen Denken identisch, aber auch nicht mit dem einfachen Abrufen von Informationen.

Forscher haben herausgefunden, dass große Sprachmodelle Probleme lösen können, für die sie nie explizit trainiert wurden. Sie können logische Ketten über mehrere Schritte hinweg verfolgen. Sie können Analogien zwischen verschiedenen Bereichen ziehen. Einige Forscher bezeichnen diese Fähigkeiten vorsichtig als "emergent", was bedeutet, dass sie in großem Umfang auftreten, ohne dass sie speziell dafür entwickelt wurden.

Ob es sich dabei um echtes logisches Denken oder um ein sehr ausgeklügeltes Mustervergleichsverfahren handelt, das das logische Denken imitiert, ist eine offene Frage. Letztendlich ist es wohl eher eine philosophische als eine empirische Unterscheidung. Wenn ein System die richtige Antwort durch einen Prozess hervorbringt, der dem logischen Denken ähnelt, an welchem Punkt verliert die Unterscheidung zwischen "echtem logischen Denken" und "logischem Verhalten" in der Praxis an Bedeutung?

Die Forschung ist wirklich nicht schlüssig. Jeder, der Ihnen sagt, dass KI definitiv denken kann oder nicht, übertreibt, was die Beweise belegen.

Was wir sagen können, ist Folgendes: Die Entwicklung ist steil. Vor fünf Jahren konnten diese Systeme kaum einen zusammenhängenden Absatz produzieren. Heute sind sie in der Lage, Aufsätze zu schreiben, Berufsprüfungen zu bestehen, Computercode zu generieren und Gespräche zu führen, die sich für viele Menschen nicht mehr von einem Gespräch mit einem Menschen unterscheiden lassen. In fünf Jahren werden ihre Fähigkeiten noch einmal deutlich größer sein.

Warum dies für Regierungsstellen jetzt wichtig ist

Niemand weiß mit Sicherheit, was passiert, wenn ein KI-System jemals so etwas wie seine eigenen Absichten entwickelt - seine eigenen Ziele und Prioritäten, die möglicherweise nicht mit den Interessen der Gemeinschaften übereinstimmen, denen es dient. Von dieser Schwelle sind wir wahrscheinlich noch ein Stück entfernt. Aber die Architektur, die wir jetzt aufbauen, die Gewohnheiten der Governance, die wir heute etablieren, werden darüber entscheiden, ob wir vorbereitet sind, wenn dieser Moment kommt, oder ob wir zu spät entdecken, dass wir die Kontrolle abgegeben haben, ohne es zu merken.

Dies ist keine Spekulation. Es ist eine einfache Feststellung über die institutionelle Bereitschaft. Ihr Rat hat eine Verfassung. Ihr Vorstand hat eine Geschäftsordnung. Ihre Stiftung hat ein Leitdokument. Diese gibt es nicht, weil jede Sitzung in Unordnung ausartet, sondern weil die Leitungsstrukturen vorhanden sein müssen, bevor sie gebraucht werden, und nicht danach.

Dasselbe Prinzip gilt für KI. Das KI-Gesetz der EU (Verordnung 2024/1689) spiegelt genau diese Logik wider - die Schaffung von Governance-Rahmenwerken jetzt, bevor die Technologie die Regulierungskapazität übersteigt. Unternehmen, die KI einführen, ohne Governance-Strukturen einzurichten, könnten sich als nicht konform, haftbar oder nicht in der Lage sehen, über Entscheidungen, die mit Hilfe von KI getroffen wurden, Rechenschaft abzulegen.

Das eigentliche Problem: Wessen Verhaltensmuster?

An dieser Stelle wird es für Ihr Unternehmen praktisch.

Wenn ein großes KI-System im Internet trainiert wird, nimmt es die Vorurteile, Annahmen und kulturellen Vorgaben des Internets auf. Das Internet ist überwiegend englischsprachig, westlich, kommerziell orientiert und von den Werten der Technologiebranche geprägt. Dies ist keine Verschwörung - es ist einfach das, was passiert, wenn man ein System auf Daten trainiert, die unverhältnismäßig stark eine Kultur und eine Reihe von Prioritäten repräsentieren.

Die Folgen sind subtil, aber wesentlich.

Wenn ein Anwohner eine Anfrage an ein KI-System zu einem schwierigen Nachbarschaftsstreit stellt, greift das System auf die Sprache der individuellen Rechte und Rechtsmittel zurück, weil diese in seinen Trainingsdaten vorherrscht. Es greift nicht auf die Sprache der Mediation, der gemeinschaftlichen Verpflichtungen oder der langfristigen Perspektive zurück, die sich aus dem Wissen ergibt, dass man die nächsten zwanzig Jahre neben dieser Person leben wird.

Wenn ein Beamter der Stadtverwaltung ein KI-System bittet, ihm bei der Abfassung einer Mitteilung über eine heikle Planungsangelegenheit zu helfen, verwendet das System standardmäßig die Sprache des Stakeholder-Managements von Unternehmen - weil die Geschäftskorrespondenz in seinen Trainingsdaten weitaus stärker vertreten ist als die Kommunikation mit Bürgern.

Das System ist nicht feindselig gegenüber bürgerlichen Werten. Es kennt einfach die bürgerlichen Werte nicht. Es weiß, was statistisch gesehen üblich ist, und was statistisch gesehen üblich ist, ist nicht das, was für Ihre Wählerschaft am besten geeignet ist.

Das ist das eigentliche Problem mit der KI für Regierungsstellen. Nicht, ob sie denken kann. Nicht, ob sie Beamte ersetzen wird. Die eigentliche Frage ist: Wessen Muster trägt sie? Und kann Ihre Organisation ihre eigenen auswählen?

Zwei Wege nach vorn

Es gibt zwei Möglichkeiten, wie eine Organisation mit KI umgehen kann.

Der erste Weg ist die Nutzung von Big-Tech-KI - Systemen wie ChatGPT, Google Gemini oder Microsoft Copilot. Diese Systeme sind leistungsstark, bequem und oft kostengünstig. Aber sie sind an Bedingungen geknüpft. Ihre Daten fließen auf deren Server. Ihre Kommunikation wird Teil ihrer Systeme. Das Verhalten der KI unterliegt den Richtlinien des Unternehmens, die sich ohne Ihre Zustimmung ändern können. Und die Muster, die die KI übernimmt - ihre Standardeinstellungen, ihre Annahmen, ihre kulturelle Prägung - werden durch ihre Trainingsdaten festgelegt, auf die Sie keinen Einfluss haben. Im Rahmen der Datenschutz-Grundverordnung wirft dies Fragen zur Datenkontrolle, zur rechtmäßigen Grundlage für die Verarbeitung und zum Recht auf Erklärung auf, die jedes Leitungsorgan vor der Einführung berücksichtigen sollte.

Der zweite Weg ist die Verwendung von KI, die Ihr Unternehmen kontrolliert. Ein kleineres System, das weniger leistungsfähig ist, aber auf Ihre Inhalte trainiert ist, auf einer Infrastruktur in Ihrem Zuständigkeitsbereich läuft und den Regeln unterliegt, die Ihr Vorstand oder Rat festgelegt hat. Ein System, das den Unterschied zwischen einem Ratsprotokoll und einem Blogeintrag kennt, weil die Aufzeichnungen Ihrer Organisation es lehren. Ein System, dessen Antworten durch mathematische Prüfschichten, die unabhängig von der KI selbst arbeiten, mit Ihren tatsächlichen Dokumenten abgeglichen werden.

Das ist es, was Village AI ist. Es ist nicht das leistungsfähigste KI-System auf dem Markt. Es ist so konzipiert, dass es gegenüber Ihrer Gemeinschaft rechenschaftspflichtig ist - gegenüber Ihren Inhalten, Ihren Werten und Ihrem Governance-Rahmen.

Im nächsten Artikel dieser Reihe wird erläutert, wie sich Village AI strukturell von der KI der großen Unternehmen unterscheidet und warum dieser Unterschied wichtiger ist als die reine Leistung.


Dies ist Artikel 1 von 5 in der Reihe "KI-Governance für Community-Führungskräfte". Die vollständige technische Architektur finden Sie unter Village AI - Agentic Governance.

Weiter: Big Tech AI vs. Community-Governed AI - Warum der Unterschied wichtig ist

Published under CC BY 4.0 by My Digital Sovereignty Ltd. You are free to share and adapt this material, provided you give appropriate credit.