Wat AI eigenlijk is (en wat het niet is)
Serie: AI-governance voor gemeenschapsleiders - Inzicht in Village AI voor bestuurders, raadsleden en bestuursleden (Artikel 1 van 5) Auteur: My Digital Sovereignty Ltd Datum: Maart 2026 Licentie: CC BY 4.0
Een machine die uw zinnen afmaakt
Je bent vast wel eens beweringen tegengekomen dat kunstmatige intelligentie overheidsdiensten, gemeenschapsbestuur en de manier waarop organisaties werken gaat transformeren. Je bent misschien ook beweringen tegengekomen dat het overdreven is, of dat het niets echt nieuws kan doen. Beide standpunten slaan de plank mis en als je begrijpt waarom, kun je betere bestuurlijke beslissingen nemen.
Hier is de duidelijkste beschrijving van wat AI vandaag doet: het voorspelt welk woord de volgende is.
Wanneer iemand een vraag intypt in ChatGPT of een vraag stelt aan een spraakassistent, redeneert het systeem niet over de vraag zoals een raadslid of een beheerder zou redeneren over een bestuursverslag. Het doet iets mechanisch. Het heeft miljarden pagina's tekst te zien gekregen - wetgeving, rapporten, correspondentie, technische documenten, nieuwsartikelen, sociale media, medische literatuur - en uit al dat materiaal heeft het patronen geleerd. Als je het een vraag stelt, genereert het een antwoord door woord voor woord te voorspellen hoe een plausibel antwoord eruit ziet op basis van alles wat het eerder heeft verwerkt.
Dit is echt nuttig. Een systeem dat de patronen van miljarden pagina's tekst heeft geabsorbeerd, kan helpen bij het opstellen van correspondentie, het samenvatten van lange documenten, het beantwoorden van feitelijke vragen of suggesties doen voor de formulering van een gevoelige mededeling. Dit zijn echte mogelijkheden en ze kunnen de administratieve last verminderen.
Maar het is geen denken. Het is geen begrijpen. Het is patroonherkenning op een buitengewone schaal.
AI kan niets nieuws doen - Het hangt ervan af wat je met nieuw bedoelt
Mensen die AI afwijzen door te zeggen dat het niets origineels kan maken, doen een bewering die eng waar en breed misleidend is.
Een taalmodel kan niet voortkomen uit ervaring. Het heeft nooit deelgenomen aan een openbare raadpleging waar bewoners boos waren. Het heeft nooit het gewicht gevoeld van een financieringsbeslissing die het welzijn van een gemeenschap beïnvloedt. Het kan niet begrijpen waarom de precieze formulering van een raadsbesluit er toe doet - het kan alleen patronen reproduceren die statistisch gezien op begrip lijken. In die zin is alles wat ze produceert een recombinatie van materiaal dat ze tijdens de training heeft opgenomen.
Maar bedenk eens wat "recombinatie" eigenlijk betekent op deze schaal.
Geen enkele persoon heeft elk stuk wetgeving van de lokale overheid, elk jaarverslag van de Community Trust, elk academisch artikel over participatief bestuur en elke effectbeoordeling over regelgeving van de afgelopen tien jaar gelezen. De AI is getraind op een corpus dat veel van deze bronnen bevat. Als de AI een verband legt tussen de theorie van polycentrisch bestuur en de praktijk van gemeenschapsontwikkeling, kan dat verband echt nieuw zijn voor een individuele lezer, ook al bestonden beide ideeën al afzonderlijk. Als er een synthese wordt gemaakt van patronen in domeinen die geen enkele persoon samen heeft bestudeerd, is de synthese zelf een soort nieuwigheid - niet de nieuwigheid van doorleefde ervaring, maar de nieuwigheid van een combinatie op een schaal die geen enkel individu kan evenaren.
Een gevolmachtigde die wel literatuur over gemeenschapsontwikkeling heeft gelezen, maar geen bestuurstheorie, zou de synthese van de AI informatief vinden. Een beleidsanalist die de bestuurstheorie heeft gelezen maar niet de praktijk van gemeenschapsontwikkeling, zou dezelfde synthese informatief vinden vanuit de andere richting. De atomen zijn niet nieuw, maar de moleculen wel.
Dus "AI kan niets nieuws doen" is waar op het niveau van oorsprong en onjuist op het niveau van synthese. Beide dingen zijn van belang en voor een verantwoord beheer van deze technologie is het nodig om beide vast te houden.
Kan AI echt redeneren?
Er is een diepere vraag die onderzoekers actief onderzoeken en het eenvoudige antwoord is: we weten het nog niet.
Toen vroege AI-systemen vloeiende tekst produceerden, was het redelijk om ze te beschrijven als geavanceerde patroonmatching. Maar naarmate deze systemen groter en capabeler werden, gebeurde er iets onverwachts. Ze hebben interne structuren ontwikkeld - circuits, zo je wilt - die verrassend veel lijken op redeneren. Niet identiek aan menselijk redeneren, maar ook niet eenvoudigweg ophalen.
Onderzoekers hebben ontdekt dat grote taalmodellen problemen kunnen oplossen waarop ze nooit expliciet zijn getraind. Ze kunnen ketens van logica volgen over meerdere stappen. Ze kunnen analogieën trekken tussen domeinen. Sommige onderzoekers omschrijven deze capaciteiten voorzichtig als emergent - wat betekent dat ze op schaal verschenen zonder specifiek te zijn ontworpen.
Of dit echt redeneren is of zeer geavanceerde patroonmatching die redeneren nabootst, is een open vraag. Het kan uiteindelijk eerder een filosofisch dan een empirisch onderscheid zijn. Als een systeem het juiste antwoord produceert door een proces dat lijkt op redeneren, op welk punt houdt het onderscheid tussen "echt redeneren" en "redeneerachtig gedrag" dan op van belang te zijn in de praktijk?
Het onderzoek is echt niet overtuigend. Iedereen die je vertelt dat AI definitief wel of niet kan redeneren, overdrijft wat het bewijs ondersteunt.
Wat we wel kunnen zeggen is dit: het traject is steil. Vijf jaar geleden konden deze systemen nauwelijks een samenhangende alinea produceren. Vandaag kunnen ze essays schrijven, professionele examens afleggen, computercode genereren en gesprekken voeren die voor veel mensen niet te onderscheiden zijn van een gesprek met een mens. Over vijf jaar zullen hun mogelijkheden weer aanzienlijk groter zijn.
Waarom dit nu van belang is voor bestuursorganen
Niemand weet met zekerheid wat er gebeurt als een AI-systeem ooit iets ontwikkelt dat lijkt op zijn eigen intentie - zijn eigen doelen en prioriteiten die misschien niet overeenkomen met de belangen van de gemeenschappen die het dient. We zijn waarschijnlijk nog ver verwijderd van die drempel. Maar de architectuur die we nu bouwen, de gewoonten van bestuur die we vandaag vaststellen, zullen bepalen of we voorbereid zijn als dat moment aanbreekt of dat we te laat ontdekken dat we de controle ongemerkt hebben overgedragen.
Dit is niet speculatief. Het is een eenvoudige opmerking over institutionele paraatheid. Je raad heeft een grondwet. Je raad van bestuur heeft een huishoudelijk reglement. Je trust heeft een bestuursdocument. Deze bestaan niet omdat elke vergadering uitloopt op wanorde, maar omdat bestuursstructuren er moeten zijn voordat ze nodig zijn, niet erna.
Hetzelfde principe geldt voor AI. De AI-wet van de EU (Verordening 2024/1689) weerspiegelt precies deze logica - het instellen van bestuurlijke kaders nu, voordat de technologie de regelgevende capaciteit overtreft. Organisaties die AI toepassen zonder dat er bestuursstructuren aanwezig zijn, kunnen zich niet aan de regels houden, aansprakelijk worden gesteld of geen verantwoording kunnen afleggen voor beslissingen die met behulp van AI zijn genomen.
Het echte probleem: Wiens patronen?
Hier wordt het praktisch voor uw organisatie.
Wanneer een groot AI-systeem wordt getraind op het internet, absorbeert het de vooroordelen, aannames en culturele standaards van het internet. Het internet is overwegend Engelstalig, westers, commercieel georiënteerd en gevormd door de waarden van de technologische industrie. Dit is geen complot - het is gewoon wat er gebeurt als je een systeem traint op gegevens die onevenredig veel één cultuur en één set prioriteiten vertegenwoordigen.
De gevolgen zijn subtiel maar materieel.
Wanneer een inwoner een vraag stelt aan een AI-systeem over een moeilijk burenconflict, grijpt het systeem standaard naar de taal van individuele rechten en rechtsmiddelen - omdat dat is wat de trainingsgegevens domineert. Het grijpt niet naar de taal van bemiddeling, gemeenschapsplicht of de lange termijn die je krijgt als je weet dat je de komende twintig jaar naast deze persoon zult wonen.
Wanneer een gemeenteambtenaar een AI-systeem vraagt om te helpen bij het opstellen van een mededeling over een gevoelige planningskwestie, kiest het systeem standaard voor zakelijke stakeholdermanagementtaal - omdat het aantal zakelijke correspondentie in de trainingsgegevens veel groter is dan het aantal burgercommunicatie.
Het systeem staat niet vijandig tegenover burgerlijke waarden. Het kent de burgerlijke waarden gewoon niet. Het weet wat statistisch gebruikelijk is, en wat statistisch gebruikelijk is, is niet wat het meest geschikt is voor je kiezers.
Dit is het echte probleem met AI voor bestuursorganen. Niet of het kan denken. Niet of het ambtenaren zal vervangen. De echte vraag is: wiens patronen draagt het? En kan je organisatie haar eigen patronen kiezen?
Twee wegen vooruit
Er zijn twee manieren waarop een organisatie met AI kan omgaan.
De eerste manier is het gebruik van Big Tech AI - systemen zoals ChatGPT, Google Gemini of Microsoft Copilot. Deze zijn krachtig, handig en vaak goedkoop om te gebruiken. Maar ze komen met voorwaarden. Je gegevens stromen naar hun servers. Je communicatie wordt onderdeel van hun systemen. Het gedrag van de AI wordt bepaald door het beleid van het bedrijf, dat zonder jouw toestemming kan veranderen. En de patronen die de AI in zich draagt - zijn standaardwaarden, aannames, culturele framing - worden bepaald door zijn trainingsgegevens, waar jij geen invloed op hebt. In het kader van de GDPR roept dit vragen op over de controle over de gegevens, de wettelijke basis voor verwerking en het recht op uitleg, die elk bestuursorgaan zou moeten overwegen voordat ze worden toegepast.
Het tweede pad is om AI te gebruiken die je organisatie controleert. Een kleiner systeem, minder krachtig in ruwe capaciteit, maar getraind op jouw inhoud, draaiend op infrastructuur binnen jouw jurisdictie, bestuurd door regels die jouw bestuur of raad instelt. Een systeem dat het verschil weet tussen een raadsnotule en een blogpost, omdat de gegevens van jouw organisatie dat hebben geleerd. Een systeem waarvan de antwoorden worden gecontroleerd aan de hand van uw werkelijke documenten door wiskundige verificatielagen die onafhankelijk van de AI zelf werken.
Dit is wat Village AI is. Het is niet het krachtigste AI-systeem dat er is. Het is ontworpen om verantwoording af te leggen aan uw gemeenschap - aan uw inhoud, uw waarden en uw bestuurskader.
Het volgende artikel in deze serie legt uit hoe Village AI structureel verschilt van Big Tech AI, en waarom dat verschil belangrijker is dan pure kracht.
Dit is artikel 1 van 5 in de serie "AI Governance voor gemeenschapsleiders". Ga voor de volledige technische architectuur naar Village AI - Agentic Governance.
Volgende: Big Tech AI vs. door de gemeenschap bestuurde AI - Waarom het verschil ertoe doet