Wat AI eigenlijk is (en wat het niet is)
Serie: Jouw gemeenschap, jouw AI - Inzicht in Village AI voor gemeenschapsgroepen (Artikel 1 van 5) Auteur: My Digital Sovereignty Ltd Datum: Maart 2026 Licentie: CC BY 4.0
Een machine die uw zinnen afmaakt
Je hebt mensen waarschijnlijk horen zeggen dat kunstmatige intelligentie alles gaat veranderen. Het kan ook zijn dat je mensen hebt horen zeggen dat het slechts een rage is, of dat het niets echt nieuws kan doen. Beide standpunten slaan de plank mis en als je begrijpt waarom, kun je betere beslissingen nemen voor je groep.
Hier is de duidelijkste beschrijving van wat AI vandaag doet: het voorspelt welk woord de volgende is.
Als je een bericht typt in ChatGPT of een vraag stelt aan Siri, denkt het systeem niet na over je vraag zoals jij of je voorzitter erover zou denken. Het doet iets veel mechanischer. Het heeft miljarden pagina's tekst te zien gekregen - boeken, websites, gesprekken, beleidsdocumenten, juridische documenten, recepten, medische documenten, argumenten op sociale media - en uit al dat lezen heeft het patronen geleerd. Als je het een vraag stelt, genereert het een antwoord door woord voor woord te voorspellen hoe een plausibel antwoord eruit ziet op basis van alles wat het eerder heeft gezien.
Dit is echt nuttig. Een systeem dat de patronen van miljarden pagina's tekst heeft geabsorbeerd, kan je helpen bij het opstellen van een brief, het samenvatten van een lang document, het beantwoorden van een feitelijke vraag of suggesties doen voor de formulering van een moeilijke mededeling. Dit zijn echte mogelijkheden en ze besparen echte tijd.
Maar het is geen denken. Het is geen begrijpen. Het is patroonherkenning op een buitengewone schaal.
AI kan niets nieuws doen - Het hangt ervan af wat je met nieuw bedoelt
Mensen die AI afwijzen door te zeggen dat het niets origineels kan maken, doen een bewering die eng waar en breed misleidend is.
Een taalmodel kan niet voortkomen uit ervaring. Het heeft nooit in een commissie gezeten die over een moeilijke begrotingsbeslissing debatteert. Het heeft nooit het gewicht gevoeld van een keuze die gevolgen heeft voor mensen om wie het geeft. Het kan niet begrijpen waarom de formulering van een grondwet belangrijk is voor de leden die de grondwet hebben opgesteld - het kan alleen patronen reproduceren die statistisch gezien op begrip lijken. In die zin is alles wat ze produceert een recombinatie van materiaal dat ze tijdens de training heeft opgenomen.
Maar bedenk eens wat "recombinatie" eigenlijk betekent op deze schaal.
Geen enkel mens heeft elk bestuurskader, elke clubnieuwsbrief van de afgelopen honderd jaar, elk stuk wetgeving over verenigingen met rechtspersoonlijkheid en elk artikel over gemeenschapsbetrokkenheid gelezen. De AI is getraind op een enorm corpus dat veel van deze bronnen bevat. Als de AI een verband legt tussen de polycentrische bestuurstheorie en gemeenschapsverenigingsstructuren, dan is dat verband echt nieuw voor ieder individueel mens, ook al bestonden beide ideeën al apart. Als het patronen synthetiseert in domeinen die geen enkel mens samen heeft bestudeerd, is de synthese zelf een soort nieuwigheid - niet de nieuwigheid van doorleefde ervaring, maar de nieuwigheid van combinatie op een schaal die geen mens kan evenaren.
Een voorzitter die de Incorporated Societies Act heeft gelezen, maar niet Ostroms bestuurskundige onderzoek, zou de synthese van de AI echt verhelderend vinden. Een academicus die Ostrom heeft gelezen maar nog nooit een gemeenschapsgroep heeft geleid, zou dezelfde synthese verhelderend vinden vanuit de andere richting. De atomen zijn niet nieuw, maar de moleculen wel.
Dus "AI kan niets nieuws doen" is waar op het niveau van de oorsprong en onjuist op het niveau van de synthese. Beide dingen zijn van belang en een serieus engagement met deze technologie vereist dat je ze allebei vasthoudt.
Kan AI echt redeneren?
Er is een diepere vraag die onderzoekers actief onderzoeken en het duidelijke antwoord is: we weten het nog niet.
Toen vroege AI-systemen vloeiende tekst produceerden, was het redelijk om ze te beschrijven als geavanceerde patroonmatching. Maar toen deze systemen groter en capabeler werden, gebeurde er iets onverwachts. Ze hebben interne structuren ontwikkeld - circuits, zo je wilt - die verrassend veel lijken op redeneren. Niet identiek aan menselijk redeneren, maar ook niet eenvoudigweg ophalen.
Onderzoekers hebben ontdekt dat grote taalmodellen problemen kunnen oplossen waarop ze nooit expliciet zijn getraind. Ze kunnen ketens van logica volgen over meerdere stappen. Ze kunnen analogieën trekken tussen domeinen. Sommige onderzoekers omschrijven deze capaciteiten voorzichtig als emergent - wat betekent dat ze op schaal verschenen zonder specifiek te zijn ontworpen.
Of dit echt redeneren is of zeer geavanceerde patroonmatching die redeneren nabootst, is een open vraag. Het kan uiteindelijk eerder een filosofisch dan een empirisch onderscheid zijn. Als een systeem het juiste antwoord produceert door een proces dat op redeneren lijkt, op welk punt houdt het onderscheid tussen "echt redeneren" en "op redeneren gelijkend gedrag" dan praktisch op van belang te zijn?
Het onderzoek is echt niet overtuigend. Iedereen die je vertelt dat AI zeker wel of zeker niet kan redeneren, overdrijft wat het bewijs ondersteunt.
Wat we wel kunnen zeggen is dit: het traject is steil. Vijf jaar geleden konden deze systemen nauwelijks een samenhangende alinea aan elkaar rijgen. Vandaag kunnen ze essays schrijven, slagen voor juridische examens, computercode genereren en gesprekken voeren die voor veel mensen niet te onderscheiden zijn van een gesprek met een mens. Over vijf jaar zullen hun mogelijkheden weer aanzienlijk groter zijn.
Waarom dit nu van belang is
Niemand weet met zekerheid wat er gebeurt als een AI-systeem ooit iets ontwikkelt dat lijkt op zijn eigen intentie - zijn eigen doelen en prioriteiten die misschien niet overeenkomen met de onze. We zijn waarschijnlijk nog ver verwijderd van die drempel. Maar de architectuur die we nu bouwen, de gewoonten van bestuur die we vandaag vaststellen, zullen bepalen of we voorbereid zijn wanneer dat moment aanbreekt of dat we te laat ontdekken dat we de controle ongemerkt hebben overgedragen.
Dit is geen science fiction. Het is een eenvoudige observatie over institutionele paraatheid. Je club heeft een grondwet. Je commissie heeft een reglement van orde. Je regionale orgaan heeft zijn eigen bestuurskader. Deze bestaan niet omdat elke vergadering in chaos vervalt, maar omdat bestuursstructuren er moeten zijn voordat ze nodig zijn, niet erna.
Hetzelfde principe geldt voor AI.
Het echte probleem: Wiens patronen?
Hier wordt het praktisch voor je groep.
Wanneer een groot AI-systeem wordt getraind op het internet, absorbeert het de vooroordelen, aannames en culturele standaards van het internet. Het internet is overwegend Engelstalig, westers, commercieel georiënteerd en gevormd door de waarden van Silicon Valley. Dit is geen complot - het is gewoon wat er gebeurt als je een systeem traint op gegevens die onevenredig veel één cultuur en één set prioriteiten vertegenwoordigen.
De gevolgen zijn subtiel maar reëel.
Wanneer een lid een AI-systeem om advies vraagt over een moeilijke situatie binnen de groep, grijpt het systeem standaard naar de taal van therapie en zelfhulp - omdat dat is wat de trainingsgegevens domineert. Het grijpt niet naar de taal van wederzijdse verplichting, collectieve verantwoordelijkheid of de praktische wijsheid die voortkomt uit het jarenlang leiden van een gemeenschapsgroep, omdat deze tradities statistisch ondervertegenwoordigd zijn in de gegevens waaruit het systeem heeft geleerd.
Wanneer een secretaresse van een commissie een AI-systeem vraagt om te helpen bij het opstellen van een brief aan de leden over een gevoelige kwestie, gebruikt het systeem standaard bedrijfscommunicatiepatronen - omdat het aantal zakelijke correspondentie veel groter is dan het aantal gemeenschapscorrespondentie in de trainingsgegevens.
Het systeem staat niet vijandig tegenover de cultuur van je groep. Het kent de cultuur van je groep gewoon niet. Het weet wat statistisch gezien gebruikelijk is, en wat statistisch gezien gebruikelijk is, is niet wat het belangrijkst is voor jouw gemeenschap.
Dit is het echte probleem met AI. Niet of het kan denken. Niet of het de wereld zal overnemen. De echte vraag is: wiens patronen draagt het? En kan jouw gemeenschap haar eigen patronen kiezen?
Twee paden voorwaarts
Er zijn twee manieren waarop een gemeenschapsgroep zich met AI kan bezighouden.
De eerste manier is om Big Tech AI te gebruiken - systemen zoals ChatGPT, Google Gemini of Microsoft Copilot. Deze zijn krachtig, handig en gratis of goedkoop in gebruik. Maar ze komen met voorwaarden. Je gegevens stromen naar hun servers. Je gesprekken worden onderdeel van hun systemen. Het gedrag van de AI wordt bepaald door het beleid van het bedrijf, dat zonder jouw toestemming kan veranderen. En de patronen die de AI uitdraagt - zijn standaardwaarden, aannames, culturele framing - worden bepaald door zijn trainingsgegevens, waar jij geen invloed op hebt.
Het tweede pad is om AI te gebruiken die je gemeenschap controleert. Een kleiner systeem, minder krachtig in ruwe capaciteit, maar getraind op jouw inhoud, draaiend op hardware die jij beheert, bestuurd door regels die jouw groep instelt. Een systeem dat het verschil weet tussen een nieuwsbrief van een club en een blogpost, omdat jouw gemeenschap het dat heeft geleerd. Een systeem waarvan de antwoorden worden gecontroleerd door wiskundige controleurs die onafhankelijk van de AI zelf werken.
Dit is wat Village AI is. Het is niet ontworpen om op ruwe kracht te concurreren met Big Tech systemen. Het is ontworpen om trouw te zijn aan je gemeenschap - aan je inhoud, je waarden en je bestuur.
In het volgende artikel in deze serie wordt uitgelegd hoe Village AI structureel verschilt van Big Tech AI, en waarom dat verschil belangrijker is dan de ruwe capaciteit.
Dit is artikel 1 van 5 in de serie "Your Community, Your AI". Ga voor de volledige technische architectuur naar Village AI - Agentic Governance.
Volgende: Big Tech AI vs. Uw Community AI - Waarom het verschil ertoe doet