⛪ Parish Edition

What AI Is

Nederlands

Wat AI eigenlijk is (en wat het niet is)


Serie: Uw parochie, uw AI - Inzicht in Village AI voor gemeenschappen (Artikel 1 van 5) Auteur: My Digital Sovereignty Ltd Datum: Maart 2026 Licentie: CC BY 4.0


Een machine die uw zinnen afmaakt

Je hebt mensen waarschijnlijk horen zeggen dat kunstmatige intelligentie alles gaat veranderen. Je hebt misschien ook mensen horen zeggen dat het slechts een rage is, of dat het niets echt nieuws kan doen. Beide standpunten slaan de plank mis en als je begrijpt waarom, kun je betere beslissingen nemen voor je gemeenschap.

Hier is de duidelijkste beschrijving van wat AI vandaag doet: het voorspelt welk woord de volgende is.

Als je een bericht typt in ChatGPT of een vraag stelt aan Siri, denkt het systeem niet na over je vraag zoals jij of je rector erover zouden denken. Het doet iets veel mechanischer. Het heeft miljarden pagina's tekst te zien gekregen - boeken, websites, gesprekken, preken, juridische documenten, recepten, medische documenten, argumenten op sociale media - en uit al dat lezen heeft het patronen geleerd. Als je het een vraag stelt, genereert het een antwoord door woord voor woord te voorspellen hoe een plausibel antwoord eruit ziet op basis van alles wat het eerder heeft gezien.

Dit is echt nuttig. Een systeem dat de patronen van miljarden pagina's tekst heeft geabsorbeerd, kan je helpen bij het opstellen van een brief, het samenvatten van een lang document, het beantwoorden van een feitelijke vraag of suggesties doen voor de formulering van een moeilijke mededeling. Dit zijn echte mogelijkheden en ze besparen echte tijd.

Maar het is geen denken. Het is geen begrijpen. Het is patroonherkenning op een buitengewone schaal.

AI kan niets nieuws doen - Het hangt ervan af wat je met nieuw bedoelt

Mensen die AI afwijzen door te zeggen dat het niets origineels kan maken, doen een bewering die eng waar en breed misleidend is.

Een taalmodel kan niet voortkomen uit ervaring. Het heeft nog nooit een rouwende familie meegemaakt. Het heeft nooit het gewicht gevoeld van een beslissing die gevolgen heeft voor mensen van wie het houdt. Het kan niet begrijpen waarom de woorden van het begrafenisbureau belangrijk zijn - het kan alleen patronen reproduceren die statistisch gezien op begrip lijken. In die zin is alles wat het produceert een recombinatie van materiaal dat het tijdens de training heeft geabsorbeerd.

Maar bedenk eens wat "recombinatie" eigenlijk betekent op deze schaal.

Geen enkel mens heeft elke kerkvader gelezen, elk parochieblad van de afgelopen honderd jaar, elk stuk wetgeving over liefdadigheidsbestuur en elk medisch artikel over rouwverwerking. De AI is getraind op een enorm corpus dat veel van deze bronnen bevat. Als de AI een verband legt tussen de polycentrische bestuurstheorie en de Anglicaanse ecclesiologie, dan is dat verband echt nieuw voor ieder individueel mens, ook al bestonden beide ideeën al apart. Wanneer het patronen synthetiseert in domeinen die geen enkel mens samen heeft bestudeerd, is de synthese zelf een soort nieuwigheid - niet de nieuwigheid van doorleefde ervaring, maar de nieuwigheid van combinatie op een schaal die geen menselijk brein kan evenaren.

Een rector die Hooker heeft gelezen maar Ostrom niet, zou de synthese van de AI echt verhelderend vinden. Een econoom die wel Ostrom maar niet Hooker heeft gelezen, zou dezelfde synthese verhelderend vinden vanuit de andere richting. De atomen zijn niet nieuw, maar de moleculen wel.

Dus "AI kan niets nieuws doen" is waar op het niveau van de oorsprong en onjuist op het niveau van de synthese. Beide dingen zijn van belang en een serieus engagement met deze technologie vereist dat je ze allebei vasthoudt.

Kan AI echt redeneren?

Er is een diepere vraag die onderzoekers actief onderzoeken en het duidelijke antwoord is: we weten het nog niet.

Toen vroege AI-systemen vloeiende tekst produceerden, was het redelijk om ze te beschrijven als geavanceerde patroonmatching. Maar toen deze systemen groter en capabeler werden, gebeurde er iets onverwachts. Ze hebben interne structuren ontwikkeld - circuits, zo je wilt - die verrassend veel lijken op redeneren. Niet identiek aan menselijk redeneren, maar ook niet eenvoudigweg ophalen.

Onderzoekers hebben ontdekt dat grote taalmodellen problemen kunnen oplossen waarop ze nooit expliciet zijn getraind. Ze kunnen ketens van logica volgen over meerdere stappen. Ze kunnen analogieën trekken tussen domeinen. Sommige onderzoekers omschrijven deze capaciteiten voorzichtig als emergent - wat betekent dat ze op schaal verschenen zonder specifiek te zijn ontworpen.

Of dit echt redeneren is of zeer geavanceerde patroonmatching die redeneren nabootst, is een open vraag. Het kan uiteindelijk eerder een filosofisch dan een empirisch onderscheid zijn. Als een systeem het juiste antwoord produceert door een proces dat op redeneren lijkt, op welk punt houdt het onderscheid tussen "echt redeneren" en "op redeneren gelijkend gedrag" dan praktisch op van belang te zijn?

Het onderzoek is echt niet overtuigend. Iedereen die je vertelt dat AI zeker wel of zeker niet kan redeneren, overdrijft wat het bewijs ondersteunt.

Wat we wel kunnen zeggen is dit: het traject is steil. Vijf jaar geleden konden deze systemen nauwelijks een samenhangende alinea aan elkaar rijgen. Vandaag kunnen ze essays schrijven, slagen voor juridische examens, computercode genereren en gesprekken voeren die voor veel mensen niet te onderscheiden zijn van een gesprek met een mens. Over vijf jaar zullen hun mogelijkheden weer aanzienlijk groter zijn.

Waarom dit nu van belang is

Niemand weet met zekerheid wat er gebeurt als een AI-systeem ooit iets ontwikkelt dat lijkt op zijn eigen intentie - zijn eigen doelen en prioriteiten die misschien niet overeenkomen met de onze. We zijn waarschijnlijk nog ver verwijderd van die drempel. Maar de architectuur die we nu bouwen, de gewoonten van bestuur die we vandaag vaststellen, zullen bepalen of we voorbereid zijn wanneer dat moment aanbreekt of dat we te laat ontdekken dat we de controle ongemerkt hebben overgedragen.

Dit is geen science fiction. Het is een eenvoudige observatie over institutionele paraatheid. Je parochie heeft een grondwet. Je sacristie heeft een reglement van orde. Je bisdom heeft canons. Deze bestaan niet omdat elke vergadering in chaos vervalt, maar omdat bestuursstructuren er moeten zijn voordat ze nodig zijn, niet erna.

Hetzelfde principe geldt voor AI.

Het echte probleem: Wiens patronen?

Hier wordt het praktisch voor je gemeenschap.

Wanneer een groot AI-systeem wordt getraind op het internet, absorbeert het de vooroordelen, aannames en culturele standaards van het internet. Het internet is overwegend Engelstalig, westers, commercieel georiënteerd en gevormd door de waarden van Silicon Valley. Dit is geen complot - het is gewoon wat er gebeurt als je een systeem traint op gegevens die onevenredig veel één cultuur en één set prioriteiten vertegenwoordigen.

De gevolgen zijn subtiel maar reëel.

Wanneer een parochiaan een AI-systeem om advies vraagt over een moeilijke gezinssituatie, grijpt het systeem standaard naar de taal van therapie en zelfhulp, omdat dat de dominante trainingsdata zijn. Het grijpt niet naar de taal van gebed, pastorale zorg of de gemeenschap van heiligen, omdat die tradities statistisch ondervertegenwoordigd zijn in de gegevens waaruit het systeem heeft geleerd.

Wanneer een kerkvoogd een AI-systeem vraagt om te helpen bij het opstellen van een brief aan de gemeente over een gevoelige kwestie, gebruikt het systeem standaard bedrijfscommunicatiepatronen, omdat het aantal bedrijfscorrespondentie veel groter is dan het aantal kerkcorrespondentie in de trainingsgegevens.

Het systeem staat niet vijandig tegenover jouw traditie. Het kent jouw traditie gewoon niet. Het weet wat statistisch gebruikelijk is en wat statistisch gebruikelijk is, is niet wat het belangrijkst is voor jouw gemeenschap.

Dit is het echte probleem met AI. Niet of het kan denken. Niet of het de wereld zal overnemen. De echte vraag is: wiens patronen draagt het? En kan jouw gemeenschap haar eigen patronen kiezen?

Twee paden voorwaarts

Er zijn twee manieren waarop een gemeenschap zich met AI kan bezighouden.

De eerste manier is om Big Tech AI te gebruiken - systemen zoals ChatGPT, Google Gemini of Microsoft Copilot. Deze zijn krachtig, handig en gratis of goedkoop in gebruik. Maar ze komen met voorwaarden. Je gegevens stromen naar hun servers. Je gesprekken worden onderdeel van hun systemen. Het gedrag van de AI wordt bepaald door het beleid van het bedrijf, dat zonder jouw toestemming kan veranderen. En de patronen die de AI uitdraagt - zijn standaardwaarden, aannames, culturele framing - worden bepaald door zijn trainingsgegevens, waar jij geen invloed op hebt.

Het tweede pad is om AI te gebruiken die je gemeenschap controleert. Een kleiner systeem, minder krachtig in ruwe capaciteit, maar getraind op jouw inhoud, draaiend op hardware die jij beheert, bestuurd door regels die jouw gemeenschap instelt. Een systeem dat het verschil weet tussen een parochiebulletin en een blogpost, omdat jouw gemeenschap het dat heeft geleerd. Een systeem waarvan de antwoorden worden gecontroleerd door wiskundige controleurs die onafhankelijk van de AI zelf werken.

Dit is wat Village AI is. Het is niet het krachtigste AI-systeem dat er is. Het is ontworpen om trouw te zijn aan je gemeenschap - aan je inhoud, je waarden en je bestuur.

Het volgende artikel in deze serie legt uit hoe Village AI structureel verschilt van Big Tech AI, en waarom dat verschil belangrijker is dan pure kracht.


Dit is artikel 1 van 5 in de serie "Your Parish, Your AI". Ga voor de volledige technische architectuur naar Village AI - Agentic Governance.

Volgende: Big Tech AI vs. AI van uw parochie - Waarom het verschil van belang is

Published under CC BY 4.0 by My Digital Sovereignty Ltd. You are free to share and adapt this material, provided you give appropriate credit.