⛪ Parish Edition

Governance Challenge

Français

Pourquoi les règles et la formation ne suffisent pas - Le défi de la gouvernance


Series: Your Parish, Your AI - Understanding Village AI for Communities (Article 3 of 5) Auteur: My Digital Sovereignty Ltd Date: mars 2026 Licence: CC BY 4.0 International


La lettre pastorale

Avant d'aborder la philosophie de la gouvernance, commençons par l'histoire d'une lettre.

Un recteur demande à un système d'intelligence artificielle de l'aider à rédiger une lettre à l'intention d'une famille en deuil. Elle est précise : elle veut le langage de l'espérance de la résurrection - le réconfort de la foi de cette famille. Elle tape soigneusement sa demande et attend.

L'IA produit une lettre magnifiquement écrite. Elle est chaleureuse, professionnelle et compatissante. Elle parle du "voyage de guérison", de la "recherche d'une conclusion", de "l'hommage à leur mémoire en vivant votre meilleure vie" et de "l'héritage qu'ils laissent derrière eux" Cela se lit bien. Cela semble bienveillant. Et c'est tout à fait faux.

La famille n'a pas besoin de tourner la page. Elle a besoin de la communion des saints. Elle n'a pas besoin d'honorer un héritage. Elle a besoin d'entendre que les morts ressuscitent et que la séparation est temporaire. Le recteur a demandé un espoir de résurrection, et l'IA lui a donné une aide thérapeutique personnelle - parce que ses données de formation contiennent un millier de guides sur le deuil provenant de sites web de conseil pour chaque guide qui parle de la résurrection des morts.

L'IA n'a pas refusé l'instruction du recteur. Elle n'a pas dit "Je ne connais pas votre tradition" Elle a simplement remplacé ce qu'elle demandait par ce qui était statistiquement plus courant dans ses données d'apprentissage. La substitution était silencieuse. Si le recteur était fatigué, pressé ou moins attentif que d'habitude, il ne l'aurait peut-être pas remarqué. La lettre aurait été envoyée et la famille aurait été réconfortée par la mauvaise tradition - formulée de manière professionnelle, sincère et subtilement infidèle.

Votre téléphone corrige automatiquement les mots. Vous voyez le soulignement rouge et vous le corrigez. L'IA autocorrige les valeurs. Et il n'y a pas de soulignement.

Quand les modèles l'emportent sur les valeurs

La lettre pastorale n'est pas un cas isolé. Le même mécanisme est à l'œuvre dans toutes les conversations sur l'IA.

Lorsqu'un paroissien demande à un système d'IA de le conseiller sur une situation familiale difficile, le système adopte par défaut le langage de la thérapie individuelle - formation à l'affirmation de soi, fixation de limites, soins personnels - parce que c'est ce qui domine ses données d'apprentissage. Il n'utilise pas le langage de la patience, de l'indulgence mutuelle et de la vision à long terme qui vient du fait que l'on sait que l'on sera assis à côté de cette personne à l'église pendant les trente prochaines années.

Lorsqu'un marguillier demande à l'IA de l'aider à faire une annonce délicate, elle adopte le langage de la communication d'entreprise - gestion des parties prenantes, cadres de messages, points de discussion - parce que la correspondance commerciale est largement supérieure à la correspondance ecclésiastique dans ses données de formation.

L'IA n'est pas hostile à votre tradition. Elle ne la connaît tout simplement pas. Elle sait ce qui est statistiquement courant, et ce qui est statistiquement courant n'est pas ce qui est le plus important pour votre communauté.

C'est là le problème de la gouvernance. Pas la malveillance. Pas l'incompétence. Il s'agit d'un biais structurel qui opère silencieusement.

Pourquoi plus de règles ne résoudront pas le problème

L'instinct de la plupart des organisations, lorsqu'elles sont confrontées à des risques liés à l'IA, est de rédiger des politiques. Des politiques d'utilisation acceptable. Lignes directrices en matière d'éthique de l'IA. Conditions de service. Cadres d'IA responsable.

Ces documents ne sont pas inutiles, mais ils ont une limite fondamentale : ils dépendent du système d'IA pour les respecter.

Un système d'IA ne lit pas votre document de politique et ne décide pas de s'y conformer. Il génère des réponses basées sur des modèles statistiques dans ses données d'apprentissage. Si ces modèles entrent en conflit avec votre politique, les modèles l'emportent - non pas parce que l'IA est rebelle, mais parce qu'elle ne comprend pas les politiques. Elle comprend les modèles.

Il est possible d'affiner un modèle, c'est-à-dire d'ajuster sa formation pour mettre l'accent sur certains comportements. Cela est utile, mais ne résout pas le problème sous-jacent. Le réglage fin ajoute de nouveaux modèles à ceux qui existent déjà. Sous la pression, dans des circonstances inhabituelles ou face à des questions inédites, les anciens schémas se réaffirment. Le terme technique est "oubli catastrophique", mais la version en langage clair est plus simple : l'entraînement s'épuise.

Rédiger une politique qui dit "Notre IA respectera les valeurs de notre communauté", c'est comme rédiger une politique qui dit "Notre rivière ne sera pas inondée" La rivière ne lit pas les politiques. Si vous voulez prévenir les inondations, vous devez construire des digues - des interventions structurelles qui fonctionnent indépendamment des intentions de la rivière.

La gouvernance de l'IA nécessite la même approche. Il ne s'agit pas de règles que l'IA est censée suivre, mais de structures qui fonctionnent indépendamment de l'IA, en contrôlant son comportement de l'extérieur.

Ce que nous disent les traditions de sagesse

L'idée que certaines décisions ne peuvent être réduites à des règles n'est pas nouvelle. Elle est ancienne.

Le philosophe Ludwig Wittgenstein a passé sa carrière à explorer la frontière entre ce qui peut être énoncé avec précision et ce qui se situe au-delà de l'énoncé précis. Sa conclusion, à savoir que "lorsqu'on ne peut pas parler, il faut se taire", s'applique directement à la gouvernance de l'IA. Certaines questions peuvent être systématisées : la question "À quelle heure est l'office du dimanche ?" a une réponse précise qu'une IA peut chercher. D'autres questions ne le sont pas : "Comment dois-je aborder mon voisin au sujet de la haie ?" implique un jugement, un contexte, des relations et des valeurs qui résistent à un traitement systématique.

La frontière entre ce qui peut être délégué à une machine et ce qui doit rester entre les mains de l'homme est le fondement d'une bonne gouvernance de l'IA. L'erreur consiste à ne pas utiliser l'IA pour le premier type de question. L'erreur est de permettre à l'IA de répondre au second type de questions sans surveillance humaine.

Le philosophe politique Isaiah Berlin a affirmé que certaines valeurs humaines sont véritablement incompatibles - liberté et égalité, tradition et progrès, conscience individuelle et harmonie communautaire. Aucune formule ne permet de résoudre ces tensions. Elles requièrent un jugement humain permanent, des négociations et le type de sagesse pratique que les communautés développent au fil des générations.

Les systèmes d'IA, de par leur conception, cherchent à optimiser. Ils recherchent la meilleure réponse. Mais lorsque des valeurs sont véritablement en conflit, il n'y a pas de meilleure réponse - il n'y a que la réponse que cette communauté, à ce moment-là, avec ces personnes, juge la moins mauvaise. Ce jugement est intrinsèquement humain, et tout cadre de gouvernance de l'IA qui prétend le contraire ne gouverne pas - il abdique.

La tradition anglicane a sa propre version de cette idée. La via media - la voie du milieu - n'est pas un compromis entre des extrêmes. C'est la reconnaissance du fait que vivre fidèlement exige de maintenir les tensions plutôt que de les résoudre. L'Écriture, la tradition et la raison ont chacune leur autorité, et aucune ne peut être réduite à une formule. Une paroisse qui a pratiqué ce type de discernement pendant des siècles comprend déjà, au plus profond d'elle-même, pourquoi on ne peut pas confier à l'IA les décisions relatives aux valeurs.

Comment le village gouverne l'IA Structurellement

Village ne se contente pas de dire à l'IA de se comporter. Il intègre la gouvernance dans l'architecture - des structures qui fonctionnent indépendamment de l'IA et qui ne peuvent pas être supplantées par elle.

L'applicateur de limites empêche l'IA de prendre des décisions relatives aux valeurs. Lorsqu'une question implique des compromis en matière de protection de la vie privée, des jugements éthiques ou un contexte culturel, le système s'arrête et transmet la question à un humain - votre modérateur, votre recteur, votre conseil paroissial. L'IA ne peut pas outrepasser cette limite, car elle échappe à son contrôle.

Le système de persistance des instructions stocke les instructions explicites de votre communauté dans un système distinct que l'IA ne peut pas modifier. Lorsque l'IA génère une réponse, celle-ci est comparée aux instructions stockées. Si la réponse contredit une instruction, c'est cette dernière qui prévaut - par défaut, indépendamment de ce que suggèrent les modèles d'entraînement de l'IA.

Le validateur de références croisées vérifie les actions proposées par l'IA par rapport aux dossiers réels de votre collectivité. Il ne demande pas à l'IA si sa réponse est correcte - ce serait demander au système de se vérifier lui-même. Il utilise des mesures mathématiques, fonctionnant d'une manière fondamentalement différente de l'IA, pour déterminer si la réponse est fondée sur le contenu réel de votre collectivité.

Le moniteur de pression contextuelle surveille les conditions de fonctionnement dégradées, c'est-à-dire les situations dans lesquelles l'intelligence artificielle est soumise à des contraintes, traite des demandes complexes ou est confrontée à des questions inédites. Lorsqu'il détecte ces conditions, il augmente l'intensité de la vérification. Plus la question est difficile, plus la réponse est examinée minutieusement.

Il ne s'agit pas de politiques. Ce sont des structures. Elles fonctionnent, que l'IA soit d'accord ou non, de la même manière qu'une digue fonctionne, que la rivière soit d'accord ou non.

La différence entre aspiration et architecture

De nombreuses organisations publient des déclarations d'éthique de l'IA. Village ne s'appuie pas sur des déclarations éthiques. Il s'appuie sur des contraintes architecturales qui renforcent la gouvernance de manière structurelle.

La distinction est importante parce que l'aspiration est ce que vous espérez voir se produire. L'architecture est ce qui se produit réellement. Votre paroisse ne s'appuie pas sur l'espoir que le trésorier gère les fonds correctement - elle exige deux signataires pour chaque chèque. Il s'agit là d'une gouvernance architecturale. Le même principe s'applique à l'IA.

Le cadre Tractatus - Transparent et ouvert

L'architecture de gouvernance qui sous-tend Village AI s'appelle le cadre Tractatus. Il est utile de savoir trois choses à son sujet.

Il est ouvert. L'ensemble du cadre est publié sous une licence open-source Apache 2.0. Tout le monde peut lire le code, inspecter les règles et vérifier que la gouvernance fait ce qu'elle prétend faire. C'est tout le contraire de la gouvernance de l'IA des Big Tech, où les règles sont propriétaires et le raisonnement caché. Lorsque Google ou OpenAI vous disent que leur IA est "alignée sur les valeurs humaines", vous n'avez aucun moyen de vérifier. Avec Tractatus, vous pouvez lire chaque ligne.

**Chaque décision de gouvernance est enregistrée. Lorsque le responsable de l'application des limites empêche l'IA de prendre une décision relative aux valeurs, cet événement est enregistré. Lorsque le validateur de références croisées détecte une anomalie, celle-ci est enregistrée. Vos modérateurs peuvent voir exactement ce que le système de gouvernance a fait et pourquoi. Il n'y a pas de couche cachée où les décisions sont prises sans responsabilité.

**Le cadre n'est pas un ensemble de règles rigides imposées de l'extérieur. Les communautés peuvent façonner la gouvernance en fonction de leurs propres priorités. Une paroisse épiscopale et un groupe de protection de la nature ont des valeurs, des sensibilités et des limites différentes. Le cadre du site Tractatus en tient compte, non pas en laissant les communautés affaiblir la gouvernance, mais en les laissant définir ce que la gouvernance protège. La constitution de votre communauté, le paysage moral de votre communauté, les limites de votre communauté - appliquées de manière structurelle, et pas seulement documentées.

Le cadre complet, y compris les recherches qui le sous-tendent, est disponible à l'adresse suivante : agenticgovernance.digital. Il n'est pas nécessaire de le lire pour utiliser Village - la gouvernance fonctionne, que vous l'examiniez ou non. Mais si vous voulez comprendre exactement comment votre IA est gouvernée, la porte est ouverte.

Dans le prochain article, nous examinerons ce que Village AI fait aujourd'hui dans la pratique - ce qu'il peut faire pour aider votre paroisse, comment les préjugés sont pris en compte par le système de vocabulaire, et ce qui reste à faire.


Ceci est l'article 3 sur 5 de la série "Votre paroisse, votre IA". Pour obtenir l'architecture de gouvernance complète, visitez Village AI on Agentic Governance.

Précédent : Big Tech AI vs. Your Parish AI - Why the Difference Matters Suivant : Ce qui se passe dans le village aujourd'hui

Published under CC BY 4.0 by My Digital Sovereignty Ltd. You are free to share and adapt this material, provided you give appropriate credit.