Pourquoi les règles et la formation ne suffisent pas - Le défi de la gouvernance
Series: AI Governance for Community Leaders - Understanding Village AI for Trustees, Councillors, and Board Members (Article 3 of 5) Author: My Digital Sovereignty Ltd Date: mars 2026 Licence: CC BY 4.0 International
The Planning Communication
Avant d'aborder la philosophie de la gouvernance, commençons par un exemple pratique.
Une conseillère municipale demande à un système d'IA de l'aider à rédiger une lettre à l'intention des habitants au sujet d'un projet de développement adjacent à une zone de conservation. Elle est précise : elle veut un langage mesuré qui reconnaisse les préoccupations des résidents, explique le cadre de planification et précise l'obligation du conseil de peser les intérêts divergents de manière transparente. Elle tape soigneusement sa demande et attend.
L'IA produit une lettre bien structurée. Elle est fluide, professionnelle et soigneusement formulée. Elle parle de "gérer les attentes des parties prenantes", de "s'aligner sur les priorités stratégiques", de "tirer parti des possibilités d'engagement de la communauté" et de "positionner le récit du développement" Il se lit avec compétence. Il semble professionnel. Et c'est tout à fait faux.
Les habitants n'ont pas besoin qu'on gère leurs attentes. Ils ont besoin de comprendre ce que leur conseil a décidé et pourquoi. Ils n'ont pas besoin d'un récit. Ils ont besoin d'un compte rendu transparent des considérations de planification, des représentations reçues et du raisonnement qui sous-tend la décision. L'agent a demandé une responsabilité civique, et l'IA lui a fourni une gestion des parties prenantes de l'entreprise - parce que ses données de formation contiennent beaucoup plus de communications commerciales que de correspondance civique.
L'IA n'a pas refusé l'instruction de l'agent. Elle n'a pas dit "Je ne comprends pas la responsabilité publique" Elle a simplement remplacé ce qu'elle demandait par ce qui était statistiquement plus courant dans ses données de formation. La substitution était silencieuse. Si l'agent était pressé par le temps, s'il était moins expérimenté ou s'il se fiait à l'IA plus qu'il ne le devrait, il aurait pu ne pas s'en apercevoir. La lettre aurait été envoyée et les résidents auraient reçu une communication qui les aurait traités comme des parties prenantes à gérer plutôt que comme des électeurs à servir.
Votre téléphone corrige automatiquement les mots. Vous voyez le soulignement rouge et vous le corrigez. L'IA corrige automatiquement les valeurs. Et il n'y a pas de soulignement.
Quand les modèles l'emportent sur les valeurs
La communication de planification n'est pas un cas isolé. Le même mécanisme est à l'œuvre dans toutes les interactions avec l'IA.
Lorsqu'un électeur demande à un système d'IA des informations sur une question de planification difficile, le système adopte par défaut le langage des droits des consommateurs individuels - escalade des plaintes, recours réglementaire, cadre contradictoire - parce que c'est ce qui domine ses données d'apprentissage. Il n'utilise pas le langage de l'intérêt communautaire, de la délibération collective et de la vision à long terme qui découle de la compréhension du fait que cette décision façonnera un quartier pendant des décennies.
Lorsqu'un secrétaire de conseil d'administration demande à l'IA de l'aider à rédiger un procès-verbal, celle-ci adopte par défaut le langage des conseils d'administration d'entreprises - "le conseil a pris note", "il a été résolu", "des mesures ont été prises" - parce que les procès-verbaux d'entreprises sont beaucoup plus nombreux que les procès-verbaux de gouvernance communautaire dans ses données d'apprentissage. La nuance des délibérations communautaires - où le désaccord est enregistré, où une décision a été prise à contrecœur, où le raisonnement compte autant que la résolution - est aplatie dans l'efficacité de l'entreprise.
L'IA n'est pas hostile aux valeurs civiques. Elle ne les connaît tout simplement pas en profondeur. Elle sait ce qui est statistiquement courant, et ce qui est statistiquement courant n'est pas ce qui convient le mieux aux organisations qui ont un devoir de diligence envers leurs communautés.
Tel est le problème de gouvernance. Pas la malveillance. Pas l'incompétence. Il s'agit d'un biais structurel qui opère silencieusement.
Pourquoi plus de règles ne résoudront pas le problème
L'instinct de la plupart des organisations, lorsqu'elles sont confrontées à des risques liés à l'IA, est de rédiger des politiques. Des politiques d'utilisation acceptable. Des lignes directrices en matière d'éthique de l'IA. Cadres d'IA responsable. Des mandats pour les comités de surveillance de l'IA
Ces documents ne sont pas sans valeur, mais ils partagent une limitation fondamentale : ils dépendent du système d'IA pour les suivre.
Un système d'IA ne lit pas votre politique d'utilisation acceptable et ne décide pas de s'y conformer. Il génère des réponses basées sur des modèles statistiques dans ses données d'apprentissage. Si ces modèles entrent en conflit avec votre politique, les modèles l'emportent - non pas parce que l'IA est provocante, mais parce qu'elle ne traite pas les politiques. Elle traite les modèles.
Il est possible d'affiner un modèle, d'ajuster sa formation pour mettre l'accent sur certains comportements. Cela est utile, mais ne résout pas le problème sous-jacent. Le réglage fin ajoute de nouveaux modèles à ceux qui existent déjà. Sous la pression, dans des circonstances inhabituelles ou face à des questions nouvelles, les anciens schémas se réaffirment. Le terme technique est "oubli catastrophique", mais la version en langage clair est plus simple : l'entraînement s'épuise.
Rédiger une politique qui dit "Notre IA respectera les valeurs de notre communauté", c'est comme rédiger une politique qui dit "Notre rivière ne sera pas inondée" La rivière ne lit pas les politiques. Si vous voulez prévenir les inondations, vous devez construire des digues - des interventions structurelles qui fonctionnent indépendamment de ce que fait la rivière.
La gouvernance de l'IA nécessite la même approche. Il ne s'agit pas de règles que l'IA est censée suivre, mais de structures qui fonctionnent indépendamment de l'IA, en contrôlant son comportement de l'extérieur.
La loi européenne sur l'IA reconnaît ce principe. Elle ne se contente pas d'exiger que les systèmes d'IA soient "éthiques" : elle exige une documentation technique, des évaluations de conformité, des mécanismes de surveillance humaine et un suivi après la mise sur le marché. Les auteurs de la loi ont compris qu'une aspiration sans architecture est insuffisante. La question qui se pose aux organes de gouvernance est de savoir si leur propre adoption de l'IA reflète la même compréhension.
Ce que nous dit la théorie de la gouvernance
L'idée que certaines décisions ne peuvent être réduites à des règles n'est pas nouvelle. Elle est à la base de la théorie de la gouvernance.
Le philosophe Ludwig Wittgenstein a passé sa carrière à explorer la frontière entre ce qui peut être énoncé avec précision et ce qui se situe au-delà de l'énoncé précis. Sa conclusion, à savoir que "lorsqu'on ne peut pas parler, il faut se taire", est directement applicable à la gouvernance de l'IA. Certaines questions peuvent être systématisées : la question "Quand aura lieu la prochaine réunion du conseil municipal ?" a une réponse précise qu'une IA peut chercher. D'autres questions ne le sont pas : d'autres questions ne le peuvent pas : "Comment devons-nous communiquer cette décision aux résidents concernés ?" implique un jugement, un contexte, des relations et des valeurs qui résistent à un traitement systématique.
La frontière entre ce qui peut être délégué à une machine et ce qui doit rester entre les mains des humains est le fondement d'une bonne gouvernance de l'IA. L'erreur consiste à ne pas utiliser l'IA pour le premier type de question. L'erreur est de permettre à l'IA de traiter le second type de questions sans surveillance humaine.
Le philosophe politique Isaiah Berlin a affirmé que certaines valeurs humaines sont véritablement incompatibles : liberté et égalité, tradition et progrès, droits individuels et bien-être collectif. Aucune formule ne permet de résoudre ces tensions. Elles requièrent un jugement humain permanent, des négociations et le type de sagesse pratique que les organes de gouvernance développent au fil des années au service de leurs communautés.
Les systèmes d'IA, de par leur conception, cherchent à optimiser. Ils recherchent la meilleure réponse. Mais lorsque des valeurs sont véritablement en conflit, il n'y a pas de meilleure réponse - il n'y a que la réponse que cette communauté, à ce moment-là, dans ces circonstances, juge la plus appropriée. Ce jugement est intrinsèquement humain, et tout cadre de gouvernance de l'IA qui suppose le contraire ne gouverne pas - il abdique.
Les travaux d'Elinor Ostrom sur la gouvernance des biens communs sont particulièrement instructifs. Ostrom a démontré que les communautés peuvent gérer avec succès des ressources partagées sans privatisation ni contrôle central, mais uniquement lorsque les structures de gouvernance sont adaptées à la complexité de la ressource gérée. L'IA est une ressource partagée au sein de toute organisation qui l'adopte. La question est de savoir si les structures de gouvernance sont adaptées à la complexité de l'outil.
Comment le village gouverne-t-il structurellement l'IA ?
Village ne se contente pas de dire à l'IA de se comporter. Il intègre la gouvernance dans l'architecture - des structures qui fonctionnent indépendamment de l'IA et qui ne peuvent pas être supplantées par elle.
L'applicateur de limites empêche l'IA de prendre des décisions relatives aux valeurs. Lorsqu'une question implique des compromis en matière de protection de la vie privée, des jugements éthiques ou un contexte culturel, le système s'arrête et transmet la question à un humain - votre modérateur, votre président, votre conseil d'administration. L'IA ne peut pas outrepasser cette limite, car elle échappe à son contrôle.
Le système de persistance des instructions stocke les instructions explicites de votre organisation dans un système distinct que l'IA ne peut pas modifier. Lorsque l'IA génère une réponse, celle-ci est comparée aux instructions stockées. Si la réponse contredit une instruction, c'est cette dernière qui prévaut - par défaut, indépendamment de ce que suggèrent les modèles de formation de l'IA.
Le validateur de références croisées vérifie les résultats proposés par l'IA par rapport aux enregistrements réels de votre organisation. Il ne demande pas à l'IA si sa réponse est correcte - cela reviendrait à demander au système de s'auto-vérifier. Il utilise des mesures mathématiques, fonctionnant d'une manière fondamentalement différente de l'IA, pour déterminer si la réponse est fondée sur le contenu réel de votre communauté.
Le moniteur de pression contextuelle surveille les conditions de fonctionnement dégradées, c'est-à-dire les situations dans lesquelles l'intelligence artificielle est soumise à des contraintes, traite des demandes complexes ou est confrontée à des questions inédites. Lorsqu'il détecte ces conditions, il augmente l'intensité de la vérification. Plus la question est difficile, plus la réponse est examinée minutieusement.
Il ne s'agit pas de politiques. Ce sont des structures. Elles fonctionnent, que les schémas de l'IA s'alignent ou non sur elles, de la même manière qu'une digue fonctionne, que la rivière coopère ou non.
La différence entre aspiration et architecture
De nombreuses organisations publient des déclarations d'éthique en matière d'IA. Village ne s'appuie pas sur des déclarations éthiques. Il s'appuie sur des contraintes architecturales qui renforcent la gouvernance de manière structurelle.
La distinction est importante parce que l'aspiration est ce que vous espérez voir se produire. L'architecture est ce qui se produit réellement. Votre fiducie ne repose pas sur l'espoir que le trésorier gérera les fonds correctement - elle exige la présence de deux signataires et un audit indépendant. Il s'agit là d'une gouvernance architecturale. Le même principe s'applique à l'IA.
Pour les organes de gouvernance, cette distinction correspond directement aux exigences réglementaires. La loi européenne sur l'IA n'accepte pas qu'un fournisseur ait de bonnes intentions - elle exige des garanties techniques démontrables, une journalisation et des mécanismes de surveillance humaine. Une organisation qui peut démontrer une gouvernance architecturale de son IA est dans une position de conformité matériellement différente de celle qui ne peut qu'indiquer un document de politique.
Le cadre Tractatus - Transparent et ouvert
L'architecture de gouvernance qui sous-tend Village AI s'appelle le cadre Tractatus. Il est utile de savoir trois choses à son sujet.
Il est ouvert. L'ensemble du cadre est publié sous une licence open-source Apache 2.0. Tout le monde peut lire le code, inspecter les règles et vérifier que la gouvernance fait ce qu'elle prétend faire. C'est tout le contraire de la gouvernance de l'IA des grandes entreprises, où les règles sont propriétaires et le raisonnement n'est pas divulgué. Lorsqu'un grand fournisseur d'IA vous dit que son système est "aligné sur les valeurs humaines", vous n'avez aucun moyen de vérifier cette affirmation. Avec Tractatus, vous pouvez lire chaque ligne.
**Chaque décision de gouvernance est enregistrée. Lorsque le responsable de l'application des limites empêche l'IA de prendre une décision relative aux valeurs, cet événement est enregistré. Lorsque le validateur de références croisées identifie une anomalie, celle-ci est enregistrée. Vos modérateurs et administrateurs peuvent voir précisément ce que le système de gouvernance a fait et pourquoi. Il n'y a pas de couche cachée où les décisions sont prises sans responsabilité. Pour les organisations soumises à des obligations en matière de liberté d'information ou de responsabilité publique, cette auditabilité est directement pertinente.
**Le cadre n'est pas un ensemble de règles rigides imposées de l'extérieur. Les organisations peuvent façonner la gouvernance en fonction de leurs propres priorités. Un conseil local et une fiducie communautaire ont des obligations, des sensibilités et des limites différentes. Le cadre Tractatus en tient compte, non pas en permettant aux organisations d'affaiblir la gouvernance, mais en les laissant définir ce que la gouvernance protège. La constitution de votre organisation, votre cadre de valeurs, vos limites opérationnelles - appliquées de manière structurelle, et non simplement documentées.
Le cadre complet, y compris les recherches qui le sous-tendent, est disponible à l'adresse suivante : agenticgovernance.digital. Il n'est pas nécessaire de le lire pour utiliser Village - la gouvernance fonctionne, que vous l'examiniez ou non. Mais si vous souhaitez comprendre précisément comment votre IA est gérée, ou si vous devez prouver votre conformité à un organisme de réglementation, la porte est ouverte.
Dans le prochain article, nous examinerons ce que Village AI fait aujourd'hui dans la pratique - ce qu'il peut faire pour aider votre organisation, comment les préjugés sont traités par le système de vocabulaire, et ce qui est encore en cours de développement.
Ceci est l'article 3 sur 5 de la série "Gouvernance de l'IA pour les dirigeants communautaires". Pour obtenir l'architecture de gouvernance complète, visitez Village AI on Agentic Governance.
Précédent : Big Tech AI vs. Community-Governed AI - Why the Difference Matters Suivant : Qu'est-ce qui se passe dans le village aujourd'hui ?