Ce qu'est l'IA (et ce qu'elle n'est pas)
Series: AI Governance for Community Leaders - Understanding Village AI for Trustees, Councillors, and Board Members (Article 1 of 5) Author: My Digital Sovereignty Ltd Date: mars 2026 Licence: CC BY 4.0 International
Une machine qui termine vos phrases
Vous avez déjà entendu dire que l'intelligence artificielle allait transformer les services publics, la gouvernance des communautés et le fonctionnement des organisations. Vous avez peut-être aussi entendu dire qu'elle est exagérée ou qu'elle ne peut rien faire de vraiment nouveau. Dans les deux cas, il s'agit d'une erreur, et comprendre pourquoi permettra de prendre de meilleures décisions en matière de gouvernance.
Voici la description la plus claire de ce que fait l'IA aujourd'hui : elle prédit le mot à venir.
Lorsque quelqu'un tape une requête dans ChatGPT ou pose une question à un assistant vocal, le système ne raisonne pas sur la requête comme le ferait un conseiller ou un administrateur sur un document du conseil d'administration. Il fait quelque chose de plus mécanique. On lui a montré des milliards de pages de texte - législation, rapports, correspondance, documents techniques, articles de presse, médias sociaux, littérature médicale - et à partir de tout ce matériel, il a appris des schémas. Lorsque vous lui posez une question, il génère une réponse en prédisant, un mot à la fois, à quoi ressemble une réponse plausible en fonction de tout ce qu'il a traité précédemment.
C'est vraiment utile. Un système qui a absorbé les schémas de milliards de pages de texte peut aider à rédiger une correspondance, résumer de longs documents, répondre à des questions factuelles ou suggérer comment formuler une communication sensible. Il s'agit là de capacités réelles, qui peuvent réduire la charge administrative.
Mais il ne s'agit pas de penser. Ce n'est pas de la compréhension. Il s'agit d'un modèle de correspondance à une échelle extraordinaire.
"L'IA ne peut rien faire de nouveau" - Tout dépend de ce que vous entendez par "nouveau"
Les personnes qui rejettent l'IA en affirmant qu'elle ne peut rien créer d'original font une affirmation qui est à la fois étroitement vraie et largement trompeuse.
Un modèle linguistique ne peut pas être issu de l'expérience. Il n'a jamais participé à une consultation publique où les habitants étaient en colère. Il n'a jamais ressenti le poids d'une décision de financement qui affecte le bien-être d'une communauté. Il ne peut pas comprendre pourquoi la formulation précise d'une résolution du conseil municipal a de l'importance - il ne peut que reproduire des modèles qui, statistiquement, ressemblent à une compréhension. En ce sens, tout ce qu'il produit est une recombinaison du matériel qu'il a absorbé au cours de sa formation.
Mais réfléchissez à ce que signifie réellement le terme "recombinaison" à cette échelle.
Personne n'a lu tous les textes législatifs des collectivités locales, tous les rapports annuels des fonds communautaires, tous les articles universitaires sur la gouvernance participative et toutes les études d'impact de la réglementation publiées au cours de la dernière décennie. L'IA a été entraînée sur un corpus qui comprend un grand nombre de ces sources. Lorsqu'elle établit un lien entre la théorie de la gouvernance polycentrique et la pratique du développement communautaire, ce lien peut être véritablement nouveau pour tout lecteur individuel, même si les deux idées existaient séparément. Lorsqu'il synthétise des modèles dans des domaines qu'aucune personne n'a étudiés ensemble, la synthèse elle-même est une sorte de nouveauté - non pas la nouveauté de l'expérience vécue, mais la nouveauté de la combinaison à une échelle qu'aucun individu ne peut égaler.
Un administrateur qui a lu la littérature sur le développement communautaire mais pas la théorie de la gouvernance trouvera la synthèse de l'IA instructive. Un analyste politique qui a lu la théorie de la gouvernance mais pas la pratique du développement communautaire trouverait la même synthèse instructive dans l'autre sens. Les atomes ne sont pas nouveaux, mais les molécules le sont.
Ainsi, "l'IA ne peut rien faire de nouveau" est vrai au niveau de l'origine et faux au niveau de la synthèse. Les deux choses sont importantes, et une gouvernance responsable de cette technologie exige de tenir compte des deux.
L'IA peut-elle réellement raisonner ?
Il y a une question plus profonde que les chercheurs étudient activement, et la réponse directe est : nous ne le savons pas encore.
Lorsque les premiers systèmes d'IA produisaient des textes fluides, il était raisonnable de les décrire comme des systèmes sophistiqués de recherche de motifs. Mais au fur et à mesure que ces systèmes se sont développés et sont devenus plus performants, quelque chose d'inattendu s'est produit. Ils ont développé des structures internes - des circuits, si vous voulez - qui ressemblent étonnamment à des raisonnements. Il ne s'agit pas d'un raisonnement identique à celui de l'homme, mais il ne s'agit pas non plus d'une simple recherche.
Les chercheurs ont découvert que les grands modèles de langage peuvent résoudre des problèmes pour lesquels ils n'ont jamais été explicitement formés. Ils peuvent suivre des chaînes logiques sur plusieurs étapes. Ils peuvent établir des analogies entre les domaines. Certains chercheurs décrivent prudemment ces capacités comme émergentes, ce qui signifie qu'elles sont apparues à grande échelle sans avoir été spécifiquement conçues.
La question de savoir s'il s'agit d'un véritable raisonnement ou d'un appariement de modèles très sophistiqué qui imite le raisonnement reste ouverte. En fin de compte, il pourrait s'agir d'une distinction philosophique plutôt qu'empirique. Si un système produit la bonne réponse par un processus qui ressemble à un raisonnement, à quel moment la distinction entre "raisonnement réel" et "comportement semblable à un raisonnement" cesse-t-elle d'avoir de l'importance dans la pratique ?
La recherche n'est vraiment pas concluante. Quiconque vous dit que l'IA peut ou ne peut pas raisonner de manière définitive exagère ce que les preuves soutiennent.
Ce que nous pouvons dire, c'est que la trajectoire est abrupte. Il y a cinq ans, ces systèmes pouvaient à peine produire un paragraphe cohérent. Aujourd'hui, ils peuvent rédiger des essais, passer des examens professionnels, générer du code informatique et tenir des conversations qui, pour beaucoup, ne se distinguent pas d'une conversation avec un être humain. Dans cinq ans, leurs capacités seront encore bien plus grandes.
Pourquoi cela est important pour les organes de gouvernance aujourd'hui
Personne ne sait avec certitude ce qui se passera si un système d'IA développe un jour quelque chose qui ressemble à sa propre intention - ses propres objectifs et priorités qui pourraient ne pas correspondre aux intérêts des communautés qu'il sert. Nous sommes probablement encore loin de ce seuil. Mais l'architecture que nous construisons aujourd'hui, les habitudes de gouvernance que nous mettons en place aujourd'hui, détermineront si nous serons prêts lorsque ce moment arrivera ou si nous découvrirons trop tard que nous avons cédé le contrôle sans nous en rendre compte.
Il ne s'agit pas d'une spéculation. Il s'agit d'une observation directe sur la préparation institutionnelle. Votre conseil a une constitution. Votre conseil d'administration a un règlement intérieur. Votre association fiduciaire dispose d'un document de référence. Ces documents existent non pas parce que chaque réunion tourne au désordre, mais parce que les structures de gouvernance doivent être mises en place avant qu'on en ait besoin, et non pas après.
Le même principe s'applique à l'IA. La loi européenne sur l'IA (règlement 2024/1689) reflète précisément cette logique : établir des cadres de gouvernance dès maintenant, avant que la technologie ne dépasse les capacités réglementaires. Les organisations qui adoptent l'IA sans avoir mis en place des structures de gouvernance peuvent se retrouver en situation de non-conformité, exposées à la responsabilité ou incapables de rendre compte des décisions prises avec l'aide de l'IA.
Le vrai problème : Les modèles de qui ?
C'est ici que cela devient pratique pour votre organisation.
Lorsqu'un grand système d'intelligence artificielle est entraîné sur l'internet, il absorbe les préjugés, les hypothèses et les valeurs culturelles par défaut de l'internet. L'internet est très majoritairement anglophone, occidental, orienté vers le commerce et façonné par les valeurs de l'industrie technologique. Il ne s'agit pas d'une conspiration, mais simplement de ce qui se produit lorsque l'on forme un système à partir de données qui représentent de manière disproportionnée une culture et un ensemble de priorités.
Les conséquences sont subtiles mais importantes.
Lorsqu'un habitant soumet une requête à un système d'IA à propos d'un conflit de voisinage difficile, le système utilise par défaut le langage des droits individuels et des recours juridiques - parce que c'est ce qui domine dans ses données d'apprentissage. Il ne fait pas appel à la médiation, aux obligations de la communauté ou à la vision à long terme qui découle du fait que l'on sait que l'on vivra à côté de cette personne pendant les vingt prochaines années.
Lorsqu'un agent municipal demande à un système d'IA de l'aider à rédiger une communication sur une question d'urbanisme délicate, le système utilise par défaut le langage de la gestion des parties prenantes de l'entreprise - parce que la correspondance commerciale est largement supérieure à la communication civique dans ses données d'apprentissage.
Le système n'est pas hostile aux valeurs civiques. Il ne les connaît tout simplement pas. Il sait ce qui est statistiquement courant, et ce qui est statistiquement courant n'est pas ce qui convient le mieux à vos électeurs.
C'est là le véritable problème de l'IA pour les organes de gouvernance. Il ne s'agit pas de savoir si elle peut penser. Il ne s'agit pas de savoir si elle remplacera les fonctionnaires. La vraie question est la suivante : à qui appartiennent les modèles qu'elle transporte ? Et votre organisation peut-elle choisir les siens ?
Deux voies pour aller de l'avant
Il y a deux façons pour une organisation de s'engager dans l'IA.
**La première consiste à utiliser l'IA des grandes entreprises - des systèmes tels que ChatGPT, Google Gemini ou Microsoft Copilot. Ces systèmes sont puissants, pratiques et souvent peu coûteux. Mais ils sont assortis de conditions. Vos données sont transférées vers leurs serveurs. Vos communications font partie de leurs systèmes. Le comportement de l'IA est régi par les politiques de l'entreprise, qui peuvent changer sans votre accord. Et les modèles que l'IA utilise - ses valeurs par défaut, ses hypothèses, son cadre culturel - sont définis par ses données d'apprentissage, sur lesquelles vous n'avez aucune influence. Dans le cadre du GDPR, cela soulève des questions sur le contrôle des données, la base légale du traitement et le droit à l'explication que chaque organe de gouvernance devrait examiner avant l'adoption.
La deuxième voie consiste à utiliser l'IA que votre organisation contrôle. Un système plus petit, moins puissant en termes de capacité brute, mais formé sur votre contenu, fonctionnant sur une infrastructure au sein de votre juridiction, régi par des règles établies par votre conseil d'administration. Un système qui sait faire la différence entre un compte rendu de conseil et un article de blog, parce que les archives de votre organisation le lui ont appris. Un système dont les réponses sont comparées à vos documents réels par des couches de vérification mathématique indépendantes de l'IA elle-même.
Voilà ce qu'est Village AI. Il ne s'agit pas du système d'IA le plus puissant qui soit. Il est conçu pour rendre des comptes à votre communauté - à votre contenu, à vos valeurs et à votre cadre de gouvernance.
Le prochain article de cette série explique en quoi Village AI est structurellement différent de l'IA des Big Tech, et pourquoi cette différence est plus importante que la puissance brute.
Ceci est l'article 1 sur 5 de la série "Gouvernance de l'IA pour les leaders communautaires". Pour l'architecture technique complète, visitez Village AI - Agentic Governance.
Suivant : Big Tech AI vs. Community-Governed AI - Why the Difference Matters