Ce qu'est l'IA (et ce qu'elle n'est pas)
Series: Your Parish, Your AI - Understanding Village AI for Communities (Article 1 of 5) Auteur: My Digital Sovereignty Ltd Date: mars 2026 Licence: CC BY 4.0 International
Une machine qui termine vos phrases
Vous avez probablement entendu des gens dire que l'intelligence artificielle allait tout changer. Vous avez peut-être aussi entendu des gens dire que ce n'est qu'une mode, ou qu'elle ne peut rien faire de vraiment nouveau. Dans les deux cas, il s'agit d'une erreur, et le fait de comprendre pourquoi vous aidera à prendre de meilleures décisions pour votre communauté.
Voici la description la plus simple de ce que fait l'IA aujourd'hui : elle prédit le mot à venir.
Lorsque vous tapez un message dans ChatGPT ou que vous posez une question à Siri, le système ne réfléchit pas à votre question comme vous ou votre recteur le feriez. Il fait quelque chose de beaucoup plus mécanique. On lui a montré des milliards de pages de texte - livres, sites web, conversations, sermons, documents juridiques, recettes, documents médicaux, discussions sur les médias sociaux - et, à partir de toutes ces lectures, il a appris des schémas. Lorsque vous lui posez une question, il génère une réponse en prédisant, un mot à la fois, à quoi ressemble une réponse plausible en fonction de tout ce qu'il a vu auparavant.
C'est vraiment utile. Un système qui a absorbé les modèles de milliards de pages de texte peut vous aider à rédiger une lettre, à résumer un long document, à répondre à une question factuelle ou à suggérer la formulation d'une annonce difficile. Il s'agit là de capacités réelles, qui permettent de gagner du temps.
Mais ce n'est pas de la réflexion. Ce n'est pas de la compréhension. Il s'agit d'un modèle de correspondance à une échelle extraordinaire.
"L'IA ne peut rien faire de nouveau" - Tout dépend de ce que vous entendez par "nouveau"
Les personnes qui rejettent l'IA en affirmant qu'elle ne peut rien créer d'original font une affirmation qui est à la fois étroitement vraie et largement trompeuse.
Un modèle linguistique ne peut pas naître de l'expérience. Il ne s'est jamais assis avec une famille en deuil. Il n'a jamais ressenti le poids d'une décision qui affecte des personnes qu'il aime. Il ne peut pas comprendre pourquoi les mots de l'Office des sépultures ont de l'importance - il ne peut que reproduire des schémas qui, statistiquement, ressemblent à de la compréhension. En ce sens, tout ce qu'il produit est une recombinaison du matériel qu'il a absorbé au cours de sa formation.
Mais réfléchissez à ce que signifie réellement le terme "recombinaison" à cette échelle.
Aucun être humain n'a lu tous les pères de l'Église, tous les bulletins paroissiaux des cent dernières années, tous les textes législatifs sur la gouvernance des organisations caritatives et tous les documents médicaux sur le deuil. L'IA a été entraînée sur un vaste corpus comprenant un grand nombre de ces sources. Lorsqu'elle établit un lien entre la théorie de la gouvernance polycentrique et l'ecclésiologie anglicane, ce lien est véritablement nouveau pour tout être humain, même si les deux idées ont existé séparément. Lorsqu'il synthétise des modèles dans des domaines qu'aucune personne n'a étudiés ensemble, la synthèse elle-même est une sorte de nouveauté - non pas la nouveauté de l'expérience vécue, mais la nouveauté de la combinaison à une échelle qu'aucun esprit humain ne peut égaler.
Un recteur qui a lu Hooker mais pas Ostrom trouvera la synthèse de l'IA véritablement éclairante. Un économiste qui a lu Ostrom mais pas Hooker trouverait la même synthèse éclairante dans l'autre sens. Les atomes ne sont pas nouveaux, mais les molécules le sont.
Ainsi, "l'IA ne peut rien faire de nouveau" est vrai au niveau de l'origine et faux au niveau de la synthèse. Les deux choses sont importantes, et un engagement sérieux vis-à-vis de cette technologie exige de tenir compte des deux.
L'IA peut-elle réellement raisonner ?
Il y a une question plus profonde que les chercheurs étudient activement, et la réponse simple est : nous ne le savons pas encore.
Lorsque les premiers systèmes d'IA produisaient des textes fluides, il était raisonnable de les décrire comme des systèmes sophistiqués de recherche de motifs. Mais au fur et à mesure que ces systèmes se sont développés et sont devenus plus performants, quelque chose d'inattendu s'est produit. Ils ont développé des structures internes - des circuits, si vous voulez - qui ressemblent étonnamment à des raisonnements. Il ne s'agit pas d'un raisonnement identique à celui de l'homme, mais il ne s'agit pas non plus d'une simple recherche.
Les chercheurs ont découvert que les grands modèles de langage peuvent résoudre des problèmes pour lesquels ils n'ont jamais été explicitement formés. Ils peuvent suivre des chaînes logiques sur plusieurs étapes. Ils peuvent établir des analogies entre les domaines. Certains chercheurs décrivent prudemment ces capacités comme émergentes, ce qui signifie qu'elles sont apparues à grande échelle sans avoir été spécifiquement conçues.
La question de savoir s'il s'agit d'un véritable raisonnement ou d'un appariement de modèles très sophistiqué qui imite le raisonnement reste ouverte. En fin de compte, il pourrait s'agir d'une distinction philosophique plutôt qu'empirique. Si un système produit la bonne réponse par un processus qui ressemble à un raisonnement, à quel moment la distinction entre "raisonnement réel" et "comportement ressemblant à un raisonnement" cesse-t-elle d'avoir de l'importance d'un point de vue pratique ?
La recherche n'est vraiment pas concluante. Quiconque vous dit que l'IA peut définitivement raisonner ou qu'elle ne peut définitivement pas raisonner exagère ce que les preuves étayent.
Ce que nous pouvons dire, c'est que la trajectoire est abrupte. Il y a cinq ans, ces systèmes étaient à peine capables d'enchaîner un paragraphe cohérent. Aujourd'hui, ils peuvent rédiger des essais, passer des examens juridiques, générer du code informatique et tenir des conversations qui, pour beaucoup, ne se distinguent pas d'une conversation avec un être humain. Dans cinq ans, leurs capacités seront encore bien plus grandes.
Pourquoi c'est important maintenant
Personne ne sait avec certitude ce qui se passera si un système d'IA développe un jour quelque chose qui ressemble à sa propre intention - ses propres objectifs et priorités qui pourraient ne pas correspondre aux nôtres. Nous sommes probablement encore loin de ce seuil. Mais l'architecture que nous construisons aujourd'hui, les habitudes de gouvernance que nous mettons en place aujourd'hui, détermineront si nous serons prêts lorsque ce moment arrivera ou si nous découvrirons trop tard que nous avons cédé le contrôle sans nous en rendre compte.
Ce n'est pas de la science-fiction. Il s'agit d'une observation directe sur la préparation institutionnelle. Votre paroisse a une constitution. Votre sacristie a des règles de fonctionnement. Votre diocèse a des canons. Ces règles existent non pas parce que toutes les réunions sombrent dans le chaos, mais parce que les structures de gouvernance doivent être mises en place avant qu'on en ait besoin, et non pas après.
Le même principe s'applique à l'IA.
Le vrai problème : Les modèles de qui ?
C'est ici que les choses deviennent pratiques pour votre communauté.
Lorsqu'un grand système d'intelligence artificielle est formé sur Internet, il absorbe les préjugés, les hypothèses et les valeurs culturelles par défaut d'Internet. L'internet est très majoritairement anglophone, occidental, commercial et façonné par les valeurs de la Silicon Valley. Il ne s'agit pas d'une conspiration, mais simplement de ce qui se produit lorsque l'on forme un système à partir de données qui représentent de manière disproportionnée une culture et un ensemble de priorités.
Les conséquences sont subtiles mais réelles.
Lorsqu'un paroissien demande à un système d'IA de le conseiller sur une situation familiale difficile, le système adopte par défaut le langage de la thérapie et de l'entraide - parce que c'est ce qui domine dans ses données d'entraînement. Il n'utilise pas le langage de la prière, de la pastorale ou de la communion des saints, parce que ces traditions sont statistiquement sous-représentées dans les données qu'il a utilisées pour son apprentissage.
Lorsqu'un marguillier demande à un système d'IA de l'aider à rédiger une lettre à la congrégation sur un sujet sensible, le système utilise par défaut des modèles de communication d'entreprise, parce que la correspondance commerciale est largement supérieure à la correspondance ecclésiastique dans ses données d'apprentissage.
Le système n'est pas hostile à votre tradition. Il ne la connaît tout simplement pas. Il sait ce qui est statistiquement courant, et ce qui est statistiquement courant n'est pas ce qui est le plus important pour votre communauté.
C'est là le véritable problème de l'IA. Il ne s'agit pas de savoir si elle peut penser. Il ne s'agit pas de savoir si elle va s'emparer du monde. La vraie question est la suivante : de quels modèles est-elle porteuse ? Et votre communauté peut-elle choisir les siens ?
Deux voies pour aller de l'avant
Il y a deux façons pour une communauté de s'engager dans l'IA.
**La première consiste à utiliser l'IA des grandes entreprises - des systèmes tels que ChatGPT, Google Gemini ou Microsoft Copilot. Ces systèmes sont puissants, pratiques et leur utilisation est gratuite ou bon marché. Mais ils sont assortis de conditions. Vos données sont transférées vers leurs serveurs. Vos conversations font partie de leurs systèmes. Le comportement de l'IA est régi par les politiques de l'entreprise, qui peuvent changer sans votre consentement. Et les modèles que l'IA véhicule - ses valeurs par défaut, ses hypothèses, son cadre culturel - sont définis par ses données d'apprentissage, sur lesquelles vous n'avez aucune influence.
La deuxième voie consiste à utiliser une IA contrôlée par votre communauté. Un système plus petit, moins puissant en termes de capacité brute, mais formé sur votre contenu, fonctionnant sur du matériel que vous contrôlez, régi par des règles établies par votre communauté. Un système qui sait faire la différence entre un bulletin paroissial et un article de blog, parce que votre communauté le lui a appris. Un système dont les réponses sont comparées à vos enregistrements réels par des observateurs mathématiques indépendants de l'IA elle-même.
Voilà ce qu'est Village AI. Il ne s'agit pas du système d'IA le plus puissant qui soit. Il est conçu pour être fidèle à votre communauté - à votre contenu, à vos valeurs et à votre gouvernance.
Le prochain article de cette série explique en quoi Village AI est structurellement différent de l'IA des Big Tech, et pourquoi cette différence est plus importante que la puissance brute.
Ceci est l'article 1 sur 5 de la série "Votre paroisse, votre IA". Pour l'architecture technique complète, visitez Village AI - Agentic Governance.
Suivant : Big Tech AI vs. Your Parish AI - Why the Difference Matters