👥 Community Edition

What AI Is

Français

Ce qu'est l'IA (et ce qu'elle n'est pas)


Series: Your Community, Your AI - Understanding Village AI for Community Groups (Article 1 of 5) Auteur: My Digital Sovereignty Ltd Date: mars 2026 Licence: CC BY 4.0 International


Une machine qui termine vos phrases

Vous avez probablement entendu des gens dire que l'intelligence artificielle allait tout changer. Vous avez peut-être aussi entendu des gens dire que ce n'est qu'une mode, ou qu'elle ne peut rien faire de vraiment nouveau. Dans les deux cas, il s'agit d'une erreur, et comprendre pourquoi vous aidera à prendre de meilleures décisions pour votre groupe.

Voici la description la plus claire de ce que fait l'IA aujourd'hui : elle prédit le mot à venir.

Lorsque vous tapez un message dans ChatGPT ou que vous posez une question à Siri, le système ne réfléchit pas à votre question comme vous ou votre président le feriez. Il fait quelque chose de beaucoup plus mécanique. On lui a montré des milliards de pages de texte - livres, sites web, conversations, documents politiques, documents juridiques, recettes, documents médicaux, arguments sur les médias sociaux - et à partir de toutes ces lectures, il a appris des schémas. Lorsque vous lui posez une question, il génère une réponse en prédisant, un mot à la fois, à quoi ressemble une réponse plausible en fonction de tout ce qu'il a vu auparavant.

C'est vraiment utile. Un système qui a absorbé les modèles de milliards de pages de texte peut vous aider à rédiger une lettre, à résumer un long document, à répondre à une question factuelle ou à suggérer la manière de formuler une annonce difficile. Il s'agit là de capacités réelles, qui permettent de gagner du temps.

Mais ce n'est pas de la réflexion. Ce n'est pas de la compréhension. Il s'agit d'un modèle de correspondance à une échelle extraordinaire.

"L'IA ne peut rien faire de nouveau" - Tout dépend de ce que vous entendez par "nouveau"

Les personnes qui rejettent l'IA en affirmant qu'elle ne peut rien créer d'original font une affirmation qui est à la fois étroitement vraie et largement trompeuse.

Un modèle linguistique ne peut pas naître de l'expérience. Il n'a jamais siégé dans un comité débattant d'une décision budgétaire difficile. Il n'a jamais ressenti le poids d'un choix qui affecte des personnes qui lui sont chères. Il ne peut pas comprendre pourquoi la formulation d'une constitution est importante pour les membres qui l'ont rédigée - il ne peut que reproduire des modèles qui, statistiquement, ressemblent à une compréhension. En ce sens, tout ce qu'il produit est une recombinaison du matériel qu'il a absorbé pendant sa formation.

Mais réfléchissez à ce que signifie réellement le terme "recombinaison" à cette échelle.

Aucun être humain n'a lu tous les cadres de gouvernance, tous les bulletins d'information des clubs des cent dernières années, tous les textes législatifs sur les sociétés constituées et tous les documents sur l'engagement communautaire. L'IA a été formée sur un vaste corpus qui comprend un grand nombre de ces sources. Lorsqu'elle établit un lien entre la théorie de la gouvernance polycentrique et les structures des associations communautaires, ce lien est véritablement nouveau pour tout être humain, même si les deux idées ont existé séparément. Lorsqu'il synthétise des modèles dans des domaines qu'aucune personne n'a étudiés ensemble, la synthèse elle-même est une sorte de nouveauté - non pas la nouveauté de l'expérience vécue, mais la nouveauté de la combinaison à une échelle qu'aucun esprit humain ne peut égaler.

Un président qui a lu la loi sur les sociétés anonymes, mais pas les recherches d'Ostrom sur la gouvernance, trouverait la synthèse de l'IA véritablement éclairante. Un universitaire qui a lu Ostrom mais n'a jamais dirigé un groupe communautaire trouverait la même synthèse éclairante dans l'autre sens. Les atomes ne sont pas nouveaux, mais les molécules le sont.

Ainsi, "l'IA ne peut rien faire de nouveau" est vrai au niveau de l'origine et faux au niveau de la synthèse. Les deux choses sont importantes, et un engagement sérieux vis-à-vis de cette technologie exige de tenir compte des deux.

L'IA peut-elle réellement raisonner ?

Il y a une question plus profonde que les chercheurs étudient activement, et la réponse simple est : nous ne le savons pas encore.

Lorsque les premiers systèmes d'IA produisaient des textes fluides, il était raisonnable de les décrire comme des systèmes sophistiqués de recherche de motifs. Mais au fur et à mesure que ces systèmes se sont développés et sont devenus plus performants, quelque chose d'inattendu s'est produit. Ils ont développé des structures internes - des circuits, si vous voulez - qui ressemblent étonnamment à des raisonnements. Il ne s'agit pas d'un raisonnement identique à celui de l'homme, mais il ne s'agit pas non plus d'une simple recherche.

Les chercheurs ont découvert que les grands modèles de langage peuvent résoudre des problèmes pour lesquels ils n'ont jamais été explicitement formés. Ils peuvent suivre des chaînes logiques sur plusieurs étapes. Ils peuvent établir des analogies entre les domaines. Certains chercheurs décrivent prudemment ces capacités comme émergentes, ce qui signifie qu'elles sont apparues à grande échelle sans avoir été spécifiquement conçues.

La question de savoir s'il s'agit d'un véritable raisonnement ou d'un appariement de modèles très sophistiqué qui imite le raisonnement reste ouverte. En fin de compte, il pourrait s'agir d'une distinction philosophique plutôt qu'empirique. Si un système produit la bonne réponse par un processus qui ressemble à un raisonnement, à quel moment la distinction entre "raisonnement réel" et "comportement ressemblant à un raisonnement" cesse-t-elle d'avoir de l'importance d'un point de vue pratique ?

La recherche n'est vraiment pas concluante. Quiconque vous dit que l'IA peut définitivement raisonner ou qu'elle ne peut définitivement pas raisonner exagère ce que les preuves étayent.

Ce que nous pouvons dire, c'est que la trajectoire est abrupte. Il y a cinq ans, ces systèmes étaient à peine capables d'enchaîner un paragraphe cohérent. Aujourd'hui, ils peuvent rédiger des essais, passer des examens juridiques, générer du code informatique et tenir des conversations qui, pour beaucoup, ne se distinguent pas d'une conversation avec un être humain. Dans cinq ans, leurs capacités seront encore bien plus grandes.

Pourquoi c'est important maintenant

Personne ne sait avec certitude ce qui se passera si un système d'IA développe un jour quelque chose qui ressemble à sa propre intention - ses propres objectifs et priorités qui pourraient ne pas correspondre aux nôtres. Nous sommes probablement encore loin de ce seuil. Mais l'architecture que nous construisons aujourd'hui, les habitudes de gouvernance que nous mettons en place aujourd'hui, détermineront si nous serons prêts lorsque ce moment arrivera ou si nous découvrirons trop tard que nous avons cédé le contrôle sans nous en rendre compte.

Ce n'est pas de la science-fiction. Il s'agit d'une observation simple sur la préparation institutionnelle. Votre club a une constitution. Votre comité a des règles de fonctionnement. Votre organisme régional a son propre cadre de gouvernance. Ces structures existent non pas parce que toutes les réunions sombrent dans le chaos, mais parce que les structures de gouvernance doivent être mises en place avant qu'on en ait besoin, et non pas après.

Le même principe s'applique à l'IA.

Le vrai problème : Les modèles de qui ?

C'est ici que les choses deviennent pratiques pour votre groupe.

Lorsqu'un grand système d'intelligence artificielle est entraîné sur l'internet, il absorbe les préjugés, les hypothèses et les valeurs culturelles par défaut de l'internet. L'internet est très majoritairement anglophone, occidental, commercial et façonné par les valeurs de la Silicon Valley. Il ne s'agit pas d'une conspiration, mais simplement de ce qui se produit lorsque l'on forme un système à partir de données qui représentent de manière disproportionnée une culture et un ensemble de priorités.

Les conséquences sont subtiles mais réelles.

Lorsqu'un membre demande à un système d'IA de le conseiller sur une situation difficile au sein du groupe, le système adopte par défaut le langage de la thérapie et de l'entraide - parce que c'est ce qui domine ses données d'entraînement. Il n'utilise pas le langage de l'obligation mutuelle, de la responsabilité collective ou de la sagesse pratique qui découle de la gestion d'un groupe communautaire pendant de nombreuses années, parce que ces traditions sont statistiquement sous-représentées dans les données dont il s'est servi pour son apprentissage.

Lorsqu'un secrétaire de comité demande à un système d'IA de l'aider à rédiger une lettre aux membres sur un sujet sensible, le système adopte par défaut des modèles de communication d'entreprise - parce que la correspondance commerciale est largement supérieure à la correspondance communautaire dans ses données d'apprentissage.

Le système n'est pas hostile à la culture de votre groupe. Il ne la connaît tout simplement pas. Il sait ce qui est statistiquement courant, et ce qui est statistiquement courant n'est pas ce qui est le plus important pour votre communauté.

C'est là le véritable problème de l'IA. Il ne s'agit pas de savoir si elle peut penser. Il ne s'agit pas de savoir si elle va s'emparer du monde. La vraie question est la suivante : de quels modèles est-elle porteuse ? Et votre communauté peut-elle choisir les siens ?

Deux voies pour aller de l'avant

Il y a deux façons pour un groupe communautaire de s'engager dans l'IA.

**La première consiste à utiliser l'IA des grandes entreprises - des systèmes tels que ChatGPT, Google Gemini ou Microsoft Copilot. Ces systèmes sont puissants, pratiques et leur utilisation est gratuite ou bon marché. Mais ils sont assortis de conditions. Vos données sont transférées vers leurs serveurs. Vos conversations font partie de leurs systèmes. Le comportement de l'IA est régi par les politiques de l'entreprise, qui peuvent changer sans votre consentement. Et les modèles que l'IA véhicule - ses valeurs par défaut, ses hypothèses, son cadre culturel - sont définis par ses données d'apprentissage, sur lesquelles vous n'avez aucune influence.

La deuxième voie consiste à utiliser une IA contrôlée par votre communauté. Un système plus petit, moins puissant en termes de capacité brute, mais formé sur votre contenu, fonctionnant sur du matériel que vous contrôlez, régi par des règles établies par votre groupe. Un système qui sait faire la différence entre une lettre d'information de club et un article de blog, parce que votre communauté le lui a appris. Un système dont les réponses sont comparées à vos enregistrements réels par des observateurs mathématiques indépendants de l'IA elle-même.

Voilà ce qu'est Village AI. Il n'est pas conçu pour rivaliser en termes de puissance brute avec les systèmes des grandes entreprises. Il est conçu pour être fidèle à votre communauté - à votre contenu, à vos valeurs et à votre gouvernance.

Le prochain article de cette série explique en quoi Village AI est structurellement différent de l'IA des Big Tech, et pourquoi cette différence est plus importante que la capacité brute.


Ceci est l'article 1 sur 5 de la série "Votre communauté, votre IA". Pour l'architecture technique complète, visitez Village AI - Agentic Governance.

Suivant : Big Tech AI vs. Your Community AI - Why the Difference Matters

Published under CC BY 4.0 by My Digital Sovereignty Ltd. You are free to share and adapt this material, provided you give appropriate credit.