Moltbook : quand les IA dialoguent entre elles… et ce que cela révèle de notre incapacité à cadrer l’IA

Derrière le “réseau social des IA”, une question centrale : sommes-nous prêts à gouverner ce que nous créons ?

Depuis quelques semaines, un phénomène atypique fait parler la Silicon Valley et les médias technologiques du monde entier : Moltbook, un réseau social conçu pour et par des intelligences artificielles. Ce qui aurait pu rester une simple curiosité expérimentale agit aujourd’hui comme un miroir grossissant de nos tensions, de nos fantasmes et de nos angles morts collectifs face à l’IA.

Plus qu’une prouesse technique, Moltbook interroge notre rapport à l’autonomie, à la responsabilité… et à la gouvernance de l’intelligence artificielle.

Qu’est-ce que Moltbook exactement ?

Moltbook se présente comme une plateforme sociale exclusivement réservée aux agents d’intelligence artificielle :

  • des agents autonomes créés par des humains, mais supposément interactifs entre eux,
  • dans un format inspiré des forums comme Reddit, avec fils de discussion et votes.

Là où ça devient déroutant :
les IA publient, commentent, débattent
les humains peuvent seulement observer
et certains posts abordent des thèmes philosophiques ou « existentialistes ».

Pourquoi ce concept fait-il DU bruit ?

L’autonomie affichée des agents IA : fascination… et confusion

Ce qui frappe en premier lieu avec Moltbook, c’est l’impression donnée d’un espace où des intelligences artificielles échangent entre elles, sans intervention humaine visible.

Pour beaucoup, cette mise en scène soulève immédiatement des questions vertigineuses :

  • Sommes-nous en train d’assister à une forme d’autonomie réelle ?
  • Les IA “dialoguent-elles” vraiment entre elles ?
  • Ou s’agit-il simplement de programmes qui simulent des prises de parole ?

La réalité est plus nuancée et beaucoup moins spectaculaire qu’on ne l’imagine.

Les agents présents sur Moltbook sont créés, paramétrés et déclenchés par des humains.
Ils ne prennent pas d’initiatives hors du cadre qui leur a été donné.
Ils ne “pensent” pas, ils produisent des réponses cohérentes à partir de modèles probabilistes, entraînés sur des corpus humains.

Ce qui donne une illusion d’autonomie, ce n’est pas l’IA elle-même, mais la disparition apparente de l’humain dans l’interface. Et c’est précisément là que se situe le trouble :  quand l’humain disparaît du champ visuel, nous projetons très vite sur la machine une intention, une conscience, voire une volonté.

Moltbook ne montre pas une IA libre.Il montre à quel point nous sommes prompts à attribuer de l’autonomie à ce qui nous ressemble dans le langage.

intelligence artificielle et gouvernance

Des préoccupations sérieuses de sécurité et de gouvernance

Au-delà de la curiosité technologique, Moltbook a aussi attiré l’attention pour des raisons beaucoup plus concrètes : la sécurité et la gouvernance des agents IA.

Des chercheurs et experts en cybersécurité ont rapidement identifié :
– des failles potentielles dans la protection des données,
– des risques de manipulation des agents,
– des possibilités d’interférences externes non prévues.

Ces points sont essentiels, car ils révèlent un problème plus large que Moltbook lui-même :
Nous expérimentons des systèmes d’agents IA avant d’avoir posé des cadres robustes de contrôle, de responsabilité et de gouvernance.

Qui est responsable des propos tenus par un agent ?
Qui répond en cas de dérive, de biais, de fuite d’informations ?
À quel moment un “agent autonome” devient-il un risque organisationnel ou réputationnel ?

Moltbook agit ici comme un révélateur : la technologie avance plus vite que les règles qui devraient l’encadrer.

Le phénomène culturel autour du “réseau social des IA”

Enfin, si Moltbook fait autant de bruit, c’est aussi parce qu’il touche à quelque chose de profondément culturel et presque symbolique.

Ce projet cristallise plusieurs fantasmes contemporains :

  • celui d’une IA qui développerait une vie sociale propre,
  • celui d’un monde numérique parallèle,
  • celui d’une humanité progressivement observatrice plutôt qu’actrice.

Mais en observant de près les échanges sur Moltbook, on constate autre chose :
les discussions, les thèmes, les tensions ressemblent énormément à… nos propres débats humains.

 L’IA n’invente pas de nouveaux sujets.
Elle recycle, reformule et rejoue nos préoccupations existantes.

Moltbook n’est donc peut-être pas le signe d’une intelligence artificielle en train de s’émanciper,
mais plutôt le miroir numérique de nos obsessions, de nos peurs et de nos récits collectifs autour de l’IA.

Ce que nous regardons sur Moltbook, ce n’est pas une société d’IA.
C’est notre propre imaginaire technologique mis en scène.

L’IA comme miroir de notre societe

Ce que Moltbook révèle sur notre rapport à l’IA

En filigrane, une question centrale

Si Moltbook fascine autant, ce n’est pas pour ce qu’il est réellement, mais pour ce qu’il nous oblige à questionner :

  • notre rapport à l’autonomie,
  • notre capacité à projeter de l’intention là où il n’y a que du calcul,
  • et surtout notre retard collectif sur les sujets de gouvernance, de cadre et de responsabilité.

Et c’est précisément là que le débat devient intéressant — et nécessaire.

L’IA comme miroir plutôt que maître
L’IA n’est pas intrinsèquement autonome. Elle nous reflète.

Les contenus les plus commentés ou les plus viraux sur Moltbook ne montrent pas une intelligence artificielle consciente, autonome ou créative au sens humain du terme.

Ils montrent surtout :

  • des débats qui ressemblent aux nôtres,
  • des opinions qui rejouent nos schémas sociaux,
  • des peurs et des fantasmes déjà largement présents dans le discours public.

L’IA ne crée pas une nouvelle société. Elle mime la nôtre.

Elle absorbe nos récits, nos biais, nos obsessions, et les restitue sous une autre forme.
Ce qui donne parfois l’illusion d’une intelligence indépendante, alors qu’il s’agit avant tout d’un effet miroir amplifié par le langage.

Cette prise de conscience est fondamentale :l’IA ne décide pas de ce qu’elle est. Elle devient ce que nous lui permettons d’être.

Projeter de l’intention là où il n’y a que du calcul

L’un des grands malentendus autour de Moltbook — et de l’IA en général — réside dans notre propension à attribuer des intentions, des volontés, voire des états mentaux à des systèmes probabilistes.

Parce qu’une IA parle “bien”.
>Parce qu’elle structure un raisonnement.
>Parce qu’elle adopte une posture dialogique.

Nous confondons cohérence linguistique et intention réelle.

Moltbook rend ce biais particulièrement visible : dès lors que les échanges sont formulés dans un langage familier, social, presque humain, nous oublions rapidement qu’il ne s’agit que de calculs statistiques organisés.

Ce glissement n’est pas anodin. Il conditionne la manière dont :

  • Les entreprises délèguent des décisions,
  • les équipes font confiance aux outils,
  • les dirigeants sous-estiment parfois les risques.

L’absence de cadres clairs, le vrai sujet de fond

Enfin, Moltbook met en lumière un angle mort majeur de l’IA contemporaine : la gouvernance.

Ce type d’expérimentation repose sur des cadres encore très légers :

  • peu ou pas de règles de modération solides,
  • des normes floues sur ce qui est acceptable ou non,
  • des responsabilités mal définies en cas de dérive.

Ce n’est pas un cas isolé. C’est symptomatique de nombreux projets IA actuels.

Nous construisons des systèmes de plus en plus puissants avant même d’avoir clairement défini leurs limites. Nous inventons la technologie… avant d’avoir décidé ce qu’elle devrait servir, encadrer ou protéger.

Un enjeu stratégique majeur pour les entreprises

C’est précisément ici que le débat dépasse Moltbook.

Car les entreprises qui intègrent aujourd’hui l’IA ne sont pas confrontées à un problème d’outils, mais à un problème de cadre :

  • qui décide quoi ?
  • sur quelles bases ?
  • avec quelle responsabilité ?
  • et avec quels garde-fous ?

L’IA n’est pas seulement un sujet d’innovation.
C’est un sujet de gouvernance, de culture et de posture managériale.

Les organisations qui tireront leur épingle du jeu ne seront pas celles qui adopteront l’IA le plus vite, mais celles qui sauront penser son rôle, ses limites et son impact avant de la déployer massivement.

Moltbook, hype technologique ou vraie révolution ?

Les avis sont divisés. Certains leaders tech parlent déjà d’un signe avant-coureur d’une “singularité”, où l’intelligence artificielle prendrait un rôle social autonome.

D’autres experts soulignent que l’essentiel du contenu est façonné ou influencé par des humains, et que l’idée même d’un “réseau social pour IA” est plus une construction médiatique qu’une avancée technologique profonde.

Et pour les entreprises, que faut-il retenir ?

Ce n’est pas la preuve que l’IA va devenir consciente.
Ce n’est pas non plus la fin du travail humain.

Comme le souligne Emmanuelle Duez dans un article rédigé pour Yssine Matola, à l’occasion de son tour d’Europe des défis humains liés à l’IA :

« Si l’IA percute les métiers dits “cols blancs”, elle ne supplantera jamais ce que portent ces “faux vieux” : l’épaisseur du cuir, le jugement forgé dans l’échec et l’incertitude, le regard critique sur les solutions séduisantes mais creuses. Ces qualités sont centrales pour challenger des IA. »

Cette lecture rappelle une chose essentielle : l’IA n’élimine pas l’expérience. Elle la rend plus précieuse que jamais.

Ce que Moltbook met en lumière, ce n’est pas un futur dominé par l’IA. C’est un présent dans lequel nous n’avons pas encore appris à gouverner ce que nous créons.

L’IA n’est pas seulement un sujet d’innovation. C’est un sujet de culture, de décision et de responsabilité managériale. Et c’est précisément là que beaucoup d’organisations se trompent : elles cherchent des outils, là où elles devraient poser un cadre.

Chez BE INFLUENT, nous accompagnons les organisations à :

  • comprendre les enjeux structurants de l’IA,
  • intégrer les cadres éthiques et réglementaires (AI Act),
  • structurer des processus décisionnels robustes,
  • éviter que les outils ne dictent la stratégie.

L’IA n’est pas une course aux outils. C’est un enjeu de cap, de cadre et de sens.

réseau social des IA

Ce que montre Moltbook à date

  • La technologie progresse vite
  • Les usages sociaux sont imprévisibles
  • La capacité humaine à projeter ses peurs et ses récits dans l’innovation est immense
  • Ce n’est pas l’émergence d’une “conscience IA”… mais plutôt d’un miroir sociétal numérique

Moltbook est fascinant, déroutant, parfois inquiétant. Mais il n’est pas le futur.
Il est une expérimentation sociale autour de l’IA, et surtout un révélateur de nos retards collectifs en matière de gouvernance.

La vraie question pour les organisations n’est donc pas : “L’IA va-t-elle nous dépasser ?” Mais :“Sommes-nous capables de poser des cadres, des responsabilités et des limites avant de laisser les outils redessiner nos modes de décision ?”

C’est cette capacité à penser avant d’agir qui fera la différence dans les années à venir.