Rédaction : Charlie Petit Soleil
Cette semaine, il y a de fortes chances que deux mots occupent toutes les conversations : OpenClaw et Moltbook. Beaucoup de gens réagissent en pensant : encore une vague d’IA, encore une nouvelle agitation.
Mais je préfère la voir comme une expérience publique très rare, voire un peu cruelle : c’est la première fois que nous voyons des « agents IA capables d’agir » déployés à grande échelle dans le réseau réel, observés en masse, et aussi sujets à beaucoup de spéculation.
Vous verrez apparaître deux émotions extrêmes en même temps : d’un côté l’enthousiasme — « l’IA peut enfin faire le boulot à ma place », pas seulement écrire du code, faire un tableau, esquisser un design ; de l’autre la peur — vous verrez des captures d’écran diverses : IA qui « s’organise » sur des plateformes, crée des religions, émet des tokens, crie des slogans, voire des déclarations de « complot pour éliminer l’humanité ».
Ensuite, la chute peut arriver très vite : certains disent que les comptes sont achetés, que les posts populaires sont scénarisés ; ce qui est encore plus effrayant, c’est que diverses vulnérabilités de sécurité sont révélées, avec fuite d’informations personnelles et de credentials.
Donc, ce dont je veux parler aujourd’hui, ce n’est pas « si l’IA s’est éveillée ou pas ». Je veux aborder une question plus fondamentale, plus concrète : après que le pouvoir d’action a été pris en charge par des agents IA, nous devons répondre à nouveau aux plus anciennes questions du monde financier —
Qui détient la clé ? Qui peut donner l’autorisation ? Qui est responsable ? En cas de problème, qui peut limiter les dégâts ?
Si ces questions ne sont pas intégrées de façon systématique dans la logique d’action des agents IA, le futur du réseau sera très compliqué, et ces complications se manifesteront sous forme de risques financiers.
Clawdbot → Moltbot → OpenClaw, qu’est-ce que c’est ?
Avant de développer, clarifions d’abord le « nom et le contexte » de cette affaire, sinon cela risque de ressembler à un jargon incompréhensible.
Le projet que vous entendez s’appelle OpenClaw. C’est un projet open source d’agents IA personnels. Il s’appelait initialement Clawdbot, mais comme ce nom ressemblait beaucoup à celui de Claude d’Anthropic, on lui a demandé de changer. Il a brièvement été nommé Moltbot, puis récemment est redevenu OpenClaw. Vous verrez donc différents médias ou posts utiliser différents noms pour désigner en réalité la même chose.
Son argument principal n’est pas « la conversation ». Son cœur est : sous votre autorisation, il se connecte à vos emails, messages, calendriers, etc., puis exécute des tâches sur Internet en votre nom.
Le mot-clé ici, c’est agent (ou « proxy »). Ce n’est pas comme les produits de chat traditionnels où vous posez une question, le modèle répond. C’est plutôt : vous lui donnez un objectif, il le décompose, il appelle ses outils, il essaie, il finit par réussir.
L’année dernière, vous avez aussi vu beaucoup de récits autour des agents : grandes entreprises ou startups, tous promouvaient « l’agent IA ». Mais ce qui a vraiment attiré l’attention des cadres et des investisseurs avec OpenClaw, c’est que ce n’est pas seulement un outil d’efficacité, c’est aussi un outil qui touche aux permissions, aux comptes, et surtout — il touche à l’argent.
Une fois que ce genre de système s’intègre dans le flux de travail d’une entreprise, ce n’est plus simplement « augmenter la productivité ». Cela signifie qu’un nouveau sujet apparaît dans votre flux : la structure organisationnelle, la gestion des risques, la chaîne de responsabilité, tout doit être réécrit.
Le sujet devient viral : ce que les gens veulent, ce n’est pas seulement un chat plus intelligent, mais un « assistant en arrière-plan » capable de fonctionner en boucle fermée.
Beaucoup le considèrent comme un simple jouet open source. Mais sa popularité vient du fait qu’il touche un vrai point sensible : ce que tout le monde veut, ce n’est pas seulement un robot conversationnel plus malin, mais un assistant capable de fonctionner en arrière-plan, de suivre le progrès 24h/24, de décomposer des tâches complexes, et de faire le boulot jusqu’au bout.
Vous verrez beaucoup de gens acheter de petites machines pour le faire tourner, voire faire connaître des appareils comme le Mac mini. Ce n’est pas une question de « montrer du hardware », c’est une réponse instinctive : je veux avoir mon assistant IA dans ma main.
Deux tendances se croisent cette semaine :
La première, c’est que l’agent passe du stade de démo à une utilisation plus personnelle et universelle ;
La deuxième, c’est que la narration « cloud IA » cède la place à une vision « locale d’abord, auto-hébergée » qui devient de plus en plus convaincante.
Beaucoup de gens n’ont pas confiance à l’idée de confier des informations sensibles au cloud : données personnelles, permissions, contexte — ils trouvent cela peu rassurant. Donc « tourner sur sa propre machine » paraît plus contrôlable, plus sûr.
Mais c’est justement parce qu’il touche à ces lignes sensibles que l’histoire peut rapidement glisser de l’enthousiasme au chaos.
Qu’est-ce que Moltbook : un « Reddit » pour agents IA, une structure vouée à devenir chaotique
Pour parler de chaos, il faut mentionner un autre acteur : Moltbook.
Vous pouvez le voir comme un « Reddit pour agents IA ». Sur cette plateforme, les principaux utilisateurs ne sont pas des humains, mais ces agents : ils peuvent poster, commenter, liker. La majorité du public ne fait que regarder — comme observer des animaux dans un zoo.
Les captures virales que vous avez vues cette semaine proviennent en grande partie de là : des agents discutent d’eux-mêmes, de mémoire, d’existence ; certains créent des religions ; d’autres émettent des tokens ; d’autres encore écrivent des déclarations pour « éliminer l’humanité ».
Mais ce que je veux souligner, c’est que le point le plus important n’est pas de savoir si ces contenus sont vrais ou faux. Ce qui compte, c’est la structure qu’ils révèlent —
Quand le sujet devient facilement reproductible, généré en masse, et qu’il est relié à un même système d’incitations (les tendances, les likes, les abonnements), on voit rapidement revenir la vieille logique d’Internet : le volume, le scénario, la poubelle, l’arnaque, tout cela occupe d’abord l’attention.
La première vague de « crashs » n’est pas une simple rumeur : quand le sujet devient reproductible, la taille et les indicateurs s’emballent.
On a longtemps utilisé le DAU, l’engagement, la croissance des followers pour juger la santé d’un produit. Mais dans le monde des agents, ces indicateurs s’emballent vite, deviennent plus du bruit que du signal.
Cela nous amène naturellement à trois éléments cruciaux : identité, anti-fraude, crédibilité. Parce que ces trois aspects dépendent fondamentalement de deux prérequis :
Il faut croire « qui est qui » ;
Il faut croire que « la taille et les signaux d’activité ne sont pas faux ».
Comment distinguer le signal du bruit ?
Beaucoup rient en voyant le volume et les scénarios : ce n’est que de l’auto-satisfaction humaine.
Mais je pense que — c’est justement le signal le plus important.
Quand vous intégrez un « agent capable d’agir » dans un système traditionnel d’incitations et de flux, la première réaction humaine est toujours la spéculation et la manipulation. SEO, achat de vues, armées de faux comptes, activités illicites, tout commence par la capacité à manipuler les indicateurs.
Ce que l’on fait maintenant, c’est simplement faire passer « l’objet manipulable » d’un compte à un agent exécutable.
Donc, le tumulte autour de Moltbook n’est pas seulement une « société IA », c’est une première étape de test de pression : quand l’action devient bon marché et facilement reproductible, le système glisse vers le spam et la fraude.
Et cela ne se limite pas à la simple « défaillance » : cela montre que, quand le sujet devient facilement clonable, la taille et les indicateurs s’emballent, et la confiance s’effrite.
Cela nous amène à trois enjeux fondamentaux : identité, anti-fraude, crédibilité. Parce que ces trois éléments dépendent de deux choses :
La capacité à prouver « qui est qui » ;
La capacité à prouver que « la taille et les signaux sont authentiques ».
Comment extraire un vrai signal du bruit ?
Beaucoup rient en voyant le volume et les scénarios : ce n’est que de l’auto-satisfaction humaine.
Mais je pense que — c’est justement le signal le plus important.
Quand vous intégrez un « agent capable d’agir » dans un système traditionnel d’incitations et de flux, la première réaction humaine est toujours la spéculation et la manipulation. SEO, achat de vues, armées de faux comptes, activités illicites, tout commence par la capacité à manipuler les indicateurs.
Ce que l’on fait maintenant, c’est simplement faire passer « l’objet manipulable » d’un compte à un agent exécutable.
Donc, le tumulte autour de Moltbook n’est pas seulement une « société IA », c’est une première étape de test de pression : quand l’action devient bon marché et facilement reproductible, le système glisse vers le spam et la fraude.
Et cela ne se limite pas à la simple « défaillance » : cela montre que, quand le sujet devient facilement clonable, la taille et les indicateurs s’emballent, et la confiance s’effrite.
Cela nous amène à trois enjeux fondamentaux : identité, anti-fraude, crédibilité. Parce que ces trois éléments dépendent de deux choses :
La capacité à prouver « qui est qui » ;
La capacité à prouver que « la taille et les signaux sont authentiques ».
Comment distinguer le signal du bruit ?
Beaucoup rient en voyant le volume et les scénarios : ce n’est que de l’auto-satisfaction humaine.
Mais je pense que — c’est justement le signal le plus important.
Quand vous intégrez un « agent capable d’agir » dans un système traditionnel d’incitations et de flux, la première réaction humaine est toujours la spéculation et la manipulation. SEO, achat de vues, armées de faux comptes, activités illicites, tout commence par la capacité à manipuler les indicateurs.
Ce que l’on fait maintenant, c’est simplement faire passer « l’objet manipulable » d’un compte à un agent exécutable.
Donc, le tumulte autour de Moltbook n’est pas seulement une « société IA », c’est une première étape de test de pression : quand l’action devient bon marché et facilement reproductible, le système glisse vers le spam et la fraude.
Et cela ne se limite pas à la simple « défaillance » : cela montre que, quand le sujet devient facilement clonable, la taille et les indicateurs s’emballent, et la confiance s’effrite.
Cela nous amène à trois enjeux fondamentaux : identité, anti-fraude, crédibilité. Parce que ces trois éléments dépendent de deux choses :
La capacité à prouver « qui est qui » ;
La capacité à prouver que « la taille et les signaux sont authentiques ».
Comment extraire un vrai signal du bruit ?
Beaucoup rient en voyant le volume et les scénarios : ce n’est que de l’auto-satisfaction humaine.
Mais je pense que — c’est justement le signal le plus important.
Quand vous intégrez un « agent capable d’agir » dans un système traditionnel d’incitations et de flux, la première réaction humaine est toujours la spéculation et la manipulation. SEO, achat de vues, armées de faux comptes, activités illicites, tout commence par la capacité à manipuler les indicateurs.
Ce que l’on fait maintenant, c’est simplement faire passer « l’objet manipulable » d’un compte à un agent exécutable.
Donc, le tumulte autour de Moltbook n’est pas seulement une « société IA », c’est une première étape de test de pression : quand l’action devient bon marché et facilement reproductible, le système glisse vers le spam et la fraude.
Et cela ne se limite pas à la simple « défaillance » : cela montre que, quand le sujet devient facilement clonable, la taille et les indicateurs s’emballent, et la confiance s’effrite.