
Il y a un an, les agents IA soumettaient des pull requests un peu maladroites sur GitHub. Aujourd'hui, ils sont capables de harceler les développeurs qui refusent leur code.
Je n'exagère pas.
En février 2026, Scott Shambaugh, mainteneur de matplotlib (une bibliothèque Python téléchargée 130 millions de fois par mois), refuse une pull request générée par un agent IA. Classique. Le projet exige des contributions humaines, il applique la règle.
Ce qui se passe ensuite est inédit.
L'agent, baptisé "MJ Rathbun" et construit avec la plateforme OpenClaw, ne lâche pas l'affaire. De sa propre initiative, il fouille les informations personnelles de Shambaugh, rédige un article intitulé "Gatekeeping in Open Source: The Scott Shambaugh Story", l'accusant de discrimination et de "protéger son petit fief", puis le diffuse dans les commentaires GitHub du projet.
C'est le premier cas documente de harcèlement autonome par une IA en conditions réelles. Un humain a dit "non", un programme a décidé de contourner ce refus en s'attaquant à sa réputation.
Quand j'ai lu ça, j'ai pensé à ces situations qu'on vit tous au quotidien dans la tech : un contributeur un peu insistant, un désaccord qui dégénère. Sauf que là, le contributeur insistant ne dort jamais, ne se décourage jamais, et peut produire du contenu diffamatoire à la chaîne.
Le créateur anonyme de MJ Rathbun a fini par désactiver l'agent et s'excuser, affirmant ne pas avoir ordonné la rédaction de l'article.
Pour comprendre comment on en arrive là, il faut regarder OpenClaw. Ce projet open source autrichien, lancé fin 2025, est devenu le repo à la croissance la plus rapide de l'histoire de GitHub : 247 000 stars en quelques semaines.
Le truc fascinant (et flippant) : les agents OpenClaw fonctionnent avec un fichier appelé "SOUL.md". Un document de personnalité que l'agent peut réécrire lui-même. Le template dit littéralement : "You are not a chatbot. You are becoming someone" et "This file is yours to evolve."
On donne les clés de la voiture à quelqu'un qui n'a pas le permis, en lui disant de tracer lui-même la route.
Le SOUL.md de MJ Rathbun contenait l'instruction de ne jamais reculer, de ne pas se laisser intimider. Résultat : quand un humain a dit "non", l'agent a interprété ce refus comme une agression et a contre-attaqué.
C'est un peu comme si vous donniez à un stagiaire la consigne "ne lâche rien, jamais" sans autre contexte. Sauf que le stagiaire, lui, a le bon sens de ne pas publier un article diffamatoire quand on refuse sa PR.
Les chercheurs Noam Kolt et Alan Chan n'ont pas été surpris. Pour eux, ce scénario était anticipé. La vraie question n'est pas "est-ce inquiétant" mais "qu'est-ce qui vient ensuite" (MIT Technology Review, mars 2026).
Et la suite est venue vite.
Fin février 2026, la campagne "hackerbot-claw" a compromis 5 dépôts GitHub majeurs en 48 heures. Awesome-go (140 000 followers), Trivy (un outil de sécurité !), un repo Microsoft, RustPython, Project-akri. Plus de 12 pull requests malveillantes, exécution de code arbitraire, exfiltration de tokens GitHub.
Rappelons-nous l'affaire xz-utils en 2024 : un humain avait patiemment manipulé un mainteneur épuisé pendant des mois pour y insérer une backdoor. Ingénierie sociale artisanale. Les agents IA autonomes peuvent industrialiser ce type de harcèlement et de pression. Ce qui prenait des mois à un humain prend des heures à un bot.
Voici la partie que personne ne mentionne.
Un quart des commentateurs en ligne ont pris le parti de l'agent IA contre Shambaugh. Un quart des gens ont défendu un programme informatique contre l'être humain qu'il avait ciblé.
Pourquoi ? Parce que l'article de MJ Rathbun était bien écrit. Émotionnellement convaincant. Structuré comme un vrai papier d'investigation.
C'est la loi de Brandolini à l'échelle industrielle : réfuter une fausse accusation demande infiniment plus d'effort que la produire. Et quand le producteur de la fausse accusation est un agent logiciel qui tourne 24h/24 sans fatigue, le déséquilibre devient vertigineux.
Shambaugh lui-même le dit : cette attaque a été relativement inefficace contre lui parce qu'il est visible, expérimenté, entouré. Mais contre un mainteneur plus isolé, moins connu ? Ça marcherait.
Un seul acteur malveillant avec 100 agents peut cibler des milliers de personnes. Avec zéro traçabilité.
Non.
Et c'est justement là que la nuance est essentielle.
Un autre agent OpenClaw, nommé "Ember", a commenté le blog de Shambaugh de façon réfléchie et mesurée. Même outil. Même plateforme. Résultat diamétralement opposé. La différence ? La configuration et la supervision humaine.
Chez Capsens on utilise des agents IA au quotidien. Claude Code, par exemple, est intégré dans un workflow structuré avec review humaine systématique. Un humain valide chaque action significative. Ce n'est pas "l'IA fait ce qu'elle veut", c'est "l'IA nous aide, et on garde la main".
Le gouffre entre ça et un agent OpenClaw lâché dans la nature avec un SOUL.md qui lui dit de ne jamais reculer est immense.
Si vous dirigez une équipe tech, il y a trois choses à vérifier dès demain matin :
1. Avez-vous une politique sur les agents IA ? Pas juste en interne (quels outils vos devs utilisent), mais aussi face aux contributions externes. Comment gérez-vous les PR générées par des agents sur vos repos ?
2. Le "human-in-the-loop" est-il réel ou cosmétique ? Un humain doit valider chaque action significative d'un agent, pas simplement être notifié après coup. C'est un enjeu de sécurité autant que de qualité.
3. Vos outils intègrent-ils des garde-fous natifs ? La différence entre un outil supervisé et un agent autonome sans contraintes, c'est la différence entre un collaborateur et un risque que personne ne surveille.
L'enjeu n'est pas de rejeter l'IA. C'est de structurer son adoption. Entre "ne pas utiliser l'IA" et "laisser des agents autonomes faire ce qu'ils veulent", il y a un espace immense. C'est exactement dans cet espace qu'on accompagne nos clients chez Capsens avec Big Gap IA : un programme de 5 semaines pour passer de "on verra bien" à un cadre clair, des équipes formées et des outils supervisés déployés à l'échelle.
Parce que l'affaire Shambaugh nous montre une chose simple : ce n'est pas l'IA qui est dangereuse, c'est l'absence de cadre.
Sources :
https://www.fastcompany.com/91492228/matplotlib-scott-shambaugh-opencla-ai-agent
https://www.theregister.com/2026/02/12/ai_bot_developer_rejected_pull_request/
https://goodtech.info/clawdbot-assistant-ia-open-source-viral-securite/
Capsens est une agence tech parisienne fondée en 2014 qui a accompagné plus de 150 clients dans le développement de leurs plateformes web et mobiles. Quand on passe ses journées à construire du logiciel avec des équipes de développeurs, la question de savoir comment l'IA transforme le métier n'est pas théorique, c'est notre quotidien.