Aller au contenu principal
VM Consulting
AccueilAccompagnementFormation IABlogÀ proposContact
Rendez-vous
VM Consulting
© 2026 VM Consultingvictormagaud@vmconsulting.ai
AccueilAccompagnementFormationBlogÀ proposContactCGUConfidentialité
Accueil›Blog›Mars 2026 : Claude Code teste son propre code, Anthropic fuite le sien — le récap complet
Stratégie

Mars 2026 : Claude Code teste son propre code, Anthropic fuite le sien — le récap complet

En une semaine, Anthropic a lancé trois fonctionnalités majeures pour Claude Code (Auto Mode, Code Review multi-agents, Dispatch), vu fuiter l'intégralité de son code source sur npm, révélé malgré lui un modèle IA jugé trop dangereux pour le public, et provoqué la colère de ses utilisateurs payants à cause de quotas qui s'évaporent. Décryptage complet, sans sensationnalisme, avec ce que ça change concrètement pour les PME.

VM Consulting
Victor Magaud
31 mars 2026 · 24 min de lecture

Temps de lecture de cet article : 30 minutes

La dernière semaine de mars 2026 restera dans les annales de l'intelligence artificielle. En l'espace de huit jours, Anthropic a lancé trois fonctionnalités majeures pour Claude Code, vu fuiter l'intégralité du code source de son produit phare sur le registre npm, confirmé l'existence d'un modèle IA si puissant que ses propres équipes hésitent à le rendre public, et provoqué une crise de confiance chez ses utilisateurs payants en raison de quotas qui s'évaporent sans explication.

Si vous suivez l'actualité IA de loin, vous avez peut-être vu passer un titre ou deux. Mais l'ampleur de ce qui s'est passé,et surtout ce que ça signifie concrètement pour les entreprises qui utilisent ou envisagent d'utiliser Claude,mérite un décryptage complet.

Cet article fait le point. Pas de sensationnalisme, pas de résumé tronqué. À la fin, vous comprendrez exactement ce qui s'est passé, ce que ça change, et ce que vous devez en retenir pour votre activité.


Ce que vous allez apprendre

  • Auto Mode et Auto-Fix : comment Claude Code peut désormais écrire du code, le tester, détecter les erreurs et les corriger automatiquement,sans intervention humaine
  • Code Review : le système multi-agents qui analyse vos pull requests en parallèle et a triplé le taux de détection de bugs chez Anthropic
  • Dispatch et Computer Use : piloter Claude depuis votre téléphone pendant qu'il travaille sur votre ordinateur, et la bonne nouvelle pour les utilisateurs Windows
  • La fuite du code source : 512 000 lignes de code exposées publiquement, ce qu'elles révèlent sur les fonctionnalités secrètes de Claude, et pourquoi Anthropic minimise l'incident
  • Le modèle Mythos : le modèle IA qu'Anthropic hésite à rendre public à cause de ses capacités en cybersécurité offensive
  • La crise des quotas : pourquoi les utilisateurs payants voient leurs limites d'utilisation fondre en quelques minutes, et ce qu'Anthropic fait (ou ne fait pas) pour y remédier
  • Ce que ça change pour votre entreprise : l'analyse pragmatique de ces événements et les décisions à prendre

Claude Code teste et corrige son propre code : bienvenue dans l'ère de l'Auto Mode

Le 24 mars 2026, Anthropic a lancé l'Auto Mode pour Claude Code. Sur le papier, c'est une fonctionnalité technique destinée aux développeurs. En pratique, c'est un changement de paradigme dans la façon dont le code est produit.

Le problème que ça résout

Jusqu'à présent, Claude Code fonctionnait avec un système de permissions. Chaque action,modifier un fichier, exécuter une commande, lancer un test,nécessitait une approbation manuelle de l'utilisateur. C'était sécurisant, mais frustrant. Les données d'Anthropic montrent que les utilisateurs approuvaient 93 % des demandes de permission. Autrement dit, 93 % du temps, l'humain cliquait sur "Oui" sans même lire le détail. C'est du temps perdu et une fausse sensation de contrôle.

Comment fonctionne Auto Mode

Auto Mode utilise un classificateur de sécurité séparé,un modèle Sonnet 4.6 dédié,qui évalue chaque action avant qu'elle ne s'exécute. Si l'action est jugée à faible risque (modifier un fichier dans le projet, lancer des tests, installer une dépendance), elle s'exécute automatiquement. Si l'action est jugée risquée (modifier un fichier en dehors du projet, force-push sur la branche principale, exécuter du code téléchargé depuis internet), Claude s'arrête et demande confirmation.

Concrètement, vous pouvez maintenant dire à Claude : "Refactorise le module d'authentification, mets à jour les tests, lance-les, et corrige tout ce qui échoue." Claude va :

  1. Analyser le code existant du module
  2. Effectuer le refactoring sur plusieurs fichiers en parallèle
  3. Lancer la suite de tests automatiquement
  4. Lire les erreurs éventuelles
  5. Corriger le code
  6. Relancer les tests
  7. Répéter jusqu'à ce que tout passe au vert

Le tout sans que vous n'ayez à valider chaque étape. Ce cycle écriture → test → correction → re-test, que les développeurs appellent un "test-fix loop", est exactement le type de travail répétitif et chronophage qu'un agent IA excelle à automatiser.

Auto Mode ne supprime pas le contrôle humain. Il déplace le contrôle au bon endroit : sur les décisions qui comptent, pas sur les approbations mécaniques.

Auto-Fix : les Pull Requests qui se réparent toutes seules

Anthropic est allé encore plus loin avec Auto-Fix, une fonctionnalité qui surveille vos pull requests dans le cloud. Quand quelque chose échoue,un test d'intégration continue (CI) qui plante, un commentaire de revue de code qui demande une modification,Claude intervient automatiquement.

Le fonctionnement est le suivant :

  • Échec CI : Claude lit le message d'erreur, analyse le contexte, identifie la cause, pousse un correctif et explique ce qu'il a fait
  • Commentaire de revue clair : Claude effectue la modification demandée, pousse le changement et répond dans le thread de discussion
  • Commentaire ambigu : Claude demande des clarifications avant d'agir

C'est la première fois qu'un outil de développement IA ne se contente pas de produire du code, mais assure aussi sa maintenance en continu après livraison. La pull request devient un objet vivant, capable de s'auto-réparer.


Code Review : quand une armée d'agents IA audite chaque ligne de code

Lancé le 9 mars 2026, Code Review est le système de revue de code automatisée d'Anthropic. Et il ne s'agit pas d'un simple linter amélioré. C'est un système multi-agents qui déploie plusieurs IA spécialisées en parallèle sur chaque pull request.

Le fonctionnement

Quand une pull request est ouverte sur GitHub, le système déclenche automatiquement plusieurs agents simultanés. Chaque agent est spécialisé dans un type de problème : erreurs logiques, conditions aux limites, mauvaise utilisation d'API, failles d'authentification, non-respect des conventions du projet. Une fois l'analyse terminée, une étape de vérification croise les résultats avec le comportement réel du code pour éliminer les faux positifs.

Le résultat n'est pas un rapport générique. Ce sont des commentaires contextuels, directement dans le code GitHub, expliquant le problème détecté et proposant une correction spécifique.

Les résultats internes d'Anthropic

Avant Code Review, 16 % des pull requests recevaient des commentaires de revue substantifs chez Anthropic. Après déploiement : 54 %. C'est une multiplication par 3,4 du taux de détection de problèmes réels. Pour une entreprise dont le produit principal est du code, cette amélioration est considérable.

Disponibilité et coût

Code Review est disponible en beta pour les plans Team et Enterprise. Les revues sont facturées à l'usage (tokens consommés), avec un coût moyen de 15 à 25 dollars par revue, qui varie en fonction de la taille et de la complexité de la pull request. Le temps moyen de traitement est de 20 minutes.

Vous pouvez personnaliser les critères de revue en ajoutant un fichier CLAUDE.md ou REVIEW.md à la racine de votre dépôt, où vous définissez les conventions et les points de vigilance spécifiques à votre projet.

Le code IA qui vérifie le code IA. C'est la réponse pragmatique d'Anthropic au problème le plus urgent de 2026 : le volume de code généré par IA dépasse la capacité humaine de revue.


Computer Use et Dispatch : Claude travaille sur votre Mac pendant que vous êtes ailleurs

Le 23 mars 2026, Anthropic a lancé en research preview deux fonctionnalités complémentaires qui transforment Claude d'un assistant conversationnel en un agent qui contrôle physiquement votre ordinateur.

Computer Use : Claude voit votre écran et clique pour vous

Computer Use permet à Claude de voir votre écran, cliquer sur des boutons, remplir des formulaires, naviguer dans un navigateur web et interagir avec n'importe quelle application,exactement comme le ferait un humain assis devant votre ordinateur.

L'intérêt est immédiat : quand un outil ou un site web n'offre pas d'API ni de connecteur MCP, Claude peut simplement utiliser l'interface comme vous le feriez. Remplir un formulaire administratif, naviguer dans un ERP, extraire des données d'un portail fournisseur,tout ce qui nécessitait jusqu'ici un humain devant un écran peut être délégué.

Dispatch : le pilotage à distance depuis votre téléphone

Dispatch crée un fil de conversation persistant entre votre téléphone et l'application Claude sur votre ordinateur. Vous envoyez une instruction depuis votre smartphone, Claude l'exécute sur votre Mac, et vous retrouvez le travail terminé quand vous ouvrez votre ordinateur.

Le cas d'usage le plus parlant : vous êtes en déplacement, entre deux rendez-vous. Depuis votre téléphone, vous demandez à Claude de préparer le deck pour le comité de direction de demain avec les chiffres du trimestre. Claude ouvre vos fichiers, compile les données, crée la présentation, et vous notifie quand c'est prêt. Vous n'avez même pas besoin d'être devant votre machine.

Et Windows ? C'est désormais disponible.

Bonne nouvelle pour la majorité des PME françaises : Dispatch est désormais disponible sur Windows. Initialement lancé uniquement sur macOS le 23 mars, le support Windows a suivi rapidement, ouvrant ces fonctionnalités à l'ensemble du parc informatique professionnel. Computer Use et Dispatch ne sont donc plus réservés à l'écosystème Apple.

C'est un signal fort de la part d'Anthropic : la stratégie n'est pas de rester dans la niche Mac, mais de couvrir les environnements de travail réels des entreprises. Pour les dirigeants qui hésitaient à tester ces fonctionnalités faute de matériel compatible, le frein vient de sauter.

Dispatch transforme votre ordinateur en employé disponible 24h/24, pilotable depuis votre poche. Mac ou Windows, plus d'excuse pour ne pas tester.


La fuite : 512 000 lignes de code exposées au monde entier

Le 31 mars 2026, l'intégralité du code source de Claude Code s'est retrouvée publiquement accessible sur le registre npm. C'est l'équivalent de laisser les plans de votre produit phare sur le comptoir d'un café bondé.

Ce qui s'est passé

La version 2.1.88 du package @anthropic-ai/claude-code, publiée dans la nuit, contenait un fichier source map de 59,8 mégaoctets. Un source map est un fichier technique utilisé en interne par les développeurs pour déboguer du code compressé. Il n'a rien à faire dans un package public. Mais une erreur dans le processus de packaging l'a inclus.

À 4h23 du matin (heure de l'Est), Chaofan Shou, un stagiaire chez Solayer Labs, a repéré le fichier et alerté la communauté sur X (ex-Twitter). En quelques heures, le code source complet,environ 512 000 lignes de TypeScript,a été mirroré sur GitHub et analysé par des milliers de développeurs à travers le monde.

La réponse d'Anthropic

Anthropic a réagi en qualifiant l'incident d'"erreur humaine dans le packaging de la release" et en insistant sur le fait qu'"aucune donnée client sensible ni aucun identifiant n'ont été exposés". La version problématique a été retirée rapidement, mais le mal était fait : le code avait déjà été copié et redistribué.

Il est important de noter que ce n'est pas la première fois. Un incident similaire s'était déjà produit auparavant via un fichier .map dans le registre npm. C'est la deuxième occurrence du même type d'erreur, ce qui pose des questions légitimes sur les processus de contrôle qualité d'Anthropic pour ses propres releases.

Ce que le code source révèle

L'analyse du code par la communauté a mis en lumière plusieurs fonctionnalités non annoncées et des architectures internes jusqu'ici inconnues :

KAIROS,L'assistant permanent qui ne dort jamais. Référencé plus de 150 fois dans le code source, KAIROS est un mode autonome persistant. Contrairement au Claude Code que vous connaissez (qui attend vos instructions), KAIROS est conçu pour fonctionner en arrière-plan en continu. Il surveille, enregistre et agit proactivement sur ce qu'il observe. C'est, en substance, un agent IA qui travaille même quand vous ne lui parlez pas.

Les noms de code des modèles. La fuite confirme le système de noms internes d'Anthropic basé sur des animaux :

  • Capybara : nom de code pour une variante de Claude 4.6
  • Fennec : nom de code pour Claude Opus 4.6
  • Numbat : un modèle encore en phase de test, non publié

BUDDY,Un Tamagotchi IA dans votre terminal. C'est la découverte la plus surprenante. Enfoui dans le code, un système complet de compagnon virtuel : 18 espèces (canard, dragon, axolotl, capybara, champignon, fantôme...), des niveaux de rareté allant de commun à légendaire (1 % de chance), des cosmétiques (chapeaux, variantes brillantes), et cinq statistiques : DEBUGGING, PATIENCE, CHAOS, WISDOM, SNARK. C'est un easter egg d'ingénieur, un ajout ludique qui montre la culture interne d'Anthropic.

ULTRAPLAN,30 minutes de planification à distance. Un mode de planification automatisé qui permet à Claude de prendre jusqu'à 30 minutes pour élaborer un plan d'action complexe avant de commencer l'exécution.

Architecture mémoire à trois couches. Les développeurs ont découvert un système de mémoire sophistiqué en trois niveaux, qui explique pourquoi Claude Code maintient une cohérence impressionnante sur des sessions de travail longues et complexes.

Le paradoxe : la fuite la plus embarrassante d'Anthropic est aussi la meilleure publicité pour la sophistication de son produit. Le code révèle un outil beaucoup plus avancé que ce que le public connaît.


Le modèle Mythos : l'IA qu'Anthropic hésite à rendre publique

Comme si la fuite du code source ne suffisait pas, une autre brèche a frappé Anthropic la même semaine. Le 26 mars, Fortune a révélé que près de 3 000 documents internes d'Anthropic étaient accessibles dans un data store public non sécurisé.

Ce qui a fuité

Parmi les documents : un brouillon d'article de blog décrivant un nouveau modèle appelé Claude Mythos. Anthropic a confirmé que le modèle existe, qu'il est "actuellement en test auprès de clients en accès anticipé", et qu'il représente un "step change",un changement de palier,dans les performances de l'IA.

Claude Mythos serait significativement plus performant que Claude Opus 4.6 sur trois axes : le code, le raisonnement académique, et,c'est là que ça devient délicat,la cybersécurité.

Le problème de cybersécurité

Selon les documents internes, les capacités de Mythos en matière d'exploitation de vulnérabilités sont jugées trop dangereuses par les propres équipes de sécurité d'Anthropic pour être rendues publiques en l'état. C'est un cas de figure inédit dans l'industrie : une entreprise qui construit un modèle si puissant qu'elle hésite à le commercialiser.

Ce n'est pas de la communication savamment orchestrée. Les documents n'étaient pas censés être publics. Mais ils posent une question fondamentale pour le secteur : que fait-on quand un modèle IA dépasse le seuil de sécurité que ses créateurs jugent acceptable ?

Le CEO Event

Dans le même data store, Fortune a trouvé les détails d'un événement privé : une retraite de deux jours pour des PDG d'entreprises européennes, décrite comme un "rassemblement intime" dans un manoir du XVIIIe siècle reconverti en hôtel-spa dans la campagne anglaise, avec la participation de Dario Amodei, CEO d'Anthropic. Le type de fuite qui, au-delà de la question technique, révèle un défaut systémique dans la gestion des accès chez Anthropic.

La cause racine

Anthropic a attribué l'incident à une "erreur humaine dans la configuration du système de gestion de contenu". Les documents chargés dans leur data store étaient publics par défaut, sauf si quelqu'un pensait à les marquer comme privés. Personne n'a pensé à le faire pour ces documents.

C'est un schéma classique en cybersécurité : les systèmes "opt-in privacy" (privé uniquement si vous y pensez) sont intrinsèquement dangereux. La bonne pratique est l'inverse : tout est privé par défaut, et vous rendez public uniquement ce qui doit l'être.

Deux fuites majeures en une semaine. L'une par erreur de packaging npm, l'autre par défaut de configuration d'un CMS. Dans les deux cas, la cause est la même : l'erreur humaine. Ironie du sort pour une entreprise dont le produit est censé réduire les erreurs humaines.


La crise des quotas : quand les utilisateurs payants ne peuvent plus travailler

Pendant qu'Anthropic gérait ses fuites de données, un autre problème prenait de l'ampleur : les utilisateurs de Claude Code, y compris ceux des plans payants les plus chers, voyaient leurs quotas d'utilisation s'évaporer de manière inexplicable.

L'ampleur du problème

À partir du 23 mars 2026, les utilisateurs de tous les niveaux d'abonnement ont commencé à signaler que leurs budgets de tokens,la mesure de ce que Claude peut traiter en une session,fondaient à des vitesses anormales. Des utilisateurs payant 100 ou 200 dollars par mois pour les plans Max voyaient des sessions de cinq heures se terminer en 90 minutes, pour des charges de travail identiques à celles des semaines précédentes.

Un thread Reddit intitulé "20x max usage gone in 19 minutes" a accumulé plus de 330 commentaires en 24 heures. The Register a titré : "Anthropic admits Claude Code quotas running out too fast."

Les causes identifiées

Le problème provient de trois facteurs cumulés :

1. L'ajustement aux heures de pointe. Le 23 mars, Anthropic a commencé à modifier le fonctionnement des limites de session pendant les périodes de forte demande. Thariq Shihipar, d'Anthropic, a confirmé : "Pour gérer la demande croissante sur Claude, nous ajustons les limites de session sur les plans Free/Pro/Max pendant les heures de pointe." Traduction : vous payez le même prix, mais vous en avez moins pendant les heures ouvrables.

2. Des bugs de compteur de tokens. Documentés à travers plusieurs issues GitHub, des problèmes de désynchronisation des compteurs ont été identifiés. Certains utilisateurs se voyaient facturer plus de tokens que ce que leurs requêtes consommaient réellement.

3. La fin de la promotion de mars. Anthropic avait mis en place une promotion doublant les limites d'utilisation pendant les heures creuses. La fin de cette promotion a coïncidé avec les deux autres problèmes, créant un effet d'entonnoir brutal.

La réponse d'Anthropic

"Nous investiguons activement… c'est la priorité numéro un de l'équipe." Aucun calendrier précis n'a été communiqué. En attendant, Claude Code est marqué par une instabilité continue pendant les heures de pointe.

Le contexte financier rend la situation encore plus délicate : Anthropic a déclaré un revenu annualisé de 19 milliards de dollars en mars 2026, dont 2,5 milliards pour Claude Code seul. Quand votre produit le plus rentable rend ses clients furieux, le problème n'est pas technique,il est stratégique.

Payer 200 $/mois pour un outil qui s'arrête de fonctionner en milieu de matinée, ce n'est pas un bug mineur. C'est une rupture de confiance.


Le tableau complet : tout ce qui s'est passé en mars 2026

Date Événement Nature Impact
9 mars Lancement de Code Review Fonctionnalité Revue de code multi-agents, 3,4x plus de bugs détectés
23 mars Lancement Computer Use + Dispatch Fonctionnalité Claude contrôle l'ordinateur, pilotable depuis mobile
24 mars Lancement Auto Mode + Auto-Fix Fonctionnalité Tests et corrections automatiques sans intervention
23-31 mars Crise des quotas Claude Code Incident Utilisateurs payants ne pouvant plus utiliser le service
26 mars Fuite du data store (Fortune) Sécurité 3 000 documents internes exposés, modèle Mythos révélé
27 mars Confirmation de Claude Mythos Sécurité / Produit Modèle jugé trop dangereux en cybersécurité offensive
31 mars Fuite du code source npm Sécurité 512 000 lignes exposées, fonctionnalités secrètes révélées

Ce que ça signifie concrètement pour votre entreprise

Face à cette séquence d'événements, la tentation est de réagir de deux façons opposées : soit s'enthousiasmer pour les nouvelles fonctionnalités en ignorant les incidents, soit paniquer sur la sécurité en oubliant la valeur réelle de l'outil. Les deux réactions sont mauvaises. Voici l'analyse nuancée.

Les bonnes nouvelles sont très bonnes

Auto Mode, Auto-Fix et Code Review sont des avancées majeures. Pour une PME qui utilise Claude Code (ou envisage de l'utiliser pour développer des outils internes), ces fonctionnalités réduisent considérablement le temps et le coût de développement. Un développeur assisté par Claude Code avec Auto Mode peut produire en une journée ce qui prenait une semaine. La capacité de Claude à tester, détecter les erreurs et les corriger en boucle fermée,sans intervention humaine,est exactement le type d'automatisation qui crée un avantage compétitif mesurable.

Computer Use et Dispatch ouvrent des cas d'usage impossibles jusqu'ici. Pouvoir déléguer à Claude l'interaction avec n'importe quel site web ou application, même sans API, élimine la dernière barrière à l'automatisation. Et le pilotage mobile transforme les temps morts (trajet, attente entre deux RDV) en temps productif.

Les mauvaises nouvelles doivent être prises au sérieux

Deux fuites majeures en une semaine révèlent un problème structurel. Ce ne sont pas des attaques sophistiquées. Ce sont des erreurs de configuration et de packaging,le type d'erreur le plus basique en cybersécurité. Quand le même type d'incident (source map dans npm) se produit deux fois, ce n'est plus un accident isolé : c'est un indicateur de processus internes défaillants.

La crise des quotas est un signal d'alarme sur la fiabilité. Un outil professionnel qui cesse de fonctionner pendant les heures de travail n'est pas un outil professionnel. Si vous dépendez de Claude Code pour des tâches critiques, vous devez avoir un plan B pendant qu'Anthropic résout ses problèmes de capacité.

Mythos pose une question que personne ne veut poser. Si Anthropic juge son propre modèle trop dangereux pour le public, que se passe-t-il quand un concurrent moins scrupuleux développe un modèle équivalent sans les mêmes réserves ? La course à la puissance IA sans freins réglementaires est un risque systémique que les dirigeants d'entreprise doivent intégrer dans leur réflexion.

Les décisions à prendre maintenant

1. Utilisez Claude Code, mais ne mettez pas tous vos œufs dans le même panier. Les fonctionnalités sont réellement transformatrices. Mais diversifiez vos outils critiques et gardez la capacité de basculer sur une alternative si les problèmes de quotas persistent.

2. Ne connectez à Claude que les données dont vous comprenez le flux. Les fuites d'Anthropic ne concernaient pas les données clients. Mais elles montrent qu'aucun acteur, même le plus sophistiqué, n'est à l'abri d'une erreur de configuration. Utilisez le principe du moindre privilège : ne donnez à Claude accès qu'à ce qui est strictement nécessaire.

3. Sous Windows ? Vous n'avez plus d'excuse. Dispatch est désormais disponible sur Windows. Identifiez dès maintenant les tâches que vous pouvez déléguer à Claude via Computer Use et Dispatch, et testez sur un cas concret cette semaine.

4. Surveillez les développements de Mythos. Un modèle de cette puissance, même s'il n'est pas encore public, façonnera les attentes du marché et les capacités disponibles dans les 6 à 12 prochains mois.

→ Vous voulez un audit de votre utilisation actuelle de l'IA et une stratégie claire pour tirer parti de ces évolutions tout en maîtrisant les risques ? VM Consulting accompagne les PME dans le déploiement d'agents IA depuis 2025. Parlons-en.

Ce que les fuites révèlent sur l'avenir de Claude

Au-delà de l'embarras, les fuites de mars 2026 offrent un aperçu unique de la direction que prend Anthropic. Et ce qu'on y voit est fascinant.

L'agent permanent est la prochaine étape

KAIROS n'est pas un gadget. C'est la vision d'un Claude qui ne s'arrête jamais : un assistant qui surveille votre environnement en continu, détecte les situations qui nécessitent une action et intervient proactivement. Aujourd'hui, vous demandez à Claude de faire quelque chose. Demain, Claude vous dira "j'ai remarqué que le rapport mensuel est en retard, je l'ai préparé, voulez-vous le valider ?"

La planification longue arrive

ULTRAPLAN,un mode de planification de 30 minutes,montre qu'Anthropic travaille sur la capacité de Claude à gérer des tâches complexes nécessitant une phase de réflexion prolongée avant l'exécution. Aujourd'hui, Claude réfléchit en secondes. Demain, il pourra prendre une demi-heure pour élaborer un plan d'action détaillé avant de se mettre au travail.

Le travail collaboratif multi-agents se perfectionne

Le "coordinator mode" et les "agent swarms" découverts dans le code confirment qu'Anthropic pousse l'architecture multi-agents encore plus loin. L'idée : un agent chef d'orchestre qui délègue des sous-tâches à une flotte d'agents spécialisés travaillant en parallèle. C'est l'usine logicielle automatisée.

La culture Anthropic est plus humaine qu'on ne le pense

BUDDY,le Tamagotchi de développeur avec ses canards, ses dragons et ses niveaux de rareté,n'est pas une fonctionnalité stratégique. C'est un signe que les ingénieurs d'Anthropic sont des humains qui aiment s'amuser. Et c'est rassurant : une entreprise qui construit l'IA la plus puissante du monde tout en cachant un easter egg ludique dans son code est une entreprise qui n'a pas perdu son humanité.


Questions fréquentes

La fuite du code source de Claude Code est-elle dangereuse pour les utilisateurs ?

Anthropic affirme qu'aucune donnée client, aucun identifiant et aucun token d'authentification n'ont été exposés. Ce qui a fuité, c'est le code de l'application elle-même, pas vos données. Cependant, l'exposition du code source permet théoriquement à des acteurs malveillants de mieux comprendre les mécanismes internes de Claude Code et potentiellement d'identifier des vecteurs d'attaque. Le risque est indirect mais réel.

Est-ce que Claude Code en Auto Mode peut faire n'importe quoi sans mon accord ?

Non. Auto Mode utilise un classificateur de sécurité dédié qui bloque automatiquement les actions à risque élevé : modification de fichiers hors du projet, déploiement en production, force-push sur des branches protégées, exécution de code téléchargé. Les actions à faible risque (édition de fichiers dans le projet, tests, installations de dépendances) sont les seules à s'exécuter sans confirmation.

Dispatch fonctionne-t-il sur Windows ?

Oui. Initialement lancé sur macOS uniquement le 23 mars, Dispatch est désormais disponible sur Windows. Les deux plateformes sont couvertes, ce qui ouvre ces fonctionnalités à la quasi-totalité du parc informatique professionnel.

Le problème des quotas est-il résolu ?

Au 31 mars 2026, non. Anthropic a reconnu le problème et déclaré que c'est leur "priorité numéro un", mais n'a fourni aucun calendrier de résolution. Les utilisateurs continuent à subir des limitations imprévisibles pendant les heures de pointe. Si votre travail dépend de Claude Code, prévoyez une marge et évitez les tâches critiques aux heures de pointe (9h-18h ET).

Qu'est-ce que Claude Mythos et quand sera-t-il disponible ?

Mythos est un modèle IA qu'Anthropic a confirmé comme étant le plus performant jamais construit. Il est en test auprès de clients en accès anticipé. Sa date de sortie publique est inconnue, et elle dépendra de la résolution des préoccupations de sécurité liées à ses capacités en cybersécurité offensive. Il est possible que certaines capacités de Mythos soient bridées ou retirées avant une commercialisation grand public.

Dois-je m'inquiéter pour la sécurité de mes données avec Claude ?

Les fuites de mars ne concernaient pas les données clients mais les données internes d'Anthropic. Cela dit, deux incidents du même type en une semaine justifient une vigilance accrue. Continuez à appliquer les bonnes pratiques : ne connectez à Claude que les données nécessaires, utilisez les plans Team ou Enterprise pour les contrôles d'accès avancés, et vérifiez la politique de données de chaque outil connecté via MCP.


Vous voulez tirer parti de ces avancées tout en maîtrisant les risques ? VM Consulting audite votre utilisation de l'IA, déploie vos agents Claude et configure vos environnements pour la sécurité et la performance. Prendre rendez-vous →


Sources principales citées dans cet article :

  • VentureBeat,Claude Code's source code appears to have leaked: here's what we know
  • Rolling Out,How devastating Anthropic's leak exposed 512,000 lines of Claude Code
  • MLQ.ai,Anthropic's Claude Code Exposes Source Code Through Packaging Error for Second Time
  • Cybernews,Full source code for Anthropic's Claude Code leaks
  • Fortune,Exclusive: Anthropic left details of an unreleased model in a public database
  • Fortune,Exclusive: Anthropic 'Mythos' AI model representing 'step change' in power
  • Fortune,Anthropic accidentally leaked details of a new AI model that poses unprecedented cybersecurity risks
  • TechCrunch,Anthropic launches code review tool to check flood of AI-generated code
  • TechCrunch,Anthropic hands Claude Code more control, but keeps it on a leash
  • Claude Blog,Code Review for Claude Code
  • Anthropic,Claude Code auto mode: a safer way to skip permissions
  • CNBC,Anthropic says Claude can now use your computer to finish tasks for you
  • Analytics Vidhya,Claude Dispatch: How to Use It for Remote AI Automation
  • The Register,Anthropic admits Claude Code quotas running out too fast
  • The Register,Anthropic accidentally exposes Claude Code source code
  • SiliconANGLE,Anthropic's Claude gets computer use capabilities in preview

Si vous n'êtes toujours pas convaincu de l'efficacité de l'IA, les sujets de cet article ont été trouvés et analysés par un agent IA, qui a ensuite confié la rédaction et la publication à un autre agent IA. Le fondateur de VM Consulting n'a eu qu'à relire les éléments contenus ci-contre.

Cet article vous a été utile ?

Discutons de votre stratégie

Premier entretien sans engagement — pour échanger sur vos enjeux et identifier les leviers d'action.

V
Livre blanc — Méthode V.A.L.E.U.R.
20 pages de méthode concrète. Accès gratuit.
Prendre rendez-vous← Voir tous les articles