Fuite du code source de Claude Code : 512 000 lignes de secrets d'Anthropic exposées au grand jour

AUSSI : Google divise par deux le coût de la génération vidéo IA, des agents IA qui « rêvent » la nuit pour mieux se souvenir

Aujourd'hui:

  • 🔓 Le code source complet de Claude Code fuite accidentellement

  • 🎬 Google lance Veo 3.1 Lite, la génération vidéo 50% moins chère

  • 💤 OpenClaw crée des agents IA dotés d'une fonction de « rêve » nocturne

  • 🧠 Pourquoi les benchmarks de l'IA sont cassés — et ce qu'il faut à la place

  • 🇨🇳 Alibaba dévoile Qwen3.5-Omni, un modèle qui code à la voix

  • 🎯 ARC-AGI-3, le benchmark où tous les modèles échouent

  • 🍄 L'upscaling IA de Super Mario tourne au désastre visuel

  • 📉 Microsoft signe son pire trimestre boursier depuis 2008

  • 🚗 Tesla admet que ses robotaxis sont parfois pilotés par des humains

  • 💰 Nvidia investit 2 milliards dans Marvell

  • 📱 ChatGPT arrive sur Apple CarPlay

  • Et bien plus…

En partenariat avec

L'IA que j'utilise pour mes emails (et ce n'est pas ChatGPT)

Vous le savez, j'envoie des milliers d'emails chaque semaine.

L'outil que j'utilise au quotidien, c'est Brevo et leur nouvelle IA "Aura" change la donne : rédaction d'emails, envoi au meilleur moment, enrichissement de contacts, le tout intégré directement dans la plateforme.

Le plus : on paye au nombre d'emails envoyés, pas au nombre de contacts.

👉 -50% pendant 3 mois avec le code VISIONIA50

Une mise à jour anodine de Claude Code a tourné à l'incident majeur pour Anthropic. La version 2.1.88 de l'outil contenait un fichier map TypeScript qui exposait l'intégralité du code source — soit plus de 512 000 lignes de code — accessible à quiconque savait où chercher. Un véritable trésor pour les curieux et les concurrents.

Ce qu'on a découvert dans le code :

  • Les instructions système complètes (system prompts) utilisées par Claude Code, révélant comment Anthropic guide le comportement de son agent

  • L'architecture de mémoire détaillée de l'outil, montrant comment il gère le contexte entre les sessions

  • Des fonctionnalités expérimentales non annoncées, dont un mystérieux agent de type « Tamagotchi » — un compagnon IA persistant dont la nature exacte reste floue

  • Le code source complet en TypeScript, offrant une vision sans filtre de l'ingénierie derrière l'un des outils de coding IA les plus populaires

Pourquoi c'est important

Ce type de fuite est rarissime chez un acteur majeur de l'IA. Les system prompts sont considérés comme le « secret sauce » des entreprises — ils définissent le comportement, les garde-fous et les capacités réelles d'un modèle. Pour les développeurs et chercheurs, c'est une mine d'or : on peut désormais comprendre précisément comment Anthropic orchestre son agent de coding. Pour Anthropic, c'est un coup dur en termes de propriété intellectuelle, même si la transparence involontaire pourrait paradoxalement renforcer la confiance de certains utilisateurs. La découverte du « Tamagotchi » agent suggère qu'Anthropic explore des pistes bien plus ambitieuses que le simple assistant de code.

Google frappe un grand coup sur le marché de la vidéo générative. Le géant vient de dévoiler Veo 3.1 Lite, une version allégée de son modèle de génération vidéo qui promet une réduction de plus de 50 % des coûts (0.10usd par vidéo et même 0.05 usd avec l’abonnement le plus haut de gamme!) de production par rapport à Veo 3.1 standard, tout en maintenant une vitesse de génération équivalente.

Les points essentiels :

  • Coût divisé par deux ou plus par rapport au modèle Veo 3.1 : en clair une vidéo avec Veo 3.1 quality coute 1 usd, avec veo 3.1 fast 0.2 usd et avec veo 3.1 lite on passe à 0.10 usd par vidéo

  • Vitesse de génération préservée — pas de compromis sur le temps d'exécution

  • Accessible via l'API Google AI, ciblant aussi bien les développeurs indépendants que les entreprises

  • Positionnement stratégique face à Sora d'OpenAI et Kling de Kuaishou, dont les tarifs restent élevés

Ce que ça change

La génération vidéo par IA reste aujourd'hui un luxe pour beaucoup de créateurs et de petites entreprises. En divisant les coûts par deux, Google abaisse significativement la barrière d'entrée et pourrait déclencher une vague d'adoption massive. C'est aussi un signal clair dans la guerre des prix qui se joue entre les géants : après la course à la qualité, c'est désormais la course à l'accessibilité qui s'accélère. Pour les créateurs de contenu, les agences et les développeurs d'applications, Veo 3.1 Lite pourrait devenir le point d'entrée par défaut dans la vidéo IA.

Et si votre assistant IA avait besoin de dormir pour mieux fonctionner ? C'est le pari surprenant de MyClaw.ai avec ses agents OpenClaw, désormais dotés d'une fonctionnalité de « rêve » nocturne. Pendant que vous dormez, votre agent IA travaille — ou plutôt, il rêve.

En détail :

  • Un sous-agent nocturne s'active automatiquement pour simuler une phase de sommeil REM artificiel

  • Durant cette phase, l'agent consolide les informations de la journée, analyse les décisions passées et élimine les données jugées inutiles

  • Le résultat : une rétention de contexte à long terme bien supérieure aux systèmes classiques, qui perdent généralement leur mémoire entre chaque session

  • L'approche s'inspire directement des neurosciences et du rôle du sommeil dans la consolidation mémorielle chez l'humain

L'impact à retenir

C'est l'un des problèmes fondamentaux des agents IA actuels : la perte de contexte. Chaque nouvelle conversation repart souvent de zéro, obligeant l'utilisateur à tout réexpliquer. En s'inspirant du fonctionnement biologique du cerveau humain, OpenClaw propose une approche radicalement différente. Si la promesse se confirme à l'usage, cette architecture pourrait influencer la conception des agents IA bien au-delà de cette seule plateforme. L'idée d'un agent qui « apprend en dormant » est aussi fascinante sur le plan conceptuel qu'elle est potentiellement transformatrice pour l'expérience utilisateur au quotidien.

🧠 RECHERCHE

Pourquoi les benchmarks actuels de l'IA sont obsolètes — Le MIT Technology Review publie une critique acerbe des méthodes d'évaluation actuelles, qui testent les modèles en vase clos plutôt que dans des contextes réels d'utilisation. L'auteure propose le framework HAIC (Human–AI, Context-Specific Evaluation) pour mesurer l'impact réel de l'IA au sein d'équipes et de workflows complexes, sur le long terme.

Qwen3.5-Omni : Alibaba dévoile un modèle multimodal aux capacités émergentes — Alibaba lance Qwen3.5-Omni, un modèle capable de traiter nativement texte, audio, image et vidéo. Fait remarquable : il a développé une capacité émergente à générer du code à partir d'instructions orales et vidéo, sans avoir été entraîné spécifiquement pour cette tâche. Ses performances surpasseraient celles de Gemini 3.1 Pro sur les benchmarks audio.

ARC-AGI-3 : le benchmark où tous les modèles échouent — La fondation ARC Prize lance ARC-AGI-3, un test exigeant que les modèles agissent de manière totalement autonome, sans instructions préalables. Résultat : les modèles actuels échouent massivement. Mais des voix s'élèvent pour critiquer la pertinence du test, arguant que les agents IA modernes sont conçus pour fonctionner avec des outils et du feedback humain.

L'upscaling IA de Super Mario tourne au fiasco visuel — La chaîne MeTV Toons a diffusé des épisodes restaurés par IA du dessin animé Super Mario Bros. Super Show (1989), avec des résultats désastreux : personnages déformés, textes illisibles, lissage excessif. Un cas d'école des limites de l'upscaling automatisé sans supervision humaine.

📲 RÉSEAUX SOCIAUX

🗞️PLUS D'ACTUALITÉS

📉 Microsoft signe son pire trimestre boursier depuis la crise de 2008 — L'action Microsoft a chuté de près de 25 % depuis le début de l'année, ramenant sa valorisation au plus bas depuis fin 2022. Les investisseurs s'interrogent de plus en plus sur la rentabilité réelle des investissements massifs du groupe dans l'IA.

🚗 Tesla admet que ses robotaxis sont parfois pilotés par des humains — Dans une lettre officielle, Tesla confirme que des opérateurs humains peuvent prendre le contrôle direct à distance de ses robotaxis en cas de blocage, à des vitesses limitées à 10 mph. Une approche qui contraste avec celle de Waymo et relance le débat sur la réelle autonomie du système FSD.

💰 Nvidia investit 2 milliards de dollars dans Marvell — Nvidia poursuit sa stratégie d'investissements massifs dans l'écosystème IA en prenant une participation de 2 milliards $ dans Marvell, provoquant un bond de 13 % de l'action. Après CoreWeave, Nebius et Coherent, Nvidia tisse méthodiquement sa toile dans l'infrastructure IA.

🇨🇳 Zhipu : l'action du géant chinois de l'IA bondit de 35 % — Le champion chinois de l'IA a vu son cours s'envoler de 35 % après la publication de son premier rapport post-IPO, révélant un doublement de son chiffre d'affaires. Un signal fort de l'appétit des marchés pour les acteurs IA chinois.

📱 ChatGPT débarque sur Apple CarPlay — OpenAI lance ChatGPT sur CarPlay pour les utilisateurs sous iOS 26.4 ou ultérieur. L'interaction se fait exclusivement par commande vocale, conformément aux exigences de sécurité d'Apple pour la conduite.

🏗️ Oracle licencie massivement pour financer ses data centers IA — Oracle supprime des milliers de postes pour réorienter ses ressources vers la construction d'infrastructures de centres de données dédiés à l'IA. Un arbitrage brutal entre capital humain et capital technologique.

🍔 Alexa+ permet de commander à manger via Uber Eats et Grubhub — Amazon enrichit Alexa+ avec la commande de repas conversationnelle chez Uber Eats et Grubhub, simulant une interaction naturelle type drive-through.

📱 Le « vibe coding » sature l'App Store d'Apple — L'explosion des applications générées par IA provoque un engorgement sans précédent du processus de validation Apple. Les délais passent de quelques heures à plusieurs jours, pénalisant tous les développeurs.

🦅 TII lance Falcon Perception, un nouveau modèle multimodal open-weights — Le Technology Innovation Institute dévoile Falcon Perception, capable de traiter et comprendre des entrées visuelles complexes. Le modèle est disponible en open-weights sur Hugging Face.

📸 Meta teste un abonnement Instagram Plus — Meta expérimente une offre payante entre 1 et 2 $/mois au Mexique, Japon et Philippines, incluant le visionnage anonyme de Stories et des statistiques exclusives.

🎬DERNIÈRES VIDÉOS