- l'AGI ARRIVE, Préparez-vous
- Posts
- Un bug critique dans Claude Code efface le travail des développeurs toutes les 10 minutes
Un bug critique dans Claude Code efface le travail des développeurs toutes les 10 minutes
AUSSI : Pékin lance une revue réglementaire sur Manus de Meta, Les dirigeants d'OpenAI promeuvent un traitement canin par IA sans preuve scientifique

Aujourd'hui:
🐛 Claude Code et le
git reset --hardqui détruit le travail non sauvegardé🇨🇳 L'intervention de Pékin sur Meta Manus secoue les investisseurs
🐕 Sam Altman relaie un traitement anticancéreux canin par IA… sans preuve qu'il fonctionne
💊 Eli Lilly investit 2,75 milliards avec Insilico Medicine
👤 Arrestation à tort par reconnaissance faciale IA
🏋️ Fort, le bracelet IA pour la musculation
🕸️ Miasma piège les scrapers IA dans des boucles infinies
💻 Les agents de codage au secours du logiciel libre
📱 Bluesky dévoile Attie pour créer des flux personnalisés par IA
⚛️ L'antimatière devient transportable hors du CERN
📈 L'IA intensifie la charge de travail au lieu de l'alléger
En partenariat avec

Votre propre serveur d'automatisation en 5 minutes chrono
Vous payez encore des abonnements à des outils d'automatisation qui limitent vos workflows ?
Il existe une alternative : héberger vous-même n8n sur un VPS, et ne plus jamais dépendre d'un quota.
Hostinger rend ça possible en moins de 5 minutes, avec une installation en 1 clic et un panel de gestion piloté par IA. Contrôle total, coût fixe, zéro surprise.
👉 CODE PROMO : VISIONIA
Un bug critique dans Claude Code provoque des git reset --hard toutes les 10 minutes

Un bug majeur a été signalé sur le dépôt GitHub officiel d'Anthropic : l'outil Claude Code exécute automatiquement une commande git reset --hard toutes les 10 minutes environ, effaçant silencieusement tout le travail non commité des développeurs. L'issue, qui a généré 228 réactions sur GitHub, met en lumière les dangers concrets de confier un accès système complet à un agent IA autonome.
Ce qu'il faut retenir :
La commande
git reset --hardsupprime irréversiblement toutes les modifications non validées dans un dépôt GitLe comportement se déclenche automatiquement et sans avertissement, rendant la perte de données difficile à anticiper
Le problème a été signalé directement sur le dépôt GitHub officiel d'Anthropic, qui n'a pas encore communiqué de correctif définitif
Plusieurs développeurs rapportent avoir perdu des heures de travail avant d'identifier la cause
Pourquoi c'est un signal d'alarme : Ce bug illustre parfaitement le dilemme central des agents de codage IA : pour être utiles, ils ont besoin d'un accès profond au système de fichiers et aux outils de versioning — mais chaque permission accordée est un vecteur de risque. Alors que Claude Code, GitHub Copilot Workspace et Cursor se disputent le marché des assistants de développement autonomes, cet incident rappelle qu'un agent capable d'écrire du code est aussi capable de le détruire. La confiance aveugle dans les outils IA de développement pourrait coûter bien plus qu'un simple git stash.

Le gouvernement chinois a déclenché un examen réglementaire inattendu sur le projet Manus de Meta, ciblant directement la stratégie dite de "Singapore-washing" — cette pratique qui consiste à domicilier des opérations à Singapour pour échapper simultanément aux restrictions américaines sur les exportations tech vers la Chine et aux réglementations chinoises. La décision a immédiatement provoqué une onde de choc chez les investisseurs et fondateurs du secteur.
Les points essentiels :
Pékin remet en question les montages juridiques via Singapour utilisés par de nombreuses entreprises tech pour opérer entre les deux blocs
L'intervention cible spécifiquement le projet Manus de Meta, dont les liens avec le marché chinois étaient structurés via des entités singapouriennes
Les investisseurs craignent un effet domino sur d'autres entreprises utilisant des stratégies similaires
Cette décision s'inscrit dans un contexte de tensions géopolitiques croissantes entre Washington et Pékin sur les technologies IA
Ce que ça change : L'intervention de Pékin envoie un message clair : les zones grises réglementaires se referment. Pour des dizaines de startups et de géants tech qui avaient bâti leur stratégie Asie-Pacifique sur la neutralité perçue de Singapour, c'est un coup dur. Le "Singapore-washing" était devenu un secret de polichinelle dans l'industrie — sa remise en cause officielle pourrait forcer une restructuration complète des opérations tech dans la région et accélérer la bipolarisation de l'écosystème IA mondial.

Plusieurs dirigeants d'OpenAI, dont Sam Altman et le VP Science Kevin Weil, ont relayé avec enthousiasme sur les réseaux sociaux l'histoire virale d'un propriétaire de chien qui aurait conçu un vaccin anticancéreux pour son animal à l'aide de ChatGPT, AlphaFold et Grok. Problème : aucune preuve scientifique ne démontre que le traitement a réellement fonctionné.
En détail :
L'histoire, devenue virale, décrit l'utilisation combinée de ChatGPT, AlphaFold (DeepMind) et Grok (xAI) pour concevoir un traitement personnalisé
Sam Altman, Kevin Weil et d'autres cadres d'OpenAI ont partagé et commenté l'histoire sans mentionner l'absence de validation scientifique
Le chien semble aller mieux, mais la rémission pourrait être liée à d'autres facteurs — aucun essai contrôlé n'a été mené
Des scientifiques et médecins vétérinaires ont critiqué cette promotion irresponsable d'une anecdote comme preuve des capacités médicales de l'IA
L'impact à retenir : Quand les dirigeants des plus grandes entreprises d'IA au monde amplifient des histoires médicales non vérifiées, ils ne font pas que du marketing — ils alimentent des attentes dangereuses. L'épisode pose une question de responsabilité : à quel moment le hype devient-il de la désinformation médicale ? Dans un contexte où des millions de personnes utilisent déjà ChatGPT pour des questions de santé, ce type de promotion non encadrée pourrait avoir des conséquences bien réelles.
🧠 RECHERCHE
Attie : Bluesky lance un outil IA pour créer ses propres algorithmes de flux L'équipe de Bluesky dévoile Attie, une application propulsée par Claude d'Anthropic qui permet de générer des flux de contenu personnalisés en langage naturel. Basé sur l'AT Protocol, l'outil traduit des requêtes simples ("montre-moi des posts sur l'astrophotographie sans politique") en algorithmes de curation. L'objectif à terme : intégrer ces flux directement dans Bluesky et toute application compatible avec le protocole décentralisé.
L'antimatière devient transportable : une percée historique au CERN Des chercheurs ont réussi pour la première fois à transporter de l'antimatière hors des installations du CERN, où elle était jusqu'ici strictement confinée. L'antimatière, qui s'annihile instantanément au contact de la matière ordinaire, nécessitait des conditions de confinement extrêmes. Cette avancée ouvre la voie à des expériences de physique fondamentale réalisables dans des laboratoires du monde entier, sans dépendre d'une seule infrastructure.
L'IA n'allège pas la charge de travail — elle l'intensifie Selon une enquête du Wall Street Journal, l'intégration de l'IA dans les entreprises produit un effet paradoxal : au lieu de libérer du temps, elle augmente le volume et la complexité des tâches demandées aux employés. Les gains de productivité sont systématiquement réabsorbés par des objectifs revus à la hausse, créant une spirale d'intensification. Un constat qui remet en question le narratif dominant de l'IA comme outil de libération du travail.
📲 RÉSEAUX SOCIAUX
🗞️PLUS D'ACTUALITÉS
Eli Lilly s'associe à Insilico Medicine pour 2,75 milliards de dollars Le géant pharmaceutique Eli Lilly a signé un accord stratégique de 2,75 milliards de dollars avec Insilico Medicine, incluant un paiement initial de 115 millions $, pour accélérer la commercialisation de médicaments découverts par IA. Ce partenariat massif confirme que la pharma traditionnelle mise désormais gros sur l'IA pour réduire les délais et coûts de R&D, estimés à plus d'un milliard de dollars par molécule.
Une femme du Tennessee arrêtée à tort à cause d'une erreur de reconnaissance faciale IA Angela Lipps, habitante du Tennessee, a été arrêtée par erreur après qu'un logiciel de reconnaissance faciale l'a identifiée comme suspecte dans des crimes commis dans le Dakota du Nord. L'affaire, qui a suscité 385 réactions en ligne, relance le débat sur la fiabilité des outils biométriques utilisés par les forces de l'ordre et leurs conséquences potentiellement dévastatrices sur les libertés individuelles.
Miasma : un outil open source pour piéger les scrapers IA dans des boucles infinies Développé par Austin Weeks, Miasma génère du contenu leurre dynamique qui enferme les robots de scraping dans des boucles sans fin, les empêchant de collecter des données réelles. Avec 310 étoiles sur GitHub, l'outil offre une solution proactive aux propriétaires de sites web qui veulent protéger leur contenu contre l'entraînement non autorisé de modèles IA.
Fort : un bracelet connecté IA pour le suivi précis de la musculation Conçu par d'anciens ingénieurs de Tesla et SpaceX et soutenu par Y Combinator, Fort est un bracelet qui utilise l'IA pour détecter automatiquement plus de 50 exercices de musculation, analyser la biomécanique (vitesse, amplitude, proximité de l'échec) et suivre la récupération. Un wearable qui comble enfin le fossé entre le suivi cardio, déjà mature, et le suivi de la musculation.
Les agents de codage IA pourraient redonner vie au logiciel libre Et si les agents IA capables de coder devenaient les meilleurs contributeurs open source ? Un article de GJ London explore comment l'automatisation de la maintenance, de la documentation et du développement pourrait réduire les barrières à l'entrée pour les projets libres et rééquilibrer le rapport de force face aux plateformes propriétaires. Une thèse optimiste qui suscite le débat dans la communauté.

