- l'AGI ARRIVE, Préparez-vous
- Posts
- Le « Codex Spark » d'OpenAI rend le code quasi instantané
Le « Codex Spark » d'OpenAI rend le code quasi instantané
AUSSI : Seedance 2.0 offre un contrôle de réalisateur sur la vidéo IA, MiniMax dévoile une suite unifiée pour le texte, la musique et la vidéo, et bien plus.

Aujourd'hui:
Le « Deep Think » de Google s'attaque au raisonnement complexe
Le « Codex Spark » d'OpenAI rend le code quasi instantané
Anthropic lève 30 milliards $ pour accélérer sa conquête des entreprises
Seedance 2.0 offre un contrôle de réalisateur sur la vidéo IA
MiniMax dévoile une suite unifiée pour le texte, la musique et la vidéo
Better prompts. Better AI output.
AI gets smarter when your input is complete. Wispr Flow helps you think out loud and capture full context by voice, then turns that speech into a clean, structured prompt you can paste into ChatGPT, Claude, or any assistant. No more chopping up thoughts into typed paragraphs. Preserve constraints, examples, edge cases, and tone by speaking them once. The result is faster iteration, more precise outputs, and less time re-prompting. Try Wispr Flow for AI or see a 30-second demo.

Si vous avez déjà utilisé un assistant de code en vous disant « C'est utile, mais je perds le fil à chaque fois qu'il réfléchit », c'est exactement ce problème qu'OpenAI vise ici.
Ils viennent de sortir un aperçu de recherche de GPT-5.3-Codex-Spark, décrit comme une version allégée de GPT-5.3-Codex conçue spécifiquement pour le coding en temps réel. Le chiffre-clé, c'est la vitesse : le modèle est optimisé pour une latence ultra-faible et délivre plus de 1 000 tokens par seconde.
Quelques détails pratiques qui comptent si vous développez vraiment :
Il embarque une fenêtre de contexte de 128k tokens, et ne gère que le texte au lancement.
Il est calibré pour être « discret » par défaut : des modifications minimales et ciblées, et il ne lance pas de tests automatiquement sauf si vous le demandez. Un choix de design très intentionnel du type « je ne te gêne pas pendant que tu travailles ».
Il est déployé en aperçu de recherche pour les utilisateurs ChatGPT Pro dans l'app Codex, le CLI et l'extension VS Code, avec des limites de requêtes dédiées pendant la preview.
L'autre avancée discrète mais majeure : ils ont accéléré toute la chaîne, pas seulement le modèle. Ils annoncent une connexion WebSocket persistante et des réductions importantes du temps de réponse (80 % de surcharge en moins par aller-retour, 30 % de surcharge en moins par token, et un premier token reçu 50 % plus vite).
Sous le capot, la couche basse latence tourne sur du matériel Cerebras (Wafer Scale Engine 3).
Pourquoi c'est intéressant : à partir du moment où les réponses semblent instantanées, la façon d'interagir change fondamentalement. On arrête de « prompter » et on commence à collaborer — comme du pair programming où vous pouvez interrompre l'autre en pleine pensée sans perdre l'élan. C'est la différence entre un « outil » et un « coéquipier ».
Si vous le testez, voici un bon stress test : prenez un refactoring compliqué que vous repoussez depuis des semaines parce qu'il implique trop de petites modifications. La vitesse en temps réel, c'est quand on itère rapidement qu'on la ressent le plus — pas quand on demande de construire un projet from scratch.
Celui-ci se lit comme un pari frontal : le « mode raisonnement » peut être bien plus qu'un argument marketing.
Google vient d'annoncer une mise à jour majeure de Gemini 3 Deep Think, positionné comme un mode de raisonnement spécialisé pour les problèmes de science, recherche et ingénierie — y compris les cas réels bien crasseux où les données sont brouillonnes et où il n'existe pas de réponse unique.
Accès et déploiement :
Disponible dans l'app Gemini pour les abonnés Google AI Ultra.
Un accès anticipé à Deep Think est aussi proposé via l'API Gemini à un groupe restreint de chercheurs, ingénieurs et entreprises.
Les exemples concrets de premiers testeurs méritent qu'on s'y arrête :
Un mathématicien de l'Université Rutgers l'a utilisé pour relire un article très technique, et Deep Think aurait repéré une faille logique subtile qui avait échappé à la relecture humaine par les pairs.
Une équipe de l'Université Duke l'a utilisé pour optimiser la fabrication de croissance cristalline complexe, et il aurait produit une recette de couche mince dépassant les 100 μm.
Côté benchmarks, Google revendique des résultats solides sur plusieurs tests de « raisonnement difficile » bien connus :
48,4 % sur Humanity's Last Exam (sans outils)
84,6 % sur ARC-AGI-2 (vérifié par l'ARC Prize Foundation)
3 455 Elo sur Codeforces
Performance de « niveau médaille d'or » aux Olympiades Internationales de Mathématiques 2025
Ils décrivent aussi des workflows d'ingénierie concrets, comme transformer un croquis en fichier imprimable en 3D — un exemple de raisonnement plus exécution, pas juste des réponses à des questions.
Mon avis : le plus intéressant ici, ce n'est pas « il a obtenu X % sur le benchmark Y ». C'est le positionnement : Deep Think est conçu pour s'asseoir à côté de vous pendant un vrai travail technique et vous aider à raisonner face à des contraintes ouvertes. Si vous faites de la recherche, du design ou du dépannage complexe, c'est la catégorie à surveiller de près.
Anthropic annonce avoir levé 30 milliards de dollars en Series G pour une valorisation post-money de 380 milliards $, mené par GIC et Coatue. Le tour inclut aussi une partie des investissements précédemment annoncés par Microsoft et NVIDIA.
Quelques chiffres communiqués par Anthropic (que je reprends tels quels) :
Un revenu annualisé de 14 milliards $, en croissance de « plus de 10x par an » sur chacune des trois dernières années.
Le nombre de clients dépensant plus de 100 000 $/an a été multiplié par 7 en un an.
Plus de 500 clients dépassent désormais le million de dollars de dépenses annuelles, et « huit entreprises du Fortune 10 » sont clientes.
Le revenu annualisé de Claude Code dépasse les 2,5 milliards $, plus que doublé depuis début 2026, avec un nombre d'utilisateurs actifs hebdomadaires qui a doublé depuis le 1er janvier.
Anthropic met aussi en avant une offensive infrastructure majeure : Claude est désormais disponible sur les trois grands clouds (Amazon Web Services via Bedrock, Google Cloud via Vertex AI, et Microsoft Azure via Foundry), et s'entraîne sur AWS Trainium, Google TPUs et NVIDIA GPUs.
Pourquoi c'est important : la course aux modèles, c'est aussi une course à la distribution et à la capacité. Quand une entreprise optimise pour être « disponible partout où ses clients sont déjà », c'est le signe qu'elle mise autant sur l'adoption par les entreprises et la fiabilité que sur la puissance brute.
🧠 RECHERCHE
Imaginez un entraîneur pour robots qui ne se contente pas de dire « réussi » ou « raté ». PhyCritic observe le robot en action et lui explique ses erreurs en langage clair. Résultat : les robots apprennent les tâches physiques — comme déplacer des objets — beaucoup plus vite et avec plus de précision que les anciennes méthodes qui se contentaient de scores numériques.
Pour aider l'IA à lire des documents très longs sans ralentir ni perdre le fil, cette étude propose GruMem, une sorte de « gardien de mémoire ». Il décide quelles informations méritent d'être retenues et lesquelles peuvent être ignorées — comme un lecteur expérimenté qui sait instinctivement ce qui est essentiel dans un pavé de 200 pages.
Des chercheurs ont créé Aletheia, une IA conçue pour résoudre des problèmes mathématiques complexes toute seule. Elle fonctionne comme un vrai mathématicien : elle décompose les questions difficiles, vérifie son propre travail pour traquer les erreurs, et raisonne étape par étape. Un pas de plus vers une IA capable de mener des recherches de haut niveau sans supervision humaine.
📲 RÉSEAUX SOCIAUX
🗞️PLUS D'ACTUALITÉS
ByteDance lance Seedance 2.0 La maison mère de TikTok vient de sortir Seedance 2.0, un outil puissant qui génère des vidéos de haute qualité à partir de texte, d'images ou d'audio. Contrairement aux versions précédentes, celle-ci permet de contrôler des détails précis comme les angles de caméra et les mouvements de personnages en uploadant vos propres clips de référence. Le lancement est déjà devenu viral, avec des utilisateurs et des leaders tech qui saluent sa capacité à comprendre la physique du monde réel et les actions complexes.
MiniMax AI dévoile sa suite « tout-en-un » MiniMax AI annonce une mise à jour massive intégrant un système de texte plus intelligent, un créateur de musique et un nouveau générateur vidéo appelé Hailuo 2.3. L'accent est mis sur la vitesse pure, avec leur nouveau modèle « M2.5 » conçu pour résoudre des problèmes complexes et générer du contenu quasi instantanément. Un positionnement ambitieux : une seule plateforme pour créer du texte, de la vidéo et du son.
Les développeurs de Spotify n'écrivent plus de code Spotify révèle que ses meilleurs ingénieurs n'ont pas écrit une seule ligne de code manuellement depuis décembre — ils se contentent désormais de relire et valider le travail généré par l'IA. L'équipe utilise un nouvel outil interne baptisé « Honk » pour construire plus vite, ce qui leur a permis de livrer plus de 50 nouvelles fonctionnalités rien que l'année dernière. Un signal fort d'un changement de paradigme dans l'industrie : les développeurs humains deviennent des relecteurs plutôt que des rédacteurs.
Anthropic finance le camp pro-régulation de l'IA Anthropic verse 20 millions $ à un groupe politique appelé Public First Action, qui milite pour des règles gouvernementales plus strictes en matière de sécurité de l'intelligence artificielle. Un positionnement en opposition directe avec des concurrents comme OpenAI, qui financent actuellement des groupes prônant moins de restrictions sur l'industrie. L'entreprise affirme que cet argent vise à garantir que les nouvelles technologies puissantes servent l'intérêt public, et pas seulement les intérêts des entreprises.


