Claude transforme vos outils de travail en "apps" intégrées au chat

AUSSI : OpenAI lance des pubs dans ChatGPT à prix d'or, Nvidia investit 2 milliards dans les "usines à IA" et plus encore.

In partnership with

Aujourd'hui:

  • Microsoft dévoile Maia 200, sa puce optimisée pour l'IA

  • NVIDIA ouvre ses modèles "Earth-2" pour prédire le climat

  • Claude intègre Asana, Figma et Slack directement dans le chat

  • OpenAI lance des publicités dans ChatGPT à des tarifs dignes du Super Bowl

  • Nvidia injecte 2 milliards de dollars dans CoreWeave pour construire des "usines à IA"

Want to get the most out of ChatGPT?

ChatGPT is a superpower if you know how to use it correctly.

Discover how HubSpot's guide to AI can elevate both your productivity and creativity to get more things done.

Learn to automate tasks, enhance decision-making, and foster innovation with the power of AI.

Anthropic vient d'ajouter neuf outils professionnels populaires (Asana, Figma/FigJam, Slack, Canva et d'autres) sous forme d'applications interactives qui s'ouvrent directement dans Claude. Résultat : vous pouvez visualiser, explorer et modifier vos contenus sans jongler entre les onglets.

Ce qui est intéressant ici, ce n'est pas juste le mot "intégrations". C'est le format : ces outils apparaissent comme de petits espaces de travail embarqués dans la conversation (visuels, graphiques, documents, tableaux de conception). Claude ressemble de moins en moins à un chatbot et de plus en plus à un véritable "hub de travail".

Quelques détails concrets :

  • Asana (gestion de projet), Figma (diagrammes FigJam), Canva (création de présentations), Slack (rédaction de messages)

  • Plus Amplitude (graphiques analytics), Box (recherche de fichiers + aperçus), Clay (recherche d'entreprises/prospection), Hex (analyse de données avec graphiques interactifs) et monday.com (gestion de projet)

  • Le tout repose sur le Model Context Protocol (MCP) "Apps" d'Anthropic, présenté comme un standard ouvert pour connecter des outils externes aux applications IA

  • Salesforce prévoit d'ajouter Agentforce, Data 360 et Customer 360 prochainement

Pourquoi c'est important : c'est le signal le plus clair que les "agents" ne resteront pas une fonctionnalité cachée. Ils seront visibles, cliquables et intégrés là où vous discutez déjà avec le modèle. Si ça fonctionne bien, les barrières au changement s'effondrent : votre plan de projet, votre maquette, vos analytics et vos messages vivent tous au même endroit — dans un espace de travail IA unifié.

Microsoft vient de présenter Maia 200, un accélérateur IA maison conçu spécifiquement pour rendre la génération de tokens (l'inférence) moins chère et plus rapide.

Ils font des annonces ambitieuses et les appuient avec des specs très concrètes :

  • Gravé en TSMC 3nm, avec des cœurs tensoriels FP8/FP4 natifs

  • Un système mémoire repensé : 216 Go de HBM3e, 7 To/s de bande passante, plus 272 Mo de SRAM sur puce

  • Performances visées par puce : plus de 10 petaFLOPS en FP4 et plus de 5 petaFLOPS en FP8, dans une enveloppe de 750W

  • Microsoft affirme atteindre 3× les performances FP4 du Trainium 3e génération d'Amazon, et dépasser le TPU 7e génération de Google en FP8 (ce sont leurs comparaisons, pas les miennes)

  • Ils revendiquent aussi 30% de performances en plus par dollar par rapport au matériel actuel de leur flotte

Les détails sur le déploiement et l'écosystème comptent aussi :

  • Déjà déployé dans le centre US Central (près de Des Moines, Iowa), avec US West 3 (près de Phoenix, Arizona) à venir

  • Prévu pour faire tourner plusieurs modèles, dont les derniers modèles GPT-5.2 d'OpenAI pour Microsoft Foundry et Microsoft 365 Copilot

  • Ils annoncent un SDK Maia avec intégration PyTorch, un compilateur Triton, une bibliothèque de kernels optimisés, plus un accès bas niveau (et même un simulateur/calculateur de coûts mentionné dans l'article)

Pourquoi c'est important : tout le monde parle des "percées côté modèles", mais le goulot d'étranglement silencieux reste le coût d'exécution de ces modèles à grande échelle. Avec Maia 200, Microsoft dit clairement : nous voulons contrôler l'économie de l'inférence, pas juste louer ce qui est disponible. S'ils arrivent vraiment à améliorer le rapport performance/prix à l'échelle de leur parc, ça change les fonctionnalités IA "par défaut" qu'on peut intégrer aux produits.

NVIDIA annonce une famille de modèles ouverts + bibliothèques + frameworks sous le nom Earth-2, présentée comme "la première stack logicielle météo IA entièrement ouverte et accélérée".

L'idée centrale : les prévisions météo dépendaient traditionnellement d'énormes simulations physiques sur supercalculateurs — mais les modèles IA peuvent réduire drastiquement le temps et le coût de calcul, rendant les prévisions avancées accessibles à davantage d'organisations.

Les nouveaux modèles annoncés :

  • Earth-2 Medium Range (architecture Atlas) : prévisions jusqu'à 15 jours, couvrant plus de 70 variables (température, pression, vent, humidité, etc.)

  • Earth-2 Nowcasting (StormScope) : prédictions d'orages locaux à 0-6 heures, résolution kilométrique, "en quelques minutes", entraîné sur données satellite/radar

  • Earth-2 Global Data Assimilation (HealDA) : génère les "conditions initiales" pour les prévisions en quelques secondes sur GPU contre des heures sur supercalculateurs

Ils mentionnent aussi des modèles ouverts existants dans la stack (comme CorrDiff pour le downscaling et FourCastNet3), et qu'Earth-2 intègre des modèles ouverts de groupes comme l'ECMWF, Microsoft, Google et d'autres.

Disponibilité :

  • Medium Range et Nowcasting sont disponibles via Earth2Studio et aussi sur Hugging Face / GitHub

  • Global Data Assimilation est attendu plus tard cette année

Pourquoi c'est important : NVIDIA fait ce qu'elle fait de mieux — pas juste "un modèle", mais une stack ouverte conçue pour tourner efficacement sur GPU. Si les modèles météo ouverts deviennent assez bons et assez peu coûteux, on les retrouvera intégrés partout : trading énergétique, gestion des réseaux électriques, logistique, modèles de risque pour les assurances...

🧠 RECHERCHE

SWE-Pruner rend l'IA de programmation plus efficace en lui apprenant à "survoler" le code au lieu de lire chaque ligne. Un petit outil auxiliaire identifie uniquement les parties nécessaires pour une tâche donnée. Résultat : moins de données à traiter, des économies de temps et d'argent — sans sacrifier la qualité du code produit.

Memory-V2V donne une "mémoire" à l'IA d'édition vidéo pour qu'elle se souvienne des modifications précédentes. Ça résout un problème courant : quand plusieurs retouches rendent une vidéo incohérente visuellement. En gardant une trace du travail passé et en compressant les données, le style reste homogène tout au long de la vidéo — et le montage devient nettement plus rapide.

Cet article présente une méthode pour que les agents de recherche IA notent et corrigent leur propre travail pendant qu'ils résolvent des problèmes. En utilisant une "grille d'évaluation" stricte pour vérifier les réponses en temps réel, l'IA repère ses propres erreurs. Cette auto-correction améliore la précision sur les tâches difficiles — sans nécessiter de nouvel entraînement coûteux.

📲 RÉSEAUX SOCIAUX

🗞️PLUS D'ACTUALITÉS

OpenAI lance des publicités dans ChatGPT — OpenAI introduit des pubs dans la version gratuite de ChatGPT, facturant aux annonceurs environ 60$ pour 1 000 vues. Ce tarif premium, comparable aux emplacements TV du Super Bowl, signale une volonté d'accélérer la monétisation.

Nvidia investit 2 milliards dans CoreWeave — Le géant des puces injecte 2 milliards de dollars dans CoreWeave pour construire d'immenses datacenters dédiés à l'intelligence artificielle. Ce partenariat vise à créer des "usines à IA" qui alimenteront la prochaine génération de technologies intelligentes.

L'UE enquête sur X à cause des deepfakes de Grok — Les régulateurs européens enquêtent sur X d'Elon Musk après que son outil IA Grok a été utilisé pour créer de fausses images sexuelles de personnes sans leur consentement. L'enquête porte sur la capacité de la plateforme à bloquer ces contenus illégaux.

OpenAI veut séduire les entreprises — OpenAI cible agressivement les clients corporate, en concurrence directe avec Anthropic. Pendant qu'Anthropic se concentre sur des secteurs spécialisés comme la santé, OpenAI utilise son énorme base d'utilisateurs grand public pour décrocher des contrats B2B.

La Chine entraîne ses armes IA avec des tactiques animales — Des chercheurs chinois apprennent à des drones militaires à chasser comme des faucons et à coopérer comme des meutes de loups. Cette approche "biomimétique" vise à rendre les essaims d'armes autonomes plus létaux et plus difficiles à contrer.

La startup Ricursive atteint 4 milliards de valorisation — Ricursive Intelligence, une nouvelle entreprise utilisant l'IA pour concevoir des puces plus rapidement, vient de lever 300 millions de dollars. Cet investissement valorise la startup à 4 milliards quelques mois seulement après son lancement — une licorne instantanée.

🎬DERNIÈRES VIDÉOS