- l'AGI ARRIVE, Préparez-vous
- Posts
- OpenAI va sortir un nouveau modèle pour "écraser Gemini"
OpenAI va sortir un nouveau modèle pour "écraser Gemini"
Des modèles secrets et de nouvelles puces en silicium aux étapes franchies qui rapportent des milliards de dollars : tout l’écosystème de l’IA vient de passer à la vitesse supérieure.

Aujourd'hui:
OpenAI va sortir un nouveau modèle pour "écraser Gemini"
Mistral 3 : Le roi de l'open source revient en force
AWS dévoile sa nouvelle bête de silicium
Anthrop s'empare d'un petit pain et franchit la barre du milliard de dollars.
Transformers v5 : La boîte à outils d'IA reçoit une méga-mise à jour
The Hustle: Claude Hacks For Marketers
Some people use Claude to write emails. Others use it to basically run their entire business while they play Wordle.
This isn't just ChatGPT's cooler cousin. It's the AI that's quietly revolutionizing how smart people work – writing entire business plans, planning marketing campaigns, and basically becoming the intern you never have to pay.
The Hustle's new guide shows you exactly how the AI-literate are leaving everyone else behind. Subscribe for instant access.

Les rumeurs vont bon train aujourd'hui. Selon The Information , la tension monte chez OpenAI.
Selon certaines rumeurs, Sam Altman et son équipe auraient déclenché une alerte rouge en interne. La raison ? Les récents succès de Google avec Gemini les inquiètent visiblement. Pour contrer cela, OpenAI développe un nouveau modèle baptisé « Garlic ».
Il ne s'agit pas d'une simple rumeur concernant GPT-5. « Garlic » semble marquer un tournant par rapport à la philosophie du « plus c'est gros, mieux c'est ». Au contraire, il serait axé sur l'efficacité et le raisonnement , avec pour objectif principal d'offrir des performances exceptionnelles dans une architecture plus petite et plus compacte.
Des tests internes montreraient que Garlic surpasse certains des processeurs les plus performants de Google (comme la série Gemini 3), ce qui suggère qu'OpenAI trouve des moyens de rendre ses modèles plus « intelligents » sans simplement augmenter leur puissance de calcul. C'est un changement fascinant : la compétition ne se joue plus sur la taille du cerveau, mais sur son intelligence.

Pendant qu’OpenAI travaille dans l’ombre, l’équipe de Mistral AI vient de défoncer la porte et de sortir Mistral 3 .
C'est un événement majeur pour la communauté open source. Ils n'ont pas seulement sorti un modèle ; ils ont sorti toute une gamme.
Pour Edge : La gamme « Ministral » (paramètres 3B, 8B et 14B) est conçue pour fonctionner localement sur votre ordinateur portable ou vos périphériques Edge.
Pour les utilisateurs avancés : Le Mistral Large 3 .
Voici l'astuce technique : Mistral Large 3 utilise une architecture de type Sparse Mixture-of-Experts (MoE) . Au lieu d'activer tous les neurones pour chaque question, le modèle achemine votre requête vers des « experts » spécifiques au sein du réseau neuronal.
Cela lui permet de gérer un nombre total de paramètres colossal (675 milliards !) tout en n'utilisant qu'une fraction de la puissance de calcul active (41 milliards) pour chaque jeton. C'est un système intelligent, efficace et, surtout, les pondérations sont permissives. Vous pouvez le télécharger et l'exécuter vous-même si vous disposez du matériel nécessaire.

Enfin, pour ceux d'entre vous qui suivent de près l'infrastructure qui sous-tend tout cela, AWS vient d'annoncer ses nouveaux serveurs Trainium3 UltraServers .
Si vous pensiez que l'entraînement des IA devenait trop coûteux, Amazon vous entend. Ces nouveaux serveurs sont équipés de leurs premières puces 3 nanomètres, qui, selon la société, offrent des performances par watt quatre fois supérieures à la génération précédente.
C'est important car, à mesure que des modèles comme Garlic et Mistral 3 se complexifient, la facture d'électricité devient un facteur limitant. En adoptant cette nouvelle architecture, AWS cherche à permettre aux entreprises de former plus rapidement et à moindre coût leurs propres modèles d'IA « souverains », sans dépendre entièrement de la chaîne d'approvisionnement de Nvidia.
🧠 RECHERCHE
Des modèles Code Foundation aux agents et applications : un guide pratique de l’intelligence du code
Ce guide décrit en détail comment l'IA apprend à programmer, en retraçant l'intégralité du processus, de la collecte des données à la création des outils finaux. En testant les meilleurs modèles, les auteurs mettent en lumière l'écart entre les résultats obtenus en laboratoire et les besoins réels, et proposent des conseils pratiques pour améliorer la précision, la sécurité et concevoir des assistants de programmation plus intelligents.
LongVT aide l'IA à comprendre les vidéos longues en se comportant comme un spectateur humain. Il analyse d'abord la vidéo entière, puis utilise des outils intégrés pour zoomer sur des extraits précis et importants afin d'en extraire des détails. Cette approche réduit les erreurs, comme l'invention d'informations, et surpasse les modèles actuels lors de tests complexes.
« Envision » est un nouveau test qui met l'IA au défi de générer des séquences d'images illustrant les relations de cause à effet, et non de simples images isolées. Les résultats montrent que les modèles généralistes comprennent mieux la narration visuelle que les outils artistiques spécialisés, mais tous peinent à maintenir la cohérence des détails lorsque la scène évolue.
📲 RÉSEAUX SOCIAUX
🗞️PLUS D'ACTUALITÉS
Anthropic acquiert Bun : Anthropic a racheté Bun, un outil ultra-rapide d’exécution de code. Cette acquisition renforce son robot de programmation, Claude Code (qui génère désormais 1 milliard de dollars par an), en lui permettant de développer des logiciels beaucoup plus rapidement et de manière plus fiable.
Hugging Face Transformers v5 : La dernière mise à jour de cette bibliothèque d’IA populaire simplifie la création de modèles par les développeurs. Elle prend désormais en charge plus de 400 architectures et facilite la migration des outils entre différents systèmes d’IA sans conversions complexes.
L'outil biométrique de YouTube : YouTube a lancé une fonctionnalité permettant de détecter les deepfakes de créateurs grâce à l'analyse de leurs données faciales et vocales. Cependant, des experts craignent que cela ne confère à Google un contrôle excessif sur l'image des individus pour l'entraînement de son intelligence artificielle.
Accord entre Nvidia et OpenAI : L’investissement colossal de 100 milliards de dollars de Nvidia dans OpenAI n’est pas encore officiel. Le directeur financier a confirmé qu’il ne s’agissait pour l’instant que d’un projet, et non d’un contrat signé, prévenant les investisseurs que l’accord pourrait évoluer ou ne jamais se concrétiser.
Mode de recherche IA de Google : Google teste une fonctionnalité qui transforme les résultats de recherche en conversation. Sur mobile, il est désormais possible d'appuyer sur un bouton dans les résumés IA pour poser des questions complémentaires, rendant la recherche plus interactive.
Chez Anthropic : des études montrent que les ingénieurs d’Anthropic sont 50 % plus productifs grâce à l’utilisation d’outils d’IA. Ils résolvent des problèmes plus complexes avec moins d’assistance, ce qui prouve que l’IA transforme en profondeur le travail dans le domaine du développement logiciel complexe.
Piratage de contrats intelligents par l'IA : L'équipe de sécurité d'Anthropic a utilisé l'IA pour pirater des contrats de cryptomonnaies et a découvert des failles cachées d'une valeur de 4,6 millions de dollars. Cela prouve que l'IA peut détecter des bugs qui échappent aux humains, ce qui signifie que les entreprises doivent utiliser l'IA pour protéger leurs systèmes.

