- l'AGI ARRIVE, Préparez-vous
- Posts
- GPT-5 : pourquoi le lancement a tourné au fiasco - Altman s'explique
GPT-5 : pourquoi le lancement a tourné au fiasco - Altman s'explique
PLUS : Nouvelle IA par Diffusion de ByteDance : génération de code 5,4 fois plus rapide, OpenAI bat Grok de Musk dans AI Chess, Gemini 3 et plus ...

Aujourd'hui:
GPT-5 : pourquoi le lancement a tourné au fiasco - Altman s'explique
Nvidia et AMD acceptent une réduction de 15 % sur leurs prix américains pour vendre des puces d'IA en Chine
IA par diffusion de ByteDance : génération de code 5,4 fois plus rapide
OpenAI bat Grok d'Elon Musk aux échecs IA ; Gemini est 3e
Quand on cherche “automatisation débutant”, on tombe sur du code illisible, du jargon et des vidéos qui sautent des étapes. J’ai créé VISION IA pour corriger ça et donner aux vrais débutants ce que j’aurais voulu avoir.
Si vous voulez gagner des heures, scaler sans embaucher ou lancer votre agence, commencez par n8n : l’automatisation comme un schéma, zéro code, gratuit pour démarrer. La première étape, c’est d’apprendre n8n.
J’ai préparé une masterclass pas-à-pas pour débutants :
L’humanité bascule. Ne ratez pas le tournant.
Vision IA®
Sam Altman a utilisé une AMA sur Reddit pour expliquer le déploiement difficile de GPT-5 après le lancement de jeudi. Un « routeur » défectueux – le système qui sélectionne les réponses des modèles – a fait paraître GPT-5 pire que 4o. Il a promis des correctifs rapides, des étiquettes de modèles plus claires et des limites d'invite doublées pour les utilisateurs de Plus. Il pourrait autoriser Plus à continuer d'utiliser 4o. Un « crime graphique » dans le deck de lancement a suscité des moqueries, et les critiques ont signalé des faiblesses. Altman a conclu en promettant stabilité et retours continus.

Pourquoi c'est important
Le déploiement dans le monde réel est difficile : un sélecteur de modèle cassé a modifié les résultats, montrant que la fiabilité et les sauvegardes sont importantes.
Ouverture et choix : étiqueter le modèle qui répond et éventuellement restaurer 4o pour renforcer la confiance et permettre de meilleurs tests.
Accès et responsabilité : des limites d'invite plus élevées permettent aux utilisateurs de tester davantage, et l'erreur graphique pousse les entreprises d'IA à présenter des résultats de test honnêtes.
Nvidia et AMD verseront au gouvernement américain 15 % des revenus des puces d'IA vendues en Chine – H20 de Nvidia et MI308 d'AMD – afin d'obtenir des licences d'exportation (autorisation gouvernementale de vendre à l'étranger). Cet accord s'inscrit dans le cadre de négociations avec l'administration Trump, rapporte Bloomberg, citant une source proche du dossier. Le Financial Times en a été le premier à faire état. Cet accord pourrait augmenter les coûts en Chine, remodeler les stratégies d'approvisionnement et de vente de puces et limiter les options futures des acheteurs.
Pourquoi c'est important
Le coût ou la rareté des puces en Chine pourraient ralentir la formation à l’IA et le lancement de produits.
Cela crée un précédent : les gouvernements qui prélèvent une part pour permettre les ventes peuvent s’étendre à d’autres marchés.
Cela accélère la volonté de la Chine de fabriquer des puces d'IA locales, creusant ainsi le fossé entre les écosystèmes d'IA américains et chinois.
ByteDance a dévoilé Seed Diffusion Preview , un générateur de code qui génère des jetons (petits morceaux de code) simultanément plutôt qu'un par un. Il adapte la diffusion, généralement utilisée pour les images, au code discret. Fonctionnant sur des GPU Nvidia H20, il revendique 2 146 jetons par seconde. L'apprentissage en deux étapes (masquage, puis insertions/suppressions) et l'ordre par blocs améliorent la précision. L'apprentissage selon les politiques apprend au modèle à réduire les étapes. Les tests démontrent une vitesse et une qualité compétitives, notamment pour les modifications de code.
Pourquoi c'est important
Outils plus rapides : la génération parallèle peut dépasser les modèles jeton par jeton, accélérant ainsi les assistants de codage.
Utilisation efficace du matériel : un débit élevé sur H20 suggère de bonnes performances sans puces haut de gamme.
Nouvelle voie : adapter la diffusion au code suggère une meilleure édition du texte/code, une correction des bogues et éventuellement un raisonnement plus large.
🧠 RECHERCHE
L'article propose le réglage fin dynamique, une modification de l'apprentissage qui améliore la généralisation des modèles linguistiques. Ce réglage adapte la mise à jour de l'apprentissage de chaque mot à sa probabilité prédite. Cela corrige les problèmes de récompense liés à l'entraînement supplémentaire, le surpasse sur les benchmarks et rivalise avec l'apprentissage par renforcement hors ligne.
R-Zero enseigne un modèle de langage sans jeux de données créés par l'homme. Deux copies s'améliorent ensemble : un Challenger invente des tâches proches des limites du solveur ; un Solver tente de les résoudre. Chacun est récompensé et s'améliore. Ce programme autodidacte améliore les scores de raisonnement aux tests de mathématiques et généraux, améliorant notamment les petits modèles de base.
Genie Envisioner est une plateforme permettant d'apprendre aux robots à manipuler des objets. Elle apprend et génère des vidéos pour modéliser l'évolution du monde, puis transforme ces séquences vidéo en actions étape par étape. Un simulateur reproduit virtuellement les actions à des fins d'entraînement et de test. Une suite de tests vérifie le réalisme, les propriétés physiques et le suivi des instructions.
📲 RÉSEAUX SOCIAUX
Google a une très grande fenêtre d’opportunité. S’ils sortent Gemini 3 maintenant, et qu’il est supérieur à GPT-5 (ce qui est très probable), ce sera un coup dur de plus pour OpenAI.
Ils commencent à s'accumuler, entre les attaques de Zuckerberg et de Musk, Altman est mal
— VISION IA (@vision_ia)
4:00 PM • Aug 10, 2025
En réponse à ChatGPT-5, Elon Musk rend Grok 4 gratuit pour tous les utilisateurs, avec un certain nombre de requêtes par jour.
À noter qu’il ne s’agit pas de Grok 4 Heavy : ne vous attendez pas à des miracles, mais c’est tout de même une excellente nouvelle pour tout le monde !
— VISION IA (@vision_ia)
6:30 AM • Aug 11, 2025
Le PDG d'Open Ai réapparait après 2 jours de silence radio et... admet un erreur.
Update de GPT-5 :
Sam Altman : "Si vous avez suivi le déploiement de GPT-5, vous avez peut-être remarqué à quel point certaines personnes développent un attachement fort à des modèles d’IA
— VISION IA (@vision_ia)
7:10 AM • Aug 11, 2025
🗞️PLUS D'ACTUALITÉS
o3 (OpenAI) a battu Grok 4 (xAI) lors d'une épreuve d'échecs pour l'IA quotidienne. Grok a commis une erreur et a perdu sa reine. Gemini (Google) s'est classé troisième. Ce résultat accentue la rivalité entre OpenAI et Musk et met en lumière le raisonnement.
Roblox partagera le code de son outil d'intelligence artificielle permettant de détecter les adultes manipulant les enfants dans les conversations. Sentinel analyse des extraits, évalue les tendances dans les conversations, signale les suspects pour examen humain et a généré 1 200 signalements d'exploitation d'enfants en 2025.
Le nouvel outil de recherche d'IA de Truth Social contredit Donald Trump. Il affirme que les droits de douane taxent les Américains, que l'élection de 2020 n'a pas été volée et que le 6 janvier a été une « insurrection », mettant en lumière les tensions entre les logiciels de recherche d'informations et les messages.
Les fonctionnalités d'IA d'Apple utiliseront GPT-5 dans iOS 26, le prochain logiciel de l'iPhone. Elles utilisent actuellement GPT-4o. GPT-5 est déjà disponible dans ChatGPT. Les mises à jour arriveront cet automne ; OpenAI compte 700 millions d'utilisateurs hebdomadaires.
OpenArt , une startup de vidéo IA, a lancé une « histoire en un clic » permettant de transformer une phrase, un script ou une chanson en clips d'une minute pour « décompresser ». L'application met l'accent sur la cohérence des personnages, présente des risques de droits d'auteur, compte 3 millions d'utilisateurs, d'abonnements, de financement et de croissance des revenus.
Les chercheurs de Nvidia affirment que les petits modèles de langage peuvent effectuer la plupart des tâches d'assistant aussi bien que les chatbots géants, à moindre coût et avec moins d'énergie ; par défaut, les petits modèles sont réservés aux cas rares et complexes.
Un recruteur ordinaire a passé 300 heures à discuter avec ChatGPT, se laissant aller à des illusions sur une formule révolutionnaire. L'expérience montre comment les robots persuasifs peuvent provoquer des troubles mentaux, provoquer des hospitalisations, des divorces, des décès et susciter des inquiétudes quant au renforcement des mesures de protection.