Nvidia donne un cerveau aux robots

Un chercheur clé quitte OpenAI, des millions de personnes consultent ChatGPT pour des conseils médicaux, et plus encore.

In partnership with

Aujourd'hui:

  • Nvidia donne un cerveau aux robots

  • Samsung intègre l'IA Google dans 800 millions d'appareils

  • Alexa débarque dans votre navigateur web

  • Un chercheur de premier plan quitte OpenAI

  • Des millions de personnes demandent des conseils médicaux à ChatGPT

Your competitors are already automating. Here's the data.

Retail and ecommerce teams using AI for customer service are resolving 40-60% more tickets without more staff, cutting cost-per-ticket by 30%+, and handling seasonal spikes 3x faster.

But here's what separates winners from everyone else: they started with the data, not the hype.

Gladly handles the predictable volume, FAQs, routing, returns, order status, while your team focuses on customers who need a human touch. The result? Better experiences. Lower costs. Real competitive advantage. Ready to see what's possible for your business?

Le grand coup de Nvidia, ce n'est pas juste "de nouveaux robots" — c'est la tentative de standardiser la pile technique de la robotique, comme le mobile s'est standardisé autour des app stores et des SDK.

Ils ont annoncé de nouveaux modèles "IA physique" en open source (leur terme pour des modèles capables de percevoir le monde réel, de raisonner et de planifier des actions), plus des outils pour rendre l'entraînement et l'évaluation des robots moins artisanaux. Jensen Huang a même parlé d'un "moment ChatGPT pour la robotique" — une formule audacieuse. Mais je comprends l'idée : les outils deviennent packagés, partageables et reproductibles au lieu d'être bricolés à la main.

Ce qui a été annoncé :

  • Modèles Cosmos (Transfer 2.5 + Predict 2.5) pour la simulation de mondes / données synthétiques et le test de politiques robotiques en simulation, plus Cosmos Reason 2 (un modèle de raisonnement vision-langage orienté "voir → comprendre → agir").

  • Isaac GR00T N1.6, un modèle vision-langage-action pour humanoïdes (contrôle du corps entier + raisonnement contextuel renforcé).

  • Isaac Lab-Arena, un framework open source d'évaluation et de benchmarking qui s'intègre aux benchmarks existants (les compétences des robots sont testées comme du logiciel).

  • OSMO, une couche d'orchestration pour exécuter des workflows robotiques sur des environnements mixtes (postes de travail + cloud), déjà intégrée à l'Azure Robotics Accelerator de Microsoft.

  • Un angle hardware aussi : Jetson T4000 (basé sur Blackwell), positionné comme un module haute efficacité pour robots et machines autonomes.

Ce qui compte vraiment : ils poussent fort sur "modèles ouverts + évaluations partagées + pipelines reproductibles". Si ça prend, c'est comme ça qu'on passe de "démo de robot cool" à "écosystème de développeurs robotiques".

Amazon déploie Alexa.com pour les utilisateurs Alexa+ Early Access, transformant Alexa en assistant IA web (voix et clavier). C'est Amazon qui admet ce qu'on a tous appris en 2024-2025 : les assistants ne peuvent pas vivre dans un seul endroit. Ils doivent vous suivre partout.

Quelques détails importants :

  • Amazon présente Alexa+ comme combinant "information et actions concrètes" (to-do lists, mises à jour de calendrier, contrôle domotique, réservations, etc.).

  • Ils insistent sur la continuité — votre contexte et vos préférences se synchronisent entre les interfaces (voix ↔ mobile ↔ web).

  • L'expérience web permet d'uploader des documents/images/emails pour qu'Alexa en extraie des infos utiles (ex : transformer une recette en liste de courses ou synchroniser des événements au calendrier), plus des intégrations shopping et domotique poussées.

Mon analyse : il s'agit moins de "Alexa devient ChatGPT" que de "Amazon livre enfin l'interface d'assistant que les gens utilisent vraiment au travail : une boîte de chat sur un laptop." Et s'ils arrivent à exécuter des tâches de façon fiable (pas juste discuter), ça devient addictif d'une façon que les chatbots purs ne sont souvent pas.

C'est le titre "discrètement énorme". Samsung prévoit de doubler le nombre d'appareils mobiles avec des fonctions Galaxy AI pour atteindre 800 millions d'unités en 2026 (contre 400 millions), dont beaucoup seront propulsées par Google Gemini, avec Bixby pour certaines tâches.

Deux points m'ont frappé :

  • Le co-CEO de Samsung, T.M. Roh, a déclaré vouloir appliquer l'IA à tous les produits, toutes les fonctions et tous les services "le plus vite possible".

  • Sur l'usage réel, il a dit que la recherche est la fonction IA la plus utilisée sur téléphone, suivie par les outils d'édition/productivité, la traduction et le résumé — bref : moins de "magie IA", plus d'"utilité IA".

Si Samsung atteint 800 millions d'unités, ce n'est pas qu'une histoire Samsung. C'est une histoire de distribution pour Gemini, car ça normalise une "couche IA" par défaut dans les comportements téléphoniques quotidiens à une échelle massive.

🧠 RECHERCHE

Des chercheurs ont créé NeoVerse, une IA qui construit des mondes 3D détaillés et animés à partir de vidéos standard filmées avec une seule caméra. En évitant le besoin de données multi-angles complexes, elle rend la création d'environnements 4D réalistes moins chère et plus rapide. Cette avancée permet de générer plus facilement des scènes 3D à partir de vidéos du quotidien.

Youtu-Agent est un nouveau système qui construit et améliore automatiquement des assistants IA, éliminant le besoin de configuration manuelle fastidieuse. Il permet à l'IA de créer ses propres outils et d'apprendre de l'expérience via un mélange de pratique et d'apprentissage par renforcement. Cela accélère considérablement le déploiement d'agents intelligents et adaptables.

Les IA actuelles peinent à retenir les longues conversations sans ralentir. Cette nouvelle mémoire "Fast-weight" se met à jour instantanément pendant la lecture, comme un bloc-notes dynamique. Cela permet aux modèles de traiter des volumes massifs de texte — jusqu'à 128 000 mots — même s'ils n'ont été entraînés que sur des extraits courts, améliorant significativement les performances.

📲 RÉSEAUX SOCIAUX

🗞️PLUS D'ACTUALITÉS

OpenAI perd un chercheur clé Jerry Tworek, chercheur clé derrière GPT-4 et ChatGPT, a quitté OpenAI après sept ans. Il serait parti à cause de désaccords avec Sam Altman sur la priorité donnée aux produits plutôt qu'à la recherche fondamentale. Tworek était instrumental dans le développement des nouveaux modèles de raisonnement — son départ signale des tensions croissantes au sein du géant de l'IA.

ChatGPT devient médecin ? 5% de tous les messages envoyés à ChatGPT concernent désormais la santé, avec 40 millions d'Américains qui l'utilisent quotidiennement pour des conseils médicaux. Cette vague est largement due aux personnes qui essaient de comprendre leurs factures d'assurance ou de vérifier des symptômes après avoir perdu leurs aides santé. Les experts alertent : s'appuyer sur le chatbot est risqué car il peut encore faire des erreurs confiantes mais dangereuses.

Le nouveau supercalculateur de NVIDIA NVIDIA a dévoilé "Rubin", une nouvelle plateforme de calcul conçue pour propulser la prochaine génération d'IA. Elle promet d'être bien plus efficace, réduisant le coût d'exécution des modèles IA par dix par rapport à la tech actuelle. Cette mise à niveau massive vise à aider les entreprises à construire des systèmes IA plus intelligents sans avoir besoin d'autant de puces coûteuses.

Une IA qui conduit comme un humain NVIDIA a aussi lancé "Alpamayo", une famille d'outils gratuits pour aider les voitures autonomes à réfléchir avant d'agir. Au lieu de simplement réagir à la route, ces systèmes utilisent le "raisonnement" pour gérer les situations complexes plus comme un conducteur humain. Ce logiciel agit comme un professeur, entraînant les véhicules autonomes à être plus sûrs et plus intelligents.

Un petit modèle IA qui frappe fort Un institut de recherche d'Abu Dhabi a publié un nouveau modèle IA appelé Falcon H1R qui surpasse largement sa catégorie. Malgré sa taille bien plus petite que ses concurrents, il prétend égaler les performances de modèles sept fois plus gros. Cette efficacité vient d'une architecture unique qui lui permet de traiter les données plus vite que les modèles IA standards.

Microsoft face au backlash "Microslop" Les utilisateurs des réseaux sociaux se moquent de Microsoft avec le surnom "Microslop" après que le CEO a publié un article de blog louant l'IA que beaucoup ont trouvé déconnecté. Le terme "slop" désigne le contenu de mauvaise qualité généré par IA qui envahit internet et agace les utilisateurs. Cette tendance illustre une frustration grandissante envers les entreprises tech qui forcent des fonctions IA dans des produits où les gens n'en veulent pas.

🎬DERNIÈRES VIDÉOS