- l'AGI ARRIVE, Préparez-vous
- Posts
- OpenAI lance l'assistant de codage Codex
OpenAI lance l'assistant de codage Codex
Mais aussi : Apple relance le projet Siri basé sur le LLM, Anthropic s'excuse pour une erreur juridique et plus encore.

Aujourd'hui:
OpenAI lance l'assistant de codage Codex
Nvidia envisage d'investir dans PsiQuantum
Apple relance le projet Siri basé sur le LLM
Anthropic présente ses excuses pour une erreur juridique
Ne restez pas à la traîne. Maîtrisez les dernières innovations en IA et propulsez votre carrière vers de nouveaux sommets. Inscrivez-vous maintenant et devenez un leader en IA. 49,00 € 99,00 € |
OpenAI a lancé aujourd'hui Codex , un outil d'aide au codage basé sur le cloud capable de gérer simultanément plusieurs tâches. Basé sur codex-1, un modèle formé sur des projets réels grâce à l'apprentissage par l'essai et la récompense (apprentissage par le feedback), Codex lit, modifie et teste le code dans un espace de travail sécurisé et isolé (un conteneur verrouillé). Il enregistre chaque étape, suit des fichiers de guide simples et est déployé pour les utilisateurs ChatGPT Pro, Enterprise et Team. Un accès plus large et une tarification à l'utilisation seront proposés ultérieurement.

Pourquoi c'est important
Un pas vers l’ingénierie logicielle autonome — Codex montre que l’IA peut gérer des tâches de codage parallèles de bout en bout, laissant entrevoir de futurs pipelines de développement autogérés.
Accent sur la transparence et la sécurité — L'agent enregistre chaque action et refuse les demandes malveillantes, offrant ainsi un modèle pratique pour un déploiement responsable de l'IA.
Impact plus large sur l'écosystème — Grâce à la tarification, à la prise en charge de l'interface CLI et à l'intégration de GitHub, Codex pourrait accélérer l'adoption de l'IA dans les flux de travail quotidiens des développeurs, influençant ainsi les normes d'outillage à l'échelle de l'industrie.
Nvidia est sur le point de financer PsiQuantum , une startup qui développe des ordinateurs quantiques utilisant des particules lumineuses. PsiQuantum vise au moins 750 millions de dollars pour une valeur de 6 milliards de dollars. Cet accord constituerait le premier pari de Nvidia sur du matériel capable de surpasser les puces actuelles et s'inscrit dans la vision plus nuancée de son PDG Jensen Huang sur la technologie quantique. PsiQuantum espère que des millions de « qubits » – de minuscules unités pouvant être à la fois 0 et 1 – permettront à terme de résoudre plus rapidement des problèmes de chimie et autres.
Pourquoi c'est important
Le soutien de Nvidia montre que le principal fabricant de puces d'IA considère désormais les machines quantiques comme de futurs partenaires pour les processeurs d'IA, laissant entrevoir des systèmes mixtes IA-quantiques.
Accélère la recherche quantique basée sur la lumière Des fonds supplémentaires pourraient aider PsiQuantum à atteindre plus rapidement des qubits « photoniques » (alimentés par la lumière) fiables, permettant ainsi une découverte plus rapide de médicaments et une modélisation des matériaux qui alimentent la science de l'IA.
Renforce la confiance des investisseurs Lorsque le principal fournisseur de GPU investit, cela encourage davantage de financement pour les startups qui combinent des idées quantiques et d'IA, élargissant ainsi le pipeline d'innovation.
Le redémarrage d'Apple, son département d'intelligence artificielle en difficulté, s'articule autour d'un nouveau Siri basé sur un LLM , un modèle massif entraîné par du texte. La direction a hésité à financer l'IA, a tardé à démarrer et a tenté d'intégrer un nouveau code de chatbot à l'ancien Siri, générant ainsi des bugs. Le marketing a surestimé les fonctionnalités inachevées. Une équipe zurichoise réécrit Siri avec ce modèle, en utilisant des données privées sur l'appareil et des recherches web, tandis que le responsable de l'IA, John Giannandrea, est mis à l'écart – pour l'instant, dans l'espoir d'une reprise.
Pourquoi c'est important
La preuve que le design l'emporte sur le patchwork – le passage d'Apple de correctifs « à ajouter » à une reconstruction complète du LLM montre que les grandes entreprises considèrent de plus en plus une architecture d'IA vierge comme le seul moyen d'être compétitives.
Expérience de formation axée sur la confidentialité – L’utilisation du langage de messagerie électronique sur l’appareil pour créer des données de formation synthétiques pourrait créer un précédent en matière de collecte de données préservant la confidentialité dans l’IA grand public.
Effet d'entraînement sur le marché – La correction de trajectoire d'Apple pourrait inciter ses concurrents et ses investisseurs à financer des mises à niveau d'assistants plus approfondies et centrées sur les modèles dans l'ensemble du secteur.
🧠 RECHERCHE
Les chercheurs ont amélioré le raisonnement des modèles d'IA en les entraînant à penser selon trois modes spécifiques : la déduction (logique), l'induction (modèles) et l'abduction (meilleures hypothèses). Cette approche rend les modèles plus cohérents et précis, améliorant ainsi leurs performances dans des tâches comme les mathématiques, le codage et les sciences, sans dépendre de moments « aha ! » aléatoires.
La mise à l'échelle parallèle est une nouvelle méthode pour optimiser les performances des modèles de langage sans augmenter les coûts liés à la taille ou à la vitesse. En exécutant plusieurs versions d'un même modèle en parallèle et en combinant leurs résultats, les chercheurs ont obtenu des gains de mémoire et des résultats plus rapides. Cette méthode est efficace, flexible et compatible avec les modèles existants.
Cet article propose une nouvelle approche pour améliorer les performances de l'IA en optimisant les invites système (les instructions de base qui guident un modèle d'IA) grâce au méta-apprentissage. Contrairement aux méthodes précédentes axées sur des invites spécifiques à une tâche, cette approche crée des invites générales qui fonctionnent bien pour de nombreuses tâches, améliorant ainsi l'adaptabilité et les performances avec moins d'ajustements.
📲 RÉSEAUX SOCIAUX
Les LLM ne comprendront jamais le monde réel.
Pourquoi ? Parce qu’ils prédisent des tokens, pas la physique.
Selon Yann LeCun, la vraie IA ne viendra pas du texte, mais de modèles du monde : des systèmes qui simulent la réalité dans toute sa continuité.
Vous pariez sur le bon
— VISION IA (@vision_ia)
7:01 PM • May 17, 2025
Bientôt sur Amazon :
— VISION IA (@vision_ia)
10:03 AM • May 18, 2025
Un autre exemple génial de cette technologie :
— VISION IA (@vision_ia)
8:46 PM • May 18, 2025
🗞️PLUS D'ACTUALITÉS
Anthropic a admis que son chatbot Claude AI avait causé une erreur de citation dans un dossier juridique, modifiant par erreur des informations qui ont fait passer un article authentique pour un faux. L'entreprise a présenté ses excuses, qualifiant cette erreur d'« embarrassante et involontaire ».
Stability AI et Arm ont lancé un petit modèle d'IA open source qui transforme le texte en son sur les smartphones. Il crée des clips stéréo de 11 secondes en 7 secondes, excelle dans les effets sonores et fonctionne efficacement sur les appareils grand public.
Nvidia a dévoilé NVLink Fusion, une nouvelle technologie permettant d'accélérer la communication entre les puces d'IA, qu'elle commercialisera auprès d'autres fabricants. Son PDG, Jensen Huang, a également annoncé l'ouverture d'un siège social à Taïwan et le lancement prochain de nouveaux systèmes d'IA de bureau.
Une start-up chinoise, Synyi AI , a lancé en Arabie saoudite la première clinique au monde gérée par l'IA. Le système, baptisé « Dr Hua », établit des diagnostics et prescrit des traitements de manière autonome, marquant ainsi une évolution majeure vers le remplacement des médecins par l'IA pour les soins de base.
La Chine a lancé les 12 premiers des 2 800 satellites prévus pour construire un supercalculateur spatial alimenté par l'IA. Chaque satellite peut traiter les données de manière autonome, réduisant ainsi la dépendance aux stations terrestres et permettant d'obtenir des informations en temps réel.