- l'AGI ARRIVE, Préparez-vous
- Posts
- OpenAI & Cerebras : La quête de l'IA instantanée
OpenAI & Cerebras : La quête de l'IA instantanée
AUSSI : Anthropic recrute le co-fondateur d'Instagram pour "Labs", le pari massif sur un cerveau universel pour robots, et plus encore.

Aujourd'hui:
OpenAI & Cerebras : La quête de l'IA instantanée
Gemini devient enfin "personnel" avec vos données
GPT-5.2 Codex : Un nouveau poids lourd pour le code
Anthropic recrute le co-fondateur d'Instagram pour "Labs"
Le pari massif sur un cerveau universel pour robots
Vous aimez Vision IA ? Découvrez de nouvelles émissions dédiées aux merveilles de la science. Espace, nature, médecine, découvertes fascinantes... Explorez l'univers autrement. |

OpenAI vient d'annoncer un partenariat avec Cerebras pour ajouter 750 MW de calcul ultra basse latence à sa plateforme. Le déploiement se fera par tranches successives jusqu'en 2028.
Ce qui m'a frappé, ce n'est pas juste l'échelle — c'est le pourquoi. OpenAI présente cet accord comme un moyen de rendre la boucle "requête → réflexion → réponse" sensiblement plus rapide, surtout quand vous générez du code, des images, ou faites tourner des workflows d'agents.
Plusieurs médias rapportent également que l'accord vaut plus de 10 milliards de dollars.
Pourquoi c'est important :
On a dépassé la phase où "plus intelligent" était la seule amélioration qui comptait. Maintenant c'est plus intelligent et plus réactif — et ça change les comportements. Les gens itèrent davantage, posent des questions plus complexes, et laissent les agents tourner plus longtemps quand ça ne donne plus l'impression d'attendre.
En clair : la latence n'est plus un détail technique. C'est ce qui sépare "outil sympa" de "indispensable au quotidien".
OpenAI a ouvert GPT-5.2-Codex aux développeurs via la Responses API. Jusqu'ici, ce modèle était cantonné à l'environnement Codex. C'est fini.
Voici les détails pratiques importants tirés de la documentation :
Il accepte texte + images en entrée (sortie texte uniquement) — vous pouvez donc lui envoyer des captures d'écran ou des diagrammes en plus de vos instructions
Il propose des niveaux d'effort de raisonnement : low / medium / high / xhigh
Tarification : 1,75 $ / million de tokens en entrée et 14 $ / million de tokens en sortie (avec réduction pour les entrées en cache)
Pourquoi c'est important :
C'est la différence entre "démo cool" et "on peut l'intégrer dans notre pipeline". Une fois dans la Responses API, ce modèle peut s'intercaler derrière vos revues de code, vos refactorisations, vos migrations, vos chasses aux bugs — toutes ces tâches rébarbatives qu'on ne veut jamais faire deux fois.
Pour les équipes de dev, c'est un game-changer : le meilleur modèle de code d'OpenAI devient un composant qu'on peut appeler comme n'importe quelle autre brique logicielle.
Google vient d'annoncer Personal Intelligence pour l'app Gemini — une bêta (d'abord aux États-Unis) qui connecte Gemini à vos apps Google en un clic : Gmail, Photos, YouTube, Search.
Quelques détails clés faciles à rater :
C'est opt-in : vous choisissez quelles apps connecter, vous pouvez tout couper, déconnecter des apps individuellement, et supprimer l'historique de conversation
Déploiement en cours pour les abonnés Google AI Pro et AI Ultra éligibles aux États-Unis ; pas pour les comptes Workspace au lancement
Google mentionne ouvertement les risques de "sur-personnalisation" (l'IA qui interprète trop vos données) et demande aux utilisateurs de signaler les mauvaises inférences avec le pouce vers le bas
Pourquoi c'est important :
C'est le vrai champ de bataille pour les assistants : pas juste "connaît internet", mais vous connaît vous — avec un accès autorisé au contexte bordélique de votre vie.
On passe d'un assistant générique à un assistant contextuel. La question n'est plus "est-ce que l'IA sait répondre ?" mais "est-ce qu'elle sait de quoi je parle ?". Google vient de franchir un cap.
🧠 RECHERCHE
X-Coder est un modèle de code entraîné uniquement sur des données synthétiques pour exceller en programmation compétitive. Grâce à un pipeline sur mesure qui génère des tâches complexes et leurs solutions, ce "petit" modèle de 7 milliards de paramètres surpasse des rivaux bien plus gros. La preuve que des données artificielles de haute qualité peuvent remplacer les exemples du monde réel pour enseigner le raisonnement avancé.
GlimpRouter réduit les coûts de l'IA en routant intelligemment les requêtes entre un modèle bon marché et un modèle de raisonnement puissant. L'astuce : le modèle puissant ne génère qu'un seul "token de pensée" initial, ce qui suffit au système pour évaluer la difficulté. Résultat : seuls les problèmes difficiles vont vers le modèle cher, les faciles sont traités à moindre coût.
MegaFlow est un système distribué conçu pour orchestrer des millions d'agents IA en même temps. Il s'attaque aux défis de scalabilité comme la planification et la tolérance aux pannes, tout en offrant une interface simple aux développeurs pour construire des workflows d'agents complexes et à grande échelle — quelque chose qui était très difficile à gérer efficacement jusqu'ici.
📲 RÉSEAUX SOCIAUX
🗞️PLUS D'ACTUALITÉS
Anthropic Labs : nouveau patron Mike Krieger, co-fondateur d'Instagram, rejoint Anthropic pour diriger leur division "Labs", une équipe spéciale dédiée à la création de nouveaux produits IA expérimentaux. Il pilotera le groupe aux côtés du responsable de l'ingénierie produit pour transformer les modèles IA en outils concrets utilisables par tous. Ce mouvement signale que l'entreprise veut aller au-delà des chatbots pour créer des applications et fonctionnalités peaufinées pour le monde réel.
Skild AI triple sa valorisation La startup robotique Skild AI vient de lever 1,4 milliard de dollars, ce qui triple sa valorisation totale à 14 milliards. Leur ambition : construire un "cerveau" universel capable d'apprendre à contrôler n'importe quel type de robot, des machines d'entrepôt aux futurs assistants domestiques. Ce financement massif de gros investisseurs comme SoftBank leur permet de recruter plus de talents et d'accélérer leur mission de rendre les robots utiles au quotidien.
Kaggle lance les Community Benchmarks La plateforme de data science de Google, Kaggle, a lancé une nouvelle fonctionnalité permettant à n'importe qui de créer ses propres tests pour évaluer l'intelligence des différents modèles IA. Au lieu de se fier uniquement aux scores officiels des géants tech, les développeurs peuvent maintenant construire des challenges personnalisés pour voir quelle IA gère le mieux des tâches spécifiques. Ça aide à trouver l'IA parfaite pour vos besoins en regardant les résultats d'expériences réelles plutôt que des examens standardisés.
Nouveautés chez Thinking Machines Lab Mira Murati, l'ancienne directrice technique d'OpenAI, a lancé une nouvelle entreprise appelée Thinking Machines Lab, déjà valorisée à 12 milliards de dollars. Plutôt que de construire des cerveaux IA toujours plus gros et plus chers, son équipe publie des outils qui aident les développeurs à affiner les modèles existants pour les rendre plus intelligents et efficaces sur des tâches spécifiques. Leur premier produit, Tinker, permet de personnaliser facilement des modèles IA ouverts sans avoir besoin d'un supercalculateur.
ChatGPT Translate : le nouvel outil de traduction OpenAI a discrètement lancé une page de traduction dédiée qui concurrence directement Google Translate, permettant de convertir du texte entre langues avec une grande précision. Contrairement aux anciens outils de traduction qui peuvent sonner robotiques, cette nouvelle fonctionnalité utilise une IA avancée pour comprendre le contexte subtil et la culture derrière les mots. C'est actuellement gratuit et l'objectif est de rendre la communication entre langues beaucoup plus naturelle et humaine.
Microsoft et Anthropic : partenariat surprise Malgré son statut de plus gros investisseur d'OpenAI, Microsoft a signé un accord majeur pour vendre les modèles IA de son rival Anthropic à ses propres clients entreprise. En échange, Anthropic s'est engagé à dépenser des milliards de dollars en location de serveurs cloud Microsoft pour faire tourner sa technologie. Ce partenariat montre que Microsoft veut offrir toutes les options IA de premier plan à ses clients, même si cela implique de travailler avec le plus gros concurrent de son partenaire.


