- l'AGI ARRIVE, Préparez-vous
- Posts
- L'activité de Gemini explose chez Google
L'activité de Gemini explose chez Google
AUSSI : Meta recrute une poid lourd de la politique pour piloter son infrastructure IA, la licorne chinoise Moonshot AI bondit à 4,8 milliards de dollars, et plus encore.

Aujourd'hui:
L'activité entreprise de Gemini explose chez Google
OpenAI dévoile sa vision : l'IA comme service public scalable
Un ex-responsable politique d'OpenAI lance un auditeur indépendant pour l'IA
Meta recrute Dina Powell McCormick pour piloter son infrastructure IA
La licorne chinoise Moonshot AI bondit à 4,8 milliards de dollars
Vous aimez Vision IA ? Découvrez de nouvelles émissions dédiées aux merveilles de la science. Espace, nature, médecine, découvertes fascinantes... Explorez l'univers autrement. |

La poussée de Google sur Gemini Enterprise semble se transformer en véritable adoption, pas juste en buzz marketing. Le signal le plus clair : la demande API. Un rapport citant des données internes indique que les requêtes API Gemini sont passées de ~35 milliards en mars à ~85 milliards en août — plus du double en cinq mois. La montée a commencé après Gemini 2.5 et s'est poursuivie avec Gemini 3.
Quelques détails supplémentaires qui rendent ça plus intéressant qu'un simple gros chiffre :
Google annonce que Gemini Enterprise compte 8 millions d'abonnés répartis sur ~1 500 entreprises, plus environ 1 million d'inscriptions en ligne
Les retours sont partagés : certains utilisateurs adorent l'angle "connexion aux données de l'entreprise", mais d'autres disent que c'est solide pour les questions-réponses basiques et plus faible sur les tâches spécialisées et la création d'apps personnalisées
Tout ça s'appuie sur le positionnement de Google de "Gemini Enterprise" comme plateforme business avec laquelle on peut discuter à travers les données, documents et applications de l'entreprise
Pourquoi c'est important :
Si ces chiffres se confirment, c'est le signal le plus clair que Google ne fait pas que "rattraper son retard sur les modèles" — l'entreprise convertit sa distribution + son packaging entreprise en demande soutenue. C'est la différence entre une course aux démos et une course aux revenus.
Le nouveau post de Sarah Friar chez OpenAI est essentiellement un plan de bataille : l'entreprise affirme que son modèle économique est conçu pour scaler avec la valeur délivrée — abonnements, APIs à l'usage, et maintenant commerce + publicité dans ChatGPT (avec l'emphase sur le fait que ça doit être clairement identifié et réellement utile).
Deux lignes qui font beaucoup de travail :
OpenAI dit que le revenu suit la capacité de calcul disponible et partage une trajectoire simple : compute ~0,2 GW (2023) → 0,6 GW (2024) → ~1,9 GW (2025), tandis que le revenu est passé de 2 milliards $ ARR (2023) → 6 milliards $ (2024) → 20 milliards $+ (2025)
La priorité 2026 est sans détour : "adoption pratique" — combler l'écart entre ce que l'IA peut faire et ce que les gens utilisent vraiment au quotidien
Sous le capot, le pivot stratégique c'est "le compute comme portefeuille géré" : entraîner les modèles frontier là où la performance compte, servir les charges de travail à haut volume sur une infrastructure moins chère là où l'efficacité compte, et garder les contrats flexibles entre fournisseurs et matériels.
Pourquoi c'est important :
C'est OpenAI qui dit au monde : "On ne va pas tarifer l'intelligence comme des licences logicielles pour toujours — on la tarifie comme des résultats et du débit." C'est aussi un message pas si subtil aux concurrents : la distribution c'est bien, mais la certitude compute est le vrai fossé défensif.
Miles Brundage (ancien responsable de la recherche politique chez OpenAI) a lancé AVERI, une organisation à but non lucratif focalisée sur l'audit tiers de l'IA de pointe pour le rendre "efficace et universel", et qui s'oppose à la norme actuelle où les entreprises se notent elles-mêmes.
La définition d'AVERI est importante : auditer signifie une vérification tierce rigoureuse des affirmations de sécurité/sûreté, évaluée selon des standards, avec un accès profond et sécurisé à des informations non publiques.
Ils proposent aussi des Niveaux d'Assurance IA (AAL-1 à AAL-4) pour que les audits ne soient plus juste des impressions — mais lisibles et comparables.
Et ils argumentent que les audits devraient couvrir quatre catégories de risques :
Usage malveillant intentionnel (ex : cyberattaques)
Comportement système non intentionnel (ex : erreurs nuisibles)
Sécurité de l'information (ex : vol de modèle/données)
Dommages sociaux émergents (ex : addiction / facilitation de l'automutilation)
Pourquoi c'est important :
Le marché commence à exiger une "confiance prouvable", pas "faites confiance à notre article de blog". Si les acheteurs entreprise, les assureurs ou les régulateurs commencent à exiger des audits crédibles, ça devient un nouveau type de barrière à l'entrée pour les labos de pointe.
🧠 RECHERCHE
Des chercheurs ont identifié une tactique sournoise appelée l'effet "Pomme Empoisonnée" : des entreprises lancent des outils IA qu'elles n'ont pas l'intention d'utiliser, juste pour forcer les régulateurs à modifier les règles du marché en leur faveur. Cette manipulation montre que les lois actuelles sont trop lentes et doivent s'adapter rapidement à la façon dont les agents IA se font réellement concurrence.
Apprendre à l'IA à utiliser des outils logiciels nécessite habituellement des données coûteuses et créées à la main. Une nouvelle méthode appelée GEM résout ça en extrayant les étapes de résolution de problèmes cachées dans des documents texte ordinaires pour créer des leçons d'entraînement. Cette approche permet à l'IA d'apprendre des tâches complexes multi-étapes à partir de contenu internet existant sans supervision humaine.
Créer des objets numériques 3D nécessite habituellement des photos de studio parfaites. Un nouveau système nommé ShapeR peut construire des modèles 3D détaillés à partir de vidéos tremblantes et imparfaites prises avec des téléphones ordinaires. Il utilise des astuces logicielles ingénieuses pour ignorer le fouillis d'arrière-plan et les détails manquants, rendant beaucoup plus facile la transformation d'objets du monde réel en objets virtuels.
📲 RÉSEAUX SOCIAUX
🗞️PLUS D'ACTUALITÉS
Meta recrute une poids lourd politique pour son offensive IA Meta a nommé Dina Powell McCormick, ancienne conseillère de Trump et cadre dirigeante chez Goldman Sachs, comme nouvelle présidente et vice-présidente du conseil. Elle supervisera le plan massif de l'entreprise pour construire les systèmes physiques nécessaires à l'intelligence artificielle : data centers et centrales électriques. Ce recrutement suggère que Meta priorise les connexions politiques et financières solides pour sécuriser les ressources dont elle a besoin pour dominer l'industrie.
La startup chinoise d'IA Moonshot atteint 4,8 milliards de valorisation Moonshot AI, une startup soutenue par les géants tech chinois Alibaba et Tencent, a vu sa valorisation bondir à 4,8 milliards de dollars lors d'un récent tour de financement. Alors que ses concurrents locaux se sont précipités pour vendre des actions au public afin de lever des fonds, Moonshot choisit de rester privée pendant que son prix continue de grimper. Cette croissance rapide illustre la demande intense pour les outils IA domestiques en Chine, où les services américains comme ChatGPT ne sont pas disponibles.
De nouvelles données pour corriger les traductions IA bancales Hugging Face a publié une collection massive de textes traduits conçue pour aider les ordinateurs à apprendre les langues plus naturellement. Le projet vise à éliminer le "traductionais" — ces formulations rigides et peu naturelles qui résultent souvent quand l'IA traduit les mots littéralement plutôt que de capturer le sens voulu. Cet effort se concentre particulièrement sur l'amélioration de la qualité pour les langues qui manquent actuellement de données suffisantes pour un entraînement IA efficace.
Microsoft identifie les métiers les plus "exposés" à l'IA Un nouveau rapport de Microsoft Research liste 40 professions les plus susceptibles d'être affectées par l'intelligence artificielle, ciblant spécifiquement les rôles qui impliquent l'écriture, la planification et le traitement de l'information. Les chercheurs précisent qu'être "exposé" ne signifie pas que ces emplois vont disparaître, mais plutôt que les tâches quotidiennes vont changer drastiquement à mesure que l'IA gère le travail routinier. L'étude suggère que les travailleurs de ces domaines devraient se concentrer sur l'apprentissage du travail aux côtés de ces outils pour rester pertinents.
Les nouveaux dirigeants de Sequoia valident l'investissement dans Anthropic La nouvelle équipe dirigeante de Sequoia Capital a approuvé un premier investissement dans Anthropic dans le cadre d'une levée de fonds massive de 25 milliards de dollars. Cela marque un virage stratégique brutal, l'ancien patron du fonds ayant refusé de soutenir l'entreprise par loyauté envers d'autres investissements IA. L'opération est menée par des investisseurs mondiaux majeurs et devrait doubler la valorisation d'Anthropic en quelques mois seulement.
Crise chez la startup IA de Mira Murati Thinking Machines, l'entreprise d'IA lancée par l'ancienne directrice technique d'OpenAI Mira Murati, est en pleine tourmente après qu'elle a licencié un co-fondateur et que plusieurs chercheurs de premier plan ont démissionné pour rejoindre un concurrent. Ces départs soudains ont ébranlé la confiance des investisseurs au moment même où l'entreprise tente de lever des fonds à une valorisation de 50 milliards de dollars. Ce chaos interne soulève de sérieuses questions sur la stabilité et le leadership de la startup, un an seulement après sa fondation.


