- l'AGI ARRIVE, Préparez-vous
- Posts
- OpenAI investit dans une startup d'interface cerveau-ordinateur
OpenAI investit dans une startup d'interface cerveau-ordinateur
AUSSI : OpenAI veut rapatrier la chaîne d'approvisionnement IA aux États-Unis, Microsoft lance une formation IA gratuite pour les écoles, et plus encore.

Aujourd'hui:
OpenAI investit dans une startup d'interface cerveau-ordinateur
OpenAI veut rapatrier la chaîne d'approvisionnement IA aux États-Unis
Microsoft lance une formation IA gratuite pour les écoles
Google dévoile TranslateGemma pour abolir les barrières linguistiques
Wikipedia fête ses 25 ans et signe avec les géants de la tech
Vous aimez Vision IA ? Découvrez de nouvelles émissions dédiées aux merveilles de la science. Espace, nature, médecine, découvertes fascinantes... Explorez l'univers autrement. |

OpenAI annonce sa participation au tour de financement seed de Merge Labs, une startup spécialisée dans les interfaces cerveau-ordinateur (BCI). Leur conviction : ces technologies pourraient devenir le moyen le plus naturel et humain d'interagir avec l'IA.
Ce qui m'a frappé : OpenAI présente cet investissement comme un "saut d'interface" — le même type de bond qu'on a vu avec le passage de la ligne de commande → à la souris → au tactile → à la voix… sauf que celui-ci concerne l'expression de l'intention avec beaucoup moins de friction.
Quelques précisions importantes venant d'autres médias : Wired rapporte que Merge Labs vise des approches non invasives (pas d'implants chirurgicaux) et que le tour de financement est conséquent.
Pourquoi c'est important (même si c'est encore tôt) :
Si les BCI deviennent performantes, les "assistants IA" cesseront d'être des applications pour devenir une couche native de l'informatique — aussi transparente que la pensée elle-même. Le défi n'est pas seulement matériel : c'est aussi d'interpréter des signaux faibles et bruités de façon fiable. OpenAI le reconnaît explicitement.
C'est une histoire de long terme… mais c'est l'une des rares qui pourrait vraiment changer la façon dont on utilise tout le reste.
Google vient de présenter TranslateGemma, une famille de modèles de traduction ouverts construits sur Gemma 3, disponibles en trois tailles : 4B, 12B et 27B paramètres, et supportant 55 langues.
Le détail croustillant : Google affirme que le modèle 12B peut surpasser le Gemma 3 27B de base sur le benchmark WMT24++ avec MetricX. En clair : un modèle plus petit qui traduit mieux. C'est le genre d'affirmation qui fait dresser l'oreille.
Google positionne TranslateGemma comme un outil qui "tourne partout" : 4B pour mobile et edge, 12B sur un laptop grand public, et 27B pour la fidélité maximale (ils mentionnent un seul H100 ou TPU dans le cloud).
Pourquoi c'est important :
La traduction devient discrètement une infrastructure critique pour les apps mondiales, le support client, l'éducation et le commerce. L'angle "petit mais costaud" est crucial si vous voulez de la traduction sur l'appareil ou à faible latence sans tout envoyer vers un serveur géant. Un rapport technique détaillé est disponible sur arXiv pour les curieux.
Wikimedia Enterprise vient d'annoncer de nouveaux partenaires rejoignant son service : Amazon, Meta, Microsoft, Mistral AI et Perplexity s'ajoutent à une liste qui incluait déjà Google.
Leur proposition est simple : Wikipedia est devenu incroyablement précieux à l'ère de l'IA, et Wikimedia Enterprise offre un accès fiable et à haut débit via plusieurs options (à la demande, téléchargements mis à jour toutes les heures, et mises à jour en temps réel).
Reuters et The Verge formulent les choses plus directement : il s'agit de faire payer les grandes entreprises pour un accès structuré au lieu de les laisser scraper gratuitement, afin d'aider Wikimedia à survivre alors que les coûts d'utilisation explosent.
Pourquoi c'est important :
Les "données de confiance" deviennent un avantage compétitif — et Wikipedia dit en gros : si vous allez construire sur cette base, aidez à financer la plomberie. Pour ceux qui construisent des systèmes RAG ou des graphes de connaissances, des flux prévisibles + des snapshots peuvent faire la différence entre "démo" et "production".
🧠 RECHERCHE
Cette étude améliore la façon dont l'IA écrit du code en utilisant un processus d'"auto-évolution". Le système est forcé de planifier des stratégies diverses et d'apprendre de ses succès comme de ses échecs. En imitant la sélection naturelle, l'IA affine ses compétences en programmation pour résoudre des problèmes de plus en plus difficiles sans aide humaine.
Évaluer des "IA chercheuses" est difficile, alors cette équipe a construit un outil pour le faire automatiquement. Il génère des questions de recherche complexes et réalistes, puis juge les réponses de l'IA sur leur exactitude. Ça garantit que les agents IA peuvent trouver et vérifier des faits correctement avant d'être utilisés par de vrais humains.
Les agents IA actuels se bloquent souvent quand ils résolvent des problèmes longs. MAXS corrige ça en laissant l'IA "regarder devant" pour anticiper les étapes futures avant d'agir. Le système mesure quel chemin a le plus de chances de réussir, aidant l'IA à rester sur la bonne voie et à utiliser sa puissance de calcul plus intelligemment.
📲 RÉSEAUX SOCIAUX
🗞️PLUS D'ACTUALITÉS
OpenAI veut renforcer la chaîne d'approvisionnement américaine OpenAI demande aux entreprises américaines de fabriquer l'équipement physique nécessaire à l'IA : systèmes de refroidissement, câbles d'alimentation, etc. L'objectif est de rapatrier cette chaîne d'approvisionnement aux États-Unis pour créer des emplois et réduire la dépendance envers d'autres pays. Cette initiative vise à accélérer la croissance de l'infrastructure IA en produisant les pièces essentielles sur le sol américain.
Microsoft lance une formation IA gratuite pour les écoles Microsoft a publié un programme de formation gratuit pour aider enseignants et étudiants à comprendre comment utiliser l'intelligence artificielle. Le cours décompose cette technologie complexe en leçons simples sur l'utilisation d'outils comme Copilot pour améliorer l'enseignement et l'apprentissage. Il comprend quatre modules conçus pour aider les écoles à adopter l'IA sans frais coûteux.
Replit lance le "Vibe Coding" Replit a lancé une nouvelle fonctionnalité qui écrit du code informatique pour vous quand vous décrivez simplement votre idée en langage naturel. Ça permet de créer des applications mobiles en expliquant l'"ambiance" ou le ressenti souhaité, plutôt que de taper des instructions techniques. Le système utilise l'IA puissante de Google pour faire le travail difficile, permettant à n'importe qui de créer des logiciels rapidement.
Higgsfield AI atteint 1,3 milliard de valorisation La startup vidéo Higgsfield vaut maintenant 1,3 milliard de dollars après avoir levé 80 millions pour développer son activité. L'entreprise fournit des outils IA qui aident les équipes marketing à créer des vidéos professionnelles pour les réseaux sociaux sans caméras coûteuses ni équipes de tournage. Leur système connecte différents modèles IA pour garantir des vidéos cohérentes et de haute qualité.
Tulip lève 120 millions de dollars Tulip a levé 120 millions de dollars pour construire des logiciels qui aident les ouvriers d'usine à mieux faire leur travail plutôt que de les remplacer par des robots. Leurs outils donnent aux employés des données en temps réel sur tablettes pour suivre la production et résoudre les problèmes directement sur la chaîne de montage. Ils appellent ça l'approche "centrée sur l'humain" : autonomiser la personne plutôt que simplement automatiser le travail.
Cloudflare rachète Human Native Cloudflare a racheté Human Native pour aider les créateurs de contenu à être payés quand les entreprises d'IA utilisent leur travail. Human Native opère une marketplace où écrivains et artistes peuvent légalement vendre leurs données pour l'entraînement des systèmes IA. Cette acquisition vise à résoudre le problème du "vol de contenu" par l'IA en facilitant une rémunération équitable des créateurs.
TSMC affiche des profits records TSMC, l'entreprise qui fabrique les "puces" ou cerveaux électroniques utilisés dans presque tous les appareils électroniques, a annoncé des profits records grâce à la demande massive en IA. Ils s'attendent à une croissance significative de leurs ventes pendant plusieurs années alors que les entreprises achètent toujours plus de matériel pour faire tourner leurs modèles IA. Pour suivre ce boom, ils investissent des milliards pour construire de nouvelles usines aux États-Unis et à Taïwan.
Andrea Vallone quitte OpenAI pour Anthropic Andrea Vallone, une experte en sécurité de premier plan, a quitté OpenAI pour rejoindre son concurrent Anthropic. Elle dirigeait auparavant l'équipe chargée de s'assurer que les chatbots d'OpenAI ne donnaient pas de réponses dangereuses ou nuisibles aux utilisateurs. Son départ illustre la compétition féroce pour les experts spécialisés en "alignement" — l'art de s'assurer que l'IA respecte les règles humaines.
OpenAI tourne le dos à Apple OpenAI aurait refusé d'être le partenaire principal des nouvelles fonctionnalités IA d'Apple afin de se concentrer sur la construction de ses propres appareils. En conséquence, Apple a signé un accord de plusieurs milliards de dollars avec Google pour utiliser leur IA Gemini sur les iPhones. Cette décision signale qu'OpenAI veut concurrencer directement les géants de la tech plutôt que simplement leur fournir de la technologie.


