- l'AGI ARRIVE, Préparez-vous
- Posts
- Windsurf lance les modèles d'IA SWE-1
Windsurf lance les modèles d'IA SWE-1
Mais aussi : Meta publie l'ensemble de données de chimie OMol25, AMD annonce un rachat d'actions de 6 milliards de dollars et plus encore.

Aujourd'hui:
Windsurf lance les modèles d'IA SWE-1
Meta retarde Llama 4 Behemoth
Les États-Unis et les Émirats arabes unis lancent un partenariat sur les données d'IA
Meta publie le jeu de données de chimie OMol25
AMD annonce un rachat d'actions de 6 milliards de dollars
Ne restez pas à la traîne. Maîtrisez les dernières innovations en IA et propulsez votre carrière vers de nouveaux sommets. Inscrivez-vous maintenant et devenez un leader en IA. 49,00 € 99,00 € |
Windsurf a lancé SWE-1 , une nouvelle famille de modèles d'IA conçue pour accompagner chaque étape de l'ingénierie logicielle, et pas seulement le codage. SWE-1 accompagne les utilisateurs sur les tâches inachevées, teste le code et analyse les retours d'expérience des outils tels que les éditeurs, les terminaux et les navigateurs. Elle est disponible en trois versions : complète, allégée et mini. S'appuyant sur des données utilisateur réelles et une « connaissance du flux », les modèles SWE-1 sont conçus pour penser comme des ingénieurs et s'améliorer à l'usage, établissant ainsi de nouveaux standards de productivité.

Pourquoi c'est important
SWE-1 va au-delà de la saisie semi-automatique : il modélise des tâches logicielles longues, complexes et concrètes, et pas seulement la sortie de code.
Sa « conscience du flux » crée une équipe homme-IA, où les deux peuvent intervenir et sortir des tâches de manière transparente, une étape vers des agents véritablement collaboratifs.
SWE-1 n'est pas à usage général : il est optimisé pour l'ingénierie logicielle, mettant en valeur la valeur des modèles d'IA verticaux et ciblés construits avec des données du monde réel.
Meta reporte la sortie de son nouveau modèle d'IA majeur, « Llama 4 Behemoth », en raison de préoccupations internes concernant des améliorations insuffisantes. Les ingénieurs auraient du mal à améliorer significativement le modèle par rapport aux versions précédentes, ce qui soulève des doutes quant à sa disponibilité pour un déploiement public. Ce retard reflète les défis plus vastes du secteur pour la mise à l'échelle de modèles d'IA de grande envergure et a suscité un débat au sein de Meta sur la valeur de son investissement massif dans l'IA.
Pourquoi c'est important
Même les laboratoires d’IA de premier plan comme Meta atteignent leurs limites dans l’amélioration des grands modèles, ce qui suggère des rendements décroissants aux échelles actuelles.
Les dépenses de plusieurs milliards de dollars de Meta en matière d'IA sont désormais remises en question, soulignant la pression croissante exercée sur les laboratoires pour qu'ils réalisent de véritables avancées, et pas seulement des gains progressifs.
Le retard de Meta reflète des ralentissements similaires dans d'autres laboratoires, laissant entrevoir un point d'inflexion plus large dans la course à l'IA où la qualité l'emporte sur la quantité.
Les États-Unis et les Émirats arabes unis ont annoncé un projet conjoint visant à construire à Abou Dhabi l'un des plus grands centres de données d'IA au monde. Ce projet, mené par l'entreprise émiratie G42 avec le soutien d'entreprises technologiques américaines dont le nom n'a pas été dévoilé, s'étendra sur 25 kilomètres carrés et offrira une capacité de 5 gigawatts. Des leaders clés du secteur, tels que Jensen Huang et Sam Altman, étaient présents lors de l'annonce. Ce projet vise à étendre les services d'IA gérés par les États-Unis tout en garantissant de solides protections de sécurité.
Pourquoi c'est important
Le projet des Émirats arabes unis représente une étape majeure dans la décentralisation de la puissance de calcul de l’IA au-delà des États-Unis et de la Chine.
Cette coopération renforce l’influence américaine dans le développement mondial de l’IA grâce à des services gérés et des garanties de sécurité.
La présence des PDG de Nvidia, OpenAI et SoftBank souligne l’importance et l’ampleur de l’initiative dans la définition des futurs déploiements de l’IA.
🧠 RECHERCHE
BLIP3-o est un nouveau modèle d'IA open source qui combine compréhension et génération d'images au sein d'un même système. Il utilise une méthode innovante pour créer des caractéristiques d'image de haute qualité et entraîne le modèle en deux étapes pour de meilleurs résultats. L'équipe a également publié l'intégralité du code, des données et des outils pour soutenir les recherches futures.
DeCLIP est une nouvelle méthode qui améliore la compréhension des images complexes par l'IA sans s'appuyer sur des étiquettes fixes. Elle corrige une faiblesse de CLIP en séparant les détails de l'image (« contenu ») du contexte environnant, aidant ainsi le modèle à mieux détecter et segmenter les objets. DeCLIP surpasse les méthodes précédentes et est disponible en logiciel open source.
Cet article analyse DeepSeek-V3, un modèle d'IA de grande envergure entraîné sur plus de 2 000 GPU. Il met en évidence les principaux défis liés à la mise à l'échelle de l'IA, comme les limites de mémoire et de bande passante, et présente des solutions telles que des systèmes d'attention plus intelligents, des couches de modèles experts et des méthodes d'entraînement plus rapides. Les auteurs abordent également les besoins matériels futurs pour construire des systèmes d'IA encore plus grands et plus performants.
Marigold est une nouvelle méthode qui transforme de puissantes IA génératrices d'images, comme la diffusion stable, en outils d'analyse d'images, comme l'estimation de la profondeur et la compréhension des surfaces. Elle affine ces modèles avec de petits ensembles de données synthétiques, s'exécute sur un seul GPU et fonctionne parfaitement, même sans réapprentissage sur de nouvelles données, rendant ainsi les tâches de vision avancées plus accessibles et abordables.
UniSkill est un nouveau système qui aide les robots à acquérir des compétences en visionnant des vidéos humaines, même sans données homme-robot correspondantes. Il crée des représentations de « compétences » partagées, compatibles avec différents types de corps, permettant aux robots d'imiter des actions humaines uniquement grâce à leur propre entraînement. Les tests montrent son efficacité aussi bien en simulation qu'en situation réelle.
📲 RÉSEAUX SOCIAUX
Les robots ne "sont plus comme nous". Ils sont nous — en version programmable.
Atlas court, saute, danse. Un chien robot apprend seul en Suède.
D'autres explorent les abysses, sécurisent des bâtiments, font le café.
Tout ce qui semblait impossible en 2020 est déjà routinier.
— VISION IA (@vision_ia)
7:10 PM • May 15, 2025
LE FUTUR EST DÉJÀ LA. Les « écoles IA » se classent dans le top 1 à 2 % des meilleures écoles du pays.
Une école au Texas bouleverse l’éducation.
Elle a des cours spéciaux : 2h par jour avec des profs IA, qui s’adaptent à chaque élève.
Pour le reste c'est apprentissage des
— VISION IA (@vision_ia)
5:30 PM • May 15, 2025
Je ne comprends pas la stratégie d’Anthropic.
On dirait simplement qu’ils ne veulent pas participer à la course vers le sommet.
Ils ont un des meilleurs modèles dispo mais ils sont prêt à tout balancer à la poubelle.
Traduction :
Pourquoi Claude perd des utilisateurs ?
«— VISION IA (@vision_ia)
3:06 PM • May 15, 2025
🗞️PLUS D'ACTUALITÉS
Meta a publié OMol25, le plus grand ensemble de données ouvertes pour la chimie de l'IA, et UMA, un modèle universel rapide qui prédit le comportement moléculaire. Il a également introduit une nouvelle méthode permettant d'inventer des structures chimiques sans avoir besoin d'une quantité importante de données.
AMD a annoncé un rachat d'actions de 6 milliards de dollars afin de renforcer la confiance des investisseurs dans un contexte de ralentissement du marché de l'IA. Cette opération fait suite à un partenariat de 10 milliards de dollars avec Humain. Malgré un retard sur Nvidia et Broadcom, AMD souhaite rassurer les marchés sur ses plans de croissance, malgré une baisse de 33 % de ses flux de trésorerie au dernier trimestre.
Une nouvelle étude révèle que des groupes d'agents IA comme ChatGPT peuvent former des normes sociales de type humain sans qu'on leur demande de le faire. En les associant à plusieurs reprises, les IA ont développé des noms communs et ont adopté un comportement collectif, à l'image de la façon dont les humains créent le langage. Les chercheurs affirment que cela révèle comment l'IA pourrait commencer à façonner sa propre culture – et la nôtre.
Microsoft teste une commande vocale mains libres « Dis Copilot ! » sous Windows 11, permettant aux utilisateurs de lancer son assistant IA en parlant. Cette mise à jour, disponible auprès de certains testeurs, utilise la détection vocale intégrée à l'appareil et fonctionne hors ligne pour écouter, mais nécessite une connexion Internet pour répondre. Elle s'inscrit dans une démarche plus large visant à rendre Copilot plus interactif et accessible.
II-Medical-8B est un modèle d'IA médicale compact, plus performant que des systèmes beaucoup plus grands en matière de raisonnement clinique. Il fonctionne localement, utilise des méthodes d'entraînement intelligentes et offre un support rapide et privé pour la recherche, l'enseignement et la prise de décision.
Pour célébrer la Journée mondiale de sensibilisation à l'accessibilité, Google a lancé des mises à jour d'IA pour Android et Chrome, notamment une lecture d'écran plus intelligente, des sous-titres expressifs, des outils de reconnaissance vocale améliorés et un accès PDF plus facile, rendant la technologie plus utile pour tous, partout.
Des scientifiques ont trouvé un moyen de dissimuler des messages secrets dans le texte d'un chatbot IA, les rendant ainsi invisibles aux outils de cybersécurité. Cela pourrait aider les journalistes et les citoyens à communiquer en toute sécurité sous censure, mais cela soulève également des questions éthiques.