La vidéo IA atteint de nouveaux sommets

Et aussi : DeepMind présente la stratégie de sécurité de l'AGI, Lindy lance la fonctionnalité Agent Swarms et plus encore.

Aujourd'hui:

  • La vidéo IA atteint de nouveaux sommets

  • Anthropic lance Claude pour l'éducation

  • OpenAI lance l'outil d'analyse comparative PaperBench

  • DeepMind présente sa stratégie de sécurité pour l'IAG

  • Lindy lance la fonctionnalité Agent Swarms

Ne restez pas à la traîne. Maîtrisez les dernières innovations en IA et propulsez votre carrière vers de nouveaux sommets. Inscrivez-vous maintenant et devenez un leader en IA.

49,00 € 99,00 €

Runway a lancé Gen-4, son modèle vidéo d'IA le plus puissant à ce jour. Contrairement aux versions précédentes, les utilisateurs affirment que celui-ci est performant : il crée des personnages, des objets et des environnements cohérents d'une scène à l'autre, permettant ainsi une narration authentique. 

Les utilisateurs créent des vidéos aux visuels percutants, aux mouvements fluides et au réalisme surprenant. Si certains clips présentent encore des bugs, les premiers retours sont extrêmement positifs, Gen-4 étant salué comme rapide, ludique et libérateur sur le plan créatif.

Anthropic a lancé Claude for Education , un outil d'IA conçu pour les universités. Il aide les étudiants à développer leur esprit critique, accompagne les enseignants dans l'enseignement personnalisé et assiste l'administration dans les tâches courantes. Parmi ses fonctionnalités figurent le mode apprentissage, l'accès à l'ensemble du campus et des programmes étudiants. Des partenariats avec Northeastern, la LSE et le Champlain College visent à rendre l'IA plus accessible et plus responsable dans l'éducation, tandis que des collaborations avec Internet2 et Instructure garantissent une intégration sécurisée dans les systèmes universitaires existants.

Pourquoi c'est important

  1. Démocratise l’IA dans l’éducation – Apporte des outils d’IA avancés à l’ensemble des campus, et pas seulement à certains utilisateurs.

  2. Favorise une utilisation responsable de l’IA – Se concentre sur l’éthique, la transparence et la pensée critique plutôt que sur l’automatisation seule.

  3. Favorise les futurs talents de l'IA – Permet aux étudiants de construire avec l'IA et de façonner la manière dont elle est utilisée dans la société.

OpenAI a publié PaperBench , un benchmark testant la capacité de l'IA à reproduire les meilleurs articles de recherche en IA de l'ICML 2024. Ce benchmark comprend 8 316 tâches détaillées basées sur 20 articles, avec des grilles d'évaluation élaborées en collaboration avec les auteurs originaux. Un juge IA personnalisé évalue les performances. Le meilleur modèle d'IA, Claude 3.5 Sonnet, a obtenu un score de 21 %, bien en deçà des experts humains. PaperBench et ses outils sont open source pour faire progresser la recherche sur les capacités d'ingénierie concrètes de l'IA.

Pourquoi c'est important

  1. Teste les compétences réelles en IA – Va au-delà des critères de référence pour évaluer si l’IA peut reproduire des flux de travail de recherche complexes et modernes.

  2. Révèle les limites actuelles – Montre que même les meilleurs modèles d’IA sont loin d’être à la hauteur des chercheurs humains, guidant les attentes et le développement.

  3. Améliore la reproductibilité – Encourage la science ouverte en évaluant et en reproduisant la recherche en IA à grande échelle avec des repères structurés.

Google DeepMind propose une approche proactive pour prévenir les dommages graves causés par l'intelligence artificielle générale (IAG). L'accent est mis sur deux risques majeurs : l'utilisation abusive (en limitant l'accès à des fonctionnalités dangereuses) et le désalignement (en concevant des modèles qui suivent l'intention humaine). Leur stratégie combine l'entraînement des modèles, la supervision et les systèmes de sécurité. Ils privilégient une action précoce avant que les risques ne se matérialisent pleinement, visant à façonner les futures normes de sécurité tout en reconnaissant la nécessité d'une recherche en évolution et d'une gouvernance plus large.

Pourquoi c'est important

  1. Donne la priorité à la sécurité humaine – Traite des risques liés à l’IAG qui pourraient avoir de graves répercussions sur l’humanité.

  2. Se concentre sur la prévention – Insiste sur la sécurisation de l’IA avant l’apparition de capacités dangereuses.

  3. Encourage les normes – Encourage le partage des pratiques de sécurité pour éviter une course vers le bas.

🧠 RECHERCHE

Any2Caption est un nouveau système qui transforme presque toutes les entrées (texte, images ou animations) en sous-titres clairs pour guider la création vidéo. Il aide les créateurs de vidéos à mieux comprendre les attentes des utilisateurs. L'équipe a également constitué un vaste ensemble de données pour entraîner le modèle. Les tests montrent une amélioration du contrôle et de la qualité vidéo.

JudgeLRM est un nouveau modèle conçu pour évaluer les tâches complexes mieux que les systèmes actuels. Contrairement aux méthodes standard, il utilise des récompenses pour apprendre à évaluer les réponses plus judicieusement. Il surpasse les modèles les plus performants comme GPT-4 dans les tests de raisonnement intensif, démontrant qu'une évaluation plus intelligente ne se limite pas à un simple réglage fin.

CodeARC est un nouveau benchmark qui teste la capacité de l'IA à écrire du code en s'appuyant sur des exemples. Contrairement aux tests précédents, il permet aux modèles d'obtenir des retours et d'améliorer leurs réponses, en simulant des tâches de codage réelles. Le meilleur modèle n'a résolu que la moitié des problèmes, ce qui montre à quel point la programmation inductive reste complexe pour l'IA.

📲 RÉSEAUX SOCIAUX

🗞️PLUS D'ACTUALITÉS

  • La nouvelle mise à jour d'Adobe Premiere Pro ajoute des outils d'IA pour allonger les clips vidéo, rechercher des séquences à l'aide de texte et traduire les légendes. La fonctionnalité de surbrillance, Generative Extend, permet aux utilisateurs d'allonger les scènes sans avoir à les refilmer pour un montage plus fluide.

  • La nouvelle fonctionnalité « Agent Swarms » de Lindy AI permet aux utilisateurs de déployer simultanément des centaines d'agents IA pour gérer de nombreuses tâches en parallèle. Avec plus de 5 000 intégrations, elle vise à devenir la plateforme d'IA la plus connectée.

  • L'entreprise chinoise Genspark vient de dévoiler Super Agent, une IA capable de gérer des tâches entières – de la création de vidéos de recettes à la recherche approfondie – sans intervention humaine. Elle a même surpassé ses principaux concurrents Manus et OpenAI au benchmark GAIA.

  • Josh Woodward , créateur de l'application de notes IA NotebookLM de Google, dirige désormais l'application Gemini, suite au départ de Sissie Hsaio. Google affirme que ce changement permettra de se concentrer sur la prochaine grande évolution de l'application.

  • MLCommons a publié deux nouveaux tests pour mesurer la vitesse d'exécution des tâches complexes par les systèmes d'IA. Les dernières puces de Nvidia ont enregistré d'importants gains de vitesse, tandis qu'AMD n'y a pas participé. L'un des tests utilise le modèle massif Llama 3.1 de Meta. 

  • L'IA Rêveur de DeepMind a appris à trouver des diamants dans Minecraft de manière totalement autonome. Contrairement aux systèmes précédents, on ne lui a pas montré comment jouer : elle imaginait les résultats futurs grâce à un modèle de monde intégré pour guider ses décisions.

🎬DERNIÈRES VIDÉOS

Vision IA