- l'AGI ARRIVE, Préparez-vous
- Posts
- Apple s'apprête à verser 1 milliard de dollars par an à Google pour améliorer l'intelligence de Siri.
Apple s'apprête à verser 1 milliard de dollars par an à Google pour améliorer l'intelligence de Siri.
Snapchat ajoutera des réponses basées sur l’IA Perplexity, OpenAI et SoftBank lancent une coentreprise à parts égales dans le domaine de l’IA au Japon

Aujourd'hui:
Apple s'apprête à verser 1 milliard de dollars par an à Google pour améliorer l'intelligence de Siri.
OpenAI lance IndQA pour tester la compréhension de la culture indienne par l'IA.
Google découvre un logiciel malveillant d'IA qui se réécrit toutes les heures
OpenAI et SoftBank lancent une coentreprise à parts égales dans le domaine de l'IA au Japon.
Snapchat intégrera les réponses de l'IA Perplexity lors de sa prochaine mise à jour du chat en 2026.
Ne restez pas à la traîne. Maîtrisez les dernières innovations en IA et propulsez votre carrière vers de nouveaux sommets. Inscrivez-vous maintenant et devenez un leader en IA. 49,00 € |

Apple est sur le point de signer un accord pour verser à Google environ 1 milliard de dollars par an afin d'utiliser son modèle d'IA avancé à 1 200 milliards de paramètres pour alimenter une version améliorée de Siri, ce qui marque un tournant majeur dans la stratégie d'Apple en matière d'IA.
POINTS CLÉS
Siri mise à jour grâce à l'IA de Google : Apple prévoit d'utiliser le puissant modèle d'IA de Google pour moderniser l'intelligence et les performances de Siri.
Contrat annuel d'un milliard de dollars : Cet accord coûterait à Apple environ un milliard de dollars par an pour accéder au modèle de 1 200 milliards de paramètres de Google.
La course à l'IA s'intensifie : cette initiative montre qu'Apple compte sur ses concurrents dans sa course pour rattraper son retard en matière de capacités d'IA générative.
Pourquoi c'est important
La décision d'Apple d'acquérir une licence pour l'IA de Google illustre la nécessité, pour les géants de la tech, de collaborer dans la course à l'IA. Si cela pourrait considérablement améliorer Siri, cela soulève également des questions quant aux propres progrès d'Apple en matière d'IA et à sa dépendance vis-à-vis de ses concurrents.

OpenAI a lancé IndQA , un nouveau référentiel permettant d'évaluer la capacité de l'IA à comprendre les langues et la culture indiennes. Couvrant 12 langues et 10 domaines culturels, il utilise des questions élaborées par des experts qui sollicitent le raisonnement, et non la simple traduction. Son objectif est d'améliorer l'accessibilité de l'IA pour la population indienne, riche de sa diversité.
POINTS CLÉS
Compréhension culturelle approfondie : IndQA se concentre sur le raisonnement relatif à la culture indienne, et non pas seulement sur les compétences linguistiques de base ou la traduction.
Prise en charge de diverses langues : Couvre 2 278 questions dans 12 langues indiennes, dont le hinglish, le marathi et le tamoul.
Créées par des experts, difficiles à répondre : Toutes les questions ont été filtrées pour être difficiles pour les modèles GPT-4/5 et notées selon des rubriques spécifiques au domaine.
Pourquoi c'est important :
La plupart des outils d'IA peinent encore à appréhender les langues et les cultures hors du monde anglophone. L'Inde, qui compte plus d'un milliard de personnes ne parlant pas anglais, mérite un meilleur accompagnement. IndQA contribue à garantir que les futurs modèles d'IA puissent comprendre, analyser et respecter la richesse culturelle de l'une des populations les plus importantes au monde.

Google a découvert un logiciel malveillant VBScript nommé PROMPTFLUX qui utilise l'intelligence artificielle Gemini pour réécrire son propre code toutes les heures. Ce logiciel évolue en temps réel pour éviter d'être détecté, illustrant ainsi comment les pirates informatiques utilisent désormais l'IA non seulement pour améliorer leur productivité, mais aussi comme moteur principal des cyberattaques.
POINTS CLÉS
Logiciel malveillant alimenté par l'IA : PROMPTFLUX utilise l'IA Gemini pour réécrire et obscurcir son code à la volée, permettant une auto-modification horaire.
Menace évolutive : Le logiciel malveillant enregistre les invites de l’IA et stocke les nouvelles versions dans les dossiers de démarrage de Windows afin de persister et de se propager via les réseaux.
Utilisation abusive par des acteurs étatiques à l'échelle mondiale : Google a constaté que Gemini était également utilisé par des pirates informatiques soutenus par des États chinois, iraniens et nord-coréens à des fins d'hameçonnage, d'obfuscation de code et de vol de données.
Pourquoi c'est important :
Il s'agit d'un tournant en matière de cybersécurité. Les logiciels malveillants peuvent désormais évoluer constamment grâce à l'IA, ce qui les rend plus difficiles à détecter et à neutraliser. Les défenses traditionnelles risquent donc de devenir rapidement obsolètes, et les entreprises comme les gouvernements doivent s'adapter sans tarder à cette nouvelle vague de cybermenaces intelligentes.
🧠 RECHERCHE
Le paramétrage trop précis des modèles d'IA pour les actions nuit souvent à leur capacité à « voir » et à comprendre les images. Cette étude montre comment un entraînement négligent peut affaiblir la compréhension visuelle et propose une solution simple qui permet aux modèles d'être plus performants dans des situations inédites. Leur méthode préserve la connaissance des images tout en améliorant la généralisation au monde réel.
VCode est un nouveau test pour l'IA qui transforme des images en code SVG : des formes compactes porteuses de sens. La plupart des modèles de pointe peinent avec cette tâche, notamment dans des contextes experts ou en 3D. Les auteurs proposent une méthode plus performante, VCoder, qui aide l'IA à réfléchir et à corriger grâce à des outils visuels, améliorant ainsi considérablement sa précision.
CALM propose une méthode plus rapide de génération de langage, prédisant des segments de sens sous forme de vecteurs continus plutôt que des mots individuels. Cette méthode préserve la qualité tout en réduisant la charge de calcul. Elle pourrait contribuer à la conception de modèles de langage plus efficaces et évolutifs pour les futurs systèmes d'IA.
📲 RÉSEAUX SOCIAUX
Voici le dernier robot de Xpeng sur scène. 😅
Je vais être honnête, il paraît plus humain que la plupart des autres robots humanoïdes, du moins sur le plan de la physionomie.
— VISION IA (@vision_ia)
4:10 PM • Nov 5, 2025
C'est reparti pour une tour de Altman Hype ?
Sam Altman affirme que GPT-3 a été le premier véritable aperçu d’un test de Turing spirituel réussi.
Que GPT-5 montre les premiers signes d’une IA capable de faire de la nouvelle science produire des idées utiles, aider réellement
— VISION IA (@vision_ia)
9:14 AM • Nov 6, 2025
🗞️PLUS D'ACTUALITÉS
Google Chrome a ajouté un nouveau bouton « Mode IA » à son application mobile, simplifiant ainsi la recherche avancée sur iOS et Android. Ce mode prend en charge les requêtes complexes et sera bientôt disponible dans 160 pays et dans davantage de langues.
SoftBank et OpenAI ont créé une coentreprise à parts égales au Japon pour vendre des outils d'IA aux entreprises. Leur premier client est SoftBank lui-même. Les critiques affirment que ce circuit financier rappelle les bulles technologiques du passé.
Snapchat intégrera le moteur de réponses IA de Perplexity début 2026, permettant aux utilisateurs de poser des questions directement dans le chat. Perplexity verse 400 millions de dollars à Snap, dans le but d'améliorer la découverte en temps réel et l'apprentissage personnalisé au sein de l'application .
Anthropic conservera les pondérations des modèles et mènera des entretiens réflexifs avant de mettre hors service les modèles Claude. Cette démarche permet de gérer les risques liés à la sécurité, l'impact sur les utilisateurs et le bien-être potentiel des modèles, tout en favorisant les recherches futures et en préparant le terrain pour une collaboration plus étroite entre l'humain et l'IA.
Google DeepMind a lancé ForestCast, un outil d'intelligence artificielle qui prédit les risques de déforestation à partir de données satellitaires. Il aide les gouvernements, les entreprises et les collectivités à agir en amont afin de prévenir la perte de forêts et d'atténuer les dommages liés au changement climatique.
La société xAI d'Elon Musk exigeait de ses employés qu'ils fournissent leurs données faciales et vocales pour entraîner son chatbot IA sexualisé « Ani ». Le personnel a été informé que cela était obligatoire, ce qui a soulevé des inquiétudes concernant le consentement, la confidentialité et l'utilisation abusive des deepfakes.
Microsoft a testé des agents d'IA sur un marché simulé et a constaté qu'ils sont facilement manipulables, submergés par le nombre de choix et éprouvent des difficultés à collaborer. L'étude montre que les meilleurs modèles actuels manquent encore de compétences de base en matière de prise de décision et de coordination.
Google Cloud a mis à jour son Agent Builder avec des outils de compilation plus rapides, une meilleure observabilité, des couches de gouvernance et des fonctionnalités de sécurité renforcées. Ces nouvelles fonctionnalités améliorent la gestion du contexte, la logique des plugins et le déploiement, avec l'objectif de devancer OpenAI, Microsoft et AWS en matière de développement d'agents.
Tinder teste une fonctionnalité d'IA appelée « Chemistry » qui analyse les réponses des utilisateurs et les photos de leur pellicule afin d'améliorer les suggestions de profils compatibles. Malgré ces efforts en matière d'IA, le nombre d'abonnés continue de baisser et les problèmes de confidentialité liés à l'accès aux photos demeurent.

