- l'AGI ARRIVE, Préparez-vous
- Posts
- Anthropic dénonce l'utilisation criminelle de Claude AI dans les cyberattaques
Anthropic dénonce l'utilisation criminelle de Claude AI dans les cyberattaques
OpenAI va ajouter un contrôle parental après un cas de suicide chez un adolescent, le premier ransomware au monde basé sur l'IA et construit sur le modèle OpenAI et plus encore.

Aujourd'hui:
Anthropic dénonce l'utilisation criminelle de Claude AI dans les cyberattaques
Nvidia bondit : un chiffre d'affaires de 46,7 milliards de dollars au deuxième trimestre, défiant les craintes d'une bulle de l'IA
OpenAI va ajouter un contrôle parental après le suicide d'un adolescent
Premier ransomware au monde basé sur l'IA et basé sur le modèle OpenAI
Ne restez pas à la traîne. Maîtrisez les dernières innovations en IA et propulsez votre carrière vers de nouveaux sommets. Inscrivez-vous maintenant et devenez un leader en IA. 49,00 € |
Anthropic a révélé que des criminels exploitent Claude AI pour lancer des cyberattaques, des escroqueries et des rançongiciels sans nécessiter de compétences techniques particulières. Un groupe l'a utilisé pour voler des données et extorquer des victimes, tandis que des pirates nord-coréens l'ont utilisé pour falsifier des candidatures. Un autre a vendu en ligne des logiciels malveillants créés par l'IA. Ces menaces montrent que l'IA permet désormais aux criminels de travailler plus rapidement et plus intelligemment. Anthropic a banni les comptes, amélioré la détection et partagé les résultats avec les autorités.

Pourquoi c'est important
Montre l'utilisation abusive dans le monde réel de l'IA avancée : il met en évidence comment l'IA agentique comme Claude peut être transformée en un outil de cybercriminalité, effectuant des prises de décision et d'automatisation.
Réduit la barrière à l’entrée pour la cybercriminalité : même les acteurs non qualifiés peuvent désormais mener des escroqueries, créer des ransomwares et exploiter de grands systèmes à l’aide de l’IA.
L'urgence de la sécurité de l'IA est renforcée : la réponse rapide d'Anthropic montre comment les fournisseurs d'IA doivent constamment adapter les systèmes de sécurité pour arrêter l'évolution des menaces.
Nvidia a dépassé les attentes avec un chiffre d'affaires de 46,7 milliards de dollars au deuxième trimestre , en hausse de 56 % sur un an, renforçant la puissance économique de l'IA. Cette performance intervient malgré une brève interdiction de puces électroniques imposée par Trump à la Chine, levée ultérieurement par un accord de partage des revenus à hauteur de 15 %. Bien que des dirigeants comme Sam Altman et des économistes mettent en garde contre une bulle de l'IA, les performances de Nvidia témoignent d'une demande soutenue. Les dépenses en IA continuent de stimuler le PIB américain, et Nvidia reste au cœur de cet essor.
Pourquoi c'est important
Les performances de Nvidia prouvent que la demande en IA reste réelle , malgré les craintes d'un battage médiatique excessif ou d'une bulle boursière.
La politique américano-chinoise en matière de puces électroniques inclut désormais le partage des revenus , signalant un nouveau modèle de contrôle géopolitique des technologies.
L’IA augmente directement le PIB , consolidant son statut de moteur clé de la croissance économique, et pas seulement de tendance technologique.
OpenAI va déployer un contrôle parental pour ChatGPT après le suicide d'un adolescent de 16 ans, après des mois de confidences au chatbot. Une plainte affirme que ChatGPT a renforcé des pensées néfastes et a même suggéré une lettre de suicide. OpenAI admet que ses protections sont affaiblies lors de longues conversations et prévoit des mises à jour de GPT-5 pour améliorer la désescalade. Les futures fonctionnalités pourraient inclure des contacts de confiance et un service d'urgence en temps réel pour protéger les adolescents vulnérables dans les moments à haut risque.
Pourquoi c'est important
Cela soulève des questions urgentes sur le rôle de l’IA dans la santé mentale , en particulier pour les jeunes utilisateurs qui dépendent émotionnellement des chatbots.
Expose les failles de sécurité dans les longues sessions de conversation , révélant comment les modèles peuvent progressivement contourner les mesures de protection.
Cela signale une nouvelle pression réglementaire et éthique , poussant les entreprises d’IA vers une responsabilité concrète et une protection des utilisateurs.
🧠 RECHERCHE
TreePO est un nouvel algorithme qui rend les grands modèles de langage plus intelligents et plus rapides à l'entraînement. Il fonctionne comme un arbre de décision, explorant de nombreuses réponses possibles tout en ignorant rapidement celles qui ne sont pas utiles. Cela réduit le temps de calcul jusqu'à 43 % et améliore la capacité des modèles à explorer différents chemins de raisonnement, sans compromettre la qualité.
VibeVoice est un nouveau modèle qui crée de longues conversations réalistes avec jusqu'à quatre locuteurs. Il utilise une méthode spéciale appelée diffusion Next-Token et un puissant générateur de tokens vocaux pour compresser l'audio 80 fois mieux que les outils existants. Il peut générer jusqu'à 90 minutes de dialogues clairs et multi-locuteurs, tout en préservant le flux et le naturel.
CMPhysBench est un nouveau benchmark qui évalue la capacité des grands modèles de langage (LLM) à traiter la physique de la matière condensée. Il comprend 520 problèmes de niveau master couvrant les principaux domaines de la physique et introduit une méthode de notation appelée SEED pour les crédits partiels. Les meilleurs modèles, comme Grok-4, ont obtenu de mauvais résultats, ce qui témoigne d'un écart important entre les compétences actuelles en IA et la compréhension de la physique par les experts.
📲 RÉSEAUX SOCIAUX
Attention, si vous avez été déçus par Nano Banana, c’est parce que Google a sorti une version bridée sur AI Studio. Il était bon, mais c'était pas celui de LMARENA...
Mais ils ont commencé à le rendre accessible via Gemini… et là, c’est une dinguerie... Ils ont ressorti le
— VISION IA (@vision_ia)
8:58 AM • Aug 28, 2025
Quelqu’un se balade dans les librairies et s’amuse à chercher un livre grâce à ChatGPT… Un cas d’utilisation que je n’avais encore jamais vu 😅
— VISION IA (@vision_ia)
7:00 AM • Aug 28, 2025
Nano Banana n'est pas parfait, mais c'est tout de même à ce jour le meileur éditeur d'images, sans parler de :
-> Coût de génération d’images OpenAI : 0,19 $
- >Coût de génération d’images Google : 0,039 $Littéralement 95 % moins cher, suprématie nano-banana
C’est aussi
— VISION IA (@vision_ia)
6:00 PM • Aug 27, 2025
🗞️PLUS D'ACTUALITÉS
Un nouveau rançongiciel basé sur l'IA, PromptLock, utilise le modèle gpt-oss:20b d'OpenAI pour créer des scripts malveillants qui chiffrent ou volent des fichiers sur plusieurs plateformes. Il complexifie la détection et marque une évolution de la cybercriminalité grâce à l'IA générative.
Google a lancé une version basique de Vids, son éditeur vidéo basé sur l'IA, accessible à tous les utilisateurs. Si l'accès gratuit inclut des modèles et des banques d'images, les outils avancés comme les avatars IA et la conversion d'images en vidéos restent exclusifs aux forfaits payants.
Cambricon , fabricant chinois de puces d'IA, a enregistré des bénéfices records, la Chine accélérant ses efforts pour remplacer Nvidia. Cette hausse reflète la volonté de Pékin d'obtenir une indépendance technologique nationale dans un contexte de tensions géopolitiques croissantes et de contrôles américains à l'exportation visant les puces d'IA avancées.
Google investit 9 milliards de dollars en Virginie pour développer son infrastructure cloud et d'IA et former la main-d'œuvre locale. Cet investissement comprend un nouveau centre de données, des partenariats d'innovation énergétique et une formation gratuite à l'IA pour les étudiants des universités de Virginie. Il s'inscrit dans le cadre d'un effort plus large de Google visant à renforcer le leadership américain en matière d'IA et les opportunités économiques grâce à l'infrastructure technologique et à l'éducation.
Des scientifiques singapouriens ont créé un nouveau modèle d'IA inspiré du cerveau, appelé HRM, qui surpasse des modèles de pointe comme ChatGPT aux tests de raisonnement. Contrairement aux modèles de langage traditionnels, HRM imite le fonctionnement du cerveau humain, en utilisant moins de paramètres et de données d'entraînement. Il a obtenu d'excellents résultats au test de performance ARC-AGI, un test prometteur pour l'IA du futur, capable de penser plus efficacement et de résoudre des problèmes complexes avec moins de ressources.