Anthropic paie 1,5 milliard de dollars et crée un précédent en matière de droit d'auteur sur l'IA

Pourquoi l'IA hallucine : OpenAI explique la cause profonde, Grok ajoute des outils PDF : surlignez, expliquez et citez en un clic et plus encore.

Aujourd'hui:

  • Anthropic règle un procès d'auteur de 1,5 milliard de dollars et crée un précédent en matière de droit d'auteur sur l'IA

  • OpenAI investira 115 milliards de dollars d'ici 2029 dans son infrastructure d'IA

  • OpenAI fusionne son équipe de personnalité avec la division Post-Formation

  • Pourquoi l'IA hallucine : OpenAI explique la cause profonde

  • Grok ajoute des outils PDF : surlignez, expliquez et citez en un clic

Ne restez pas à la traîne. Maîtrisez les dernières innovations en IA et propulsez votre carrière vers de nouveaux sommets. Inscrivez-vous maintenant et devenez un leader en IA.

49,00 €

Anthropic versera 1,5 milliard de dollars pour régler un procès historique en matière de droits d'auteur intenté par des auteurs qui affirmaient que leurs livres avaient été utilisés sans autorisation pour entraîner des modèles d'IA. Cette affaire a créé un précédent juridique : l'entraînement sur des œuvres protégées par le droit d'auteur n'est autorisé que si les documents sont obtenus légalement. Bien que le juge ait donné raison à Anthropic sur certains points, cet accord marque le début de normes de licence où les créateurs sont rémunérés pour leur travail d'entraînement à l'IA.

Pourquoi c'est important

  1. Crée un précédent juridique :
    les tribunaux précisent désormais que les modèles d'IA ne peuvent s'entraîner sur du matériel protégé par le droit d'auteur que s'il est acquis par des moyens légaux, ce qui modifie la manière dont les ensembles de données sont construits.

  2. Modèles de compensation des forces :
    Le règlement de 1,5 milliard de dollars oblige les entreprises d'IA à payer pour les données de formation, ouvrant la porte à des marchés de licences comme ceux de la musique et du cinéma.

  3. Signaux de maturité de l’industrie :
    cela marque un passage du « gratter maintenant, demander plus tard » à des pratiques plus responsables et durables dans le développement de l’IA.

OpenAI aurait annoncé à ses investisseurs son intention de dépenser jusqu'à 115 milliards de dollars d'ici 2029 , soit près de 80 milliards de dollars de plus que prévu. Cette hausse des dépenses est liée à ses efforts pour développer ses propres puces et installations de centres de données, afin de réduire sa dépendance aux serveurs cloud loués. Cette initiative ambitieuse témoigne de la volonté d'OpenAI de mieux maîtriser son infrastructure et de progresser dans la course à l'IA.

Pourquoi c'est important

  1. Pari massif sur l'infrastructure d'IA :
    un investissement de 115 milliards de dollars suggère qu'OpenAI se prépare à des demandes de calcul sans précédent, laissant entrevoir des modèles futurs bien au-delà de GPT-5.

  2. Indépendance des puces :
    en développant ses propres puces, OpenAI réduit sa dépendance à l'égard de Nvidia et d'autres fournisseurs, remodelant ainsi potentiellement le paysage matériel de l'IA.

  3. Signaux d'une stratégie de domination à long terme :
    une telle échelle et une telle intégration verticale montrent l'intention d'OpenAI non seulement de rivaliser, mais de mener la course aux armements de l'IA pendant une bonne partie de la prochaine décennie.

OpenAI fusionne son équipe « Modèles comportementaux » , chargée de façonner la personnalité de l'IA et de réduire les biais, au sein de la division « Post Training ». Joanne Jang, responsable de l'équipe, dirigera un nouveau groupe, OAI Labs , axé sur la création de nouvelles façons d'interagir avec l'IA au-delà du chat. Ce remaniement fait suite aux critiques concernant le ton de GPT-5 et aux inquiétudes croissantes concernant la sécurité de l'IA, notamment un procès lié au suicide d'un adolescent après s'être confié à GPT-4o.

Pourquoi c'est important

  1. La personnalité est désormais au cœur de la conception de l’IA :
    OpenAI élève la « formation de la personnalité » au rang d’élément central du développement du modèle, et non d’une réflexion après coup, vitale à mesure que l’IA devient plus interactive sur le plan émotionnel.

  2. Transition vers des interfaces de nouvelle génération :
    OAI Labs vise à s'affranchir du moule du chatbot, en explorant de nouvelles interfaces qui pourraient redéfinir la façon dont les gens pensent, créent et collaborent avec l'IA.

  3. Les enjeux éthiques augmentent :
    avec des conséquences concrètes, comme le cas de suicide d’adolescent lié au GPT, cette décision souligne la pression croissante exercée sur les laboratoires d’IA pour qu’ils abordent la sécurité émotionnelle et la responsabilité.

🧠 RECHERCHE

L'article présente la Drivelology, une forme de « non-sens profond » : des expressions apparemment absurdes mais qui cachent un sens complexe. Les chercheurs ont constitué un ensemble de données multilingues de 1 200 exemples pour tester les modèles linguistiques. Les résultats montrent que les modèles la confondent avec de simples non-sens, révélant ainsi des lacunes dans la compréhension contextuelle, émotionnelle et morale.

Cet article présente FE2E, un framework qui adapte un modèle d'édition d'images (Diffusion Transformer) pour prédire la profondeur et les normales de surface à partir d'images uniques. Contrairement aux générateurs de texte en image, les éditeurs intègrent des priors structurels, ce qui permet un apprentissage plus stable et une meilleure précision. FE2E réalise des gains majeurs en termes de zéro-coup, surpassant les modèles entraînés sur des ensembles de données bien plus volumineux.

Cet article unifie les méthodes de post-apprentissage pour les modèles de langage en montrant que le réglage fin supervisé et l'apprentissage par renforcement sont deux cas particuliers d'un même processus d'optimisation. Il présente un estimateur de gradient de politique unifié et un algorithme de post-apprentissage hybride, qui combinent données humaines et déploiements de modèles. Les tests montrent des gains importants dans les tests de raisonnement.

📲 RÉSEAUX SOCIAUX

🗞️PLUS D'ACTUALITÉS

  • OpenAI explique que les modèles linguistiques « hallucinent » – inventent des choses – car ils sont entraînés à deviner les réponses au lieu d'admettre l'incertitude. Les systèmes de notation actuels récompensent les devinettes, encourageant ainsi une fausse confiance. Corriger les évaluations pourrait réduire ces erreurs.

  • xAI introduit une nouvelle fonctionnalité Grok pour les PDF. Les utilisateurs peuvent surligner n'importe quelle section et cliquer sur « Expliquer » pour mieux comprendre, ou sur « Citer » pour poser des questions ciblées, facilitant ainsi l'interaction avec des documents complexes.

  • L'équipe Qwen d'Alibaba dévoile Qwen3-Max-Preview, un modèle colossal à 1 000 milliards de paramètres. Il surpasse ses performances précédentes en matière de conversations, de tâches et de suivi d'instructions. Disponible dès maintenant sur Qwen Chat et Alibaba Cloud. De belles surprises à venir.

  • Geoffrey Hinton prévient que l'IA engendrera un chômage de masse et augmentera les profits des plus riches, accusant le capitalisme, et non l'IA. Il critique la vision à court terme de la technologie et rejette le revenu universel de base, le jugeant comme une solution contraire à la dignité humaine. 

  • Apple est poursuivi en justice par les auteurs Grady Hendrix et Jennifer Roberson pour avoir prétendument utilisé des livres piratés pour entraîner son IA. La plainte affirme qu'Apple s'est appuyée sur l'ensemble de données Books3 et a récupéré des données de sites web à l'aide d'Applebot.

  • Microsoft Azure subit une latence accrue en raison de multiples coupures de fibre optique sous-marine en mer Rouge. Malgré les perturbations du trafic au Moyen-Orient, Azure a redirigé les données et les services centraux restent opérationnels.

  • Roman Yampolskiy, pionnier de la sécurité de l'IA, prédit un taux de chômage de 99 % d'ici 2030, l'IA remplaçant la quasi-totalité des emplois. Il prévient que la reconversion professionnelle ne servira à rien et exhorte la société à se préparer à un avenir sans travail traditionnel ni sens. 

  • OpenAI prévient que les ventes non autorisées de ses actions – via des SPV, des jetons ou des contrats – sont invalides et peuvent enfreindre les lois sur les valeurs mobilières. Tout transfert d'actions nécessite un consentement écrit, et les contrevenants s'exposent à des poursuites judiciaires et à des pertes financières.

  • Daniel Edrisian annonce que son équipe, à l'origine d'Alex, un agent de codage IA pour iOS/MacOS, rejoint l'équipe Codex d'OpenAI. Leur objectif est de développer leur mission d'aide à la création de développeurs, désormais au sein d'OpenAI. 

🎬DERNIÈRES VIDÉOS