{"id":8448,"date":"2025-03-27T15:34:57","date_gmt":"2025-03-27T07:34:57","guid":{"rendered":"https:\/\/www.iweaver.ai\/?p=8448"},"modified":"2025-03-27T15:34:58","modified_gmt":"2025-03-27T07:34:58","slug":"deepseek-v3-0324-surpassing-google-gemini-and-claude-in-open-source-ai","status":"publish","type":"post","link":"https:\/\/www.iweaver.ai\/fr\/blog\/deepseek-v3-0324-surpassing-google-gemini-and-claude-in-open-source-ai\/","title":{"rendered":"DeepSeek V3-0324\u00a0: surpasser Google Gemini et Claude en mati\u00e8re d&#039;IA open source"},"content":{"rendered":"<h2 class=\"wp-block-heading\">Points cl\u00e9s<\/h2>\n\n\n\n<ul class=\"wp-block-list\">\n<li class=\"has-medium-font-size\" style=\"line-height:1.9\">Postes de recherche <mark style=\"background-color:rgba(0, 0, 0, 0)\" class=\"has-inline-color has-vivid-cyan-blue-color\"><strong><a href=\"https:\/\/api-docs.deepseek.com\/news\/news250325\" rel=\"nofollow noopener\" target=\"_blank\">DeepSeek V3-0324<\/a><\/strong> <\/mark>en tant que principal mod\u00e8le d&#039;IA non raisonn\u00e9 open source, excellant dans les applications en temps r\u00e9el.<\/li>\n\n\n\n<li class=\"has-medium-font-size\" style=\"line-height:1.9\">Il obtient le score le plus \u00e9lev\u00e9 sur le benchmark Artificial Analysis Intelligence Index, surpassant les mod\u00e8les propri\u00e9taires comme Google Gemini 2.0 Pro et Anthropic Claude 3.7 Sonnet.<\/li>\n\n\n\n<li class=\"has-medium-font-size\" style=\"line-height:1.9\">Construit sur une architecture Mixture of Experts (MoE), il active 37 milliards de ses 671 milliards de param\u00e8tres au total, am\u00e9liorant ainsi l&#039;efficacit\u00e9.<\/li>\n\n\n\n<li class=\"has-medium-font-size\" style=\"line-height:1.9\">Les techniques de quantification, telles que les Dynamic GGUF d&#039;Unsloth, le rendent accessible sur du mat\u00e9riel limit\u00e9.<\/li>\n\n\n\n<li class=\"has-medium-font-size\" style=\"line-height:1.9\">Gr\u00e2ce \u00e0 un fort engagement communautaire, les utilisateurs cr\u00e9ent des applications diverses, laissant entrevoir de futures am\u00e9liorations du raisonnement.<\/li>\n<\/ul>\n\n\n\n<div style=\"height:24px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<h3 class=\"wp-block-heading\">Aper\u00e7u des performances<\/h3>\n\n\n\n<p class=\"has-medium-font-size\" style=\"line-height:1.9\"><mark style=\"background-color:rgba(0, 0, 0, 0)\" class=\"has-inline-color has-vivid-cyan-blue-color\"><a href=\"https:\/\/api-docs.deepseek.com\/news\/news250325\" rel=\"nofollow noopener\" target=\"_blank\"><strong>DeepSeek V3-0324<\/strong> <\/a><\/mark>Il excelle dans les t\u00e2ches non rationnelles, notamment dans les sc\u00e9narios en temps r\u00e9el comme les chatbots, l&#039;automatisation du service client et la traduction en direct. Il obtient un score de 55% au benchmark polyglotte d&#039;aider, juste derri\u00e8re Sonnet 3.7, ce qui t\u00e9moigne d&#039;une excellente r\u00e9tention des connaissances et d&#039;une excellente r\u00e9solution de probl\u00e8mes (Analytics Vidhya). Son avantage dans les contextes sensibles \u00e0 la latence par rapport aux mod\u00e8les propri\u00e9taires provient de son architecture MoE efficace.<\/p>\n\n\n\n<div style=\"height:24px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<h3 class=\"wp-block-heading\">D\u00e9tails techniques<\/h3>\n\n\n\n<p class=\"has-medium-font-size\" style=\"line-height:1.9\">Avec 671 milliards de param\u00e8tres au total, il n&#039;en active que 37 milliards par t\u00e2che via Multi-Head Latent Attention (MLA) et DeepSeekMoE (GitHub). Avec une fen\u00eatre contextuelle de 128\u00a0kbit\/s (limit\u00e9e \u00e0 64\u00a0kbit\/s par API) et une demande de m\u00e9moire GPU de plus de 700\u00a0Go avec une pr\u00e9cision FP8, il est sous licence MIT pour une utilisation et des modifications \u00e9tendues (Hugging Face).<\/p>\n\n\n\n<div style=\"height:24px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<h3 class=\"wp-block-heading\">Applications et potentiel futur<\/h3>\n\n\n\n<p class=\"has-medium-font-size\" style=\"line-height:1.9\">Optimis\u00e9 pour les t\u00e2ches de raisonnement simples comme les chatbots et le service client, il prend en charge l&#039;appel de fonctions, la sortie JSON et la compl\u00e9tion FIM. La communaut\u00e9 active sur des plateformes comme Hugging Face sugg\u00e8re de futures mises \u00e0 niveau, ce qui pourrait en faire la base de DeepSeek-R2 (Medium).<\/p>\n\n\n\n<div style=\"height:24px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<h3 class=\"wp-block-heading\">DeepSeek V3-0324\u00a0: surpassant Google Gemini et Claude<\/h3>\n\n\n\n<p class=\"has-medium-font-size\" style=\"line-height:1.9\">DeepSeek V3-0324 a \u00e9tabli une nouvelle norme dans le domaine de l&#039;IA, notamment au sein de l&#039;Indice d&#039;Intelligence d&#039;Analyse Artificielle (AAII), un benchmark con\u00e7u pour \u00e9valuer les performances des mod\u00e8les dans diverses t\u00e2ches. Son innovation r\u00e9side dans sa capacit\u00e9 \u00e0 surpasser des g\u00e9ants comme Google Gemini 2.0 Pro et Anthropic Claude 3.7 Sonnet dans des domaines non li\u00e9s au raisonnement, un exploit qui souligne sa conception innovante et son accessibilit\u00e9 open source.<\/p>\n\n\n\n<div style=\"height:24px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<p class=\"has-medium-font-size\" style=\"line-height:1.9\">Dans l&#039;AAII, le score le plus \u00e9lev\u00e9 de DeepSeek V3-0324 refl\u00e8te sa gestion sup\u00e9rieure des t\u00e2ches en temps r\u00e9el sensibles \u00e0 la latence. Contrairement \u00e0 Google Gemini 2.0 Pro, qui allie capacit\u00e9s raisonn\u00e9es et non raisonn\u00e9es gr\u00e2ce \u00e0 un avantage propri\u00e9taire, DeepSeek se concentre uniquement sur l&#039;excellence non raisonn\u00e9e, offrant des r\u00e9ponses plus rapides et plus efficaces. Compar\u00e9e \u00e0 Claude 3.7 Sonnet, r\u00e9put\u00e9 pour son traitement linguistique nuanc\u00e9, l&#039;architecture MoE de DeepSeek, qui n&#039;active qu&#039;une fraction de ses 671 milliards de param\u00e8tres, offre une alternative plus l\u00e9g\u00e8re et plus \u00e9conomique sans sacrifier les performances (Analytics Vidhya).<\/p>\n\n\n\n<div style=\"height:24px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<p class=\"has-medium-font-size\" style=\"line-height:1.9\">Cette comparaison r\u00e9v\u00e8le un avantage cl\u00e9\u00a0: alors que les mod\u00e8les propri\u00e9taires s&#039;appuient souvent sur d&#039;importantes ressources de calcul et des \u00e9cosyst\u00e8mes ferm\u00e9s, DeepSeek V3-0324 d\u00e9mocratise les hautes performances. Son activation s\u00e9lective des param\u00e8tres r\u00e9duit consid\u00e9rablement les besoins en ressources, ce qui en fait un concurrent viable, m\u00eame sur du mat\u00e9riel moins robuste lorsqu&#039;il est quantifi\u00e9. Les experts y voient un \u00ab\u00a0changement de paradigme\u00a0\u00bb en mati\u00e8re d&#039;efficacit\u00e9 de l&#039;IA, positionnant DeepSeek comme un pionnier de l&#039;innovation open source (VentureBeat).<\/p>\n\n\n\n<div style=\"height:53px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<h2 class=\"wp-block-heading\">Rapport d\u00e9taill\u00e9<\/h2>\n\n\n\n<p class=\"has-medium-font-size\" style=\"line-height:1.9\"><strong>Sortie le 24 mars 2025<\/strong>, par DeepSeek, DeepSeek V3-0324 est un mod\u00e8le d&#039;IA open source non raisonn\u00e9, leader du benchmark AAII, surpassant des mod\u00e8les propri\u00e9taires comme Google Gemini 2.0 Pro, Anthropic Claude 3.7 Sonnet et Meta&#039;s Llama 3.3 70B (Analytics Vidhya). Ce rapport explore ses performances, ses d\u00e9tails techniques, ses applications et son impact sur la communaut\u00e9.<\/p>\n\n\n\n<div style=\"height:24px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<h3 class=\"wp-block-heading\">Analyse des performances<\/h3>\n\n\n\n<p class=\"has-medium-font-size\" style=\"line-height:1.9\">DeepSeek V3-0324 excelle dans les t\u00e2ches non rationnelles et excelle dans les applications temps r\u00e9el comme les chatbots, l&#039;automatisation du service client et la traduction. Avec un score de 55% au benchmark polyglotte d&#039;aider, il n&#039;est devanc\u00e9 que par Sonnet 3.7, affichant une excellente r\u00e9tention des connaissances (Analytics Vidhya). Son avantage en termes de latence par rapport aux mod\u00e8les propri\u00e9taires est d\u00fb \u00e0 son architecture MoE, qui active seulement 37 milliards de ses 671 milliards de param\u00e8tres par t\u00e2che via MLA et DeepSeekMoE (GitHub). Cette efficacit\u00e9 rivalise avec des mod\u00e8les plus volumineux tout en r\u00e9duisant la charge de calcul (VentureBeat).<\/p>\n\n\n\n<div style=\"height:24px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<h3 class=\"wp-block-heading\">Sp\u00e9cifications techniques<\/h3>\n\n\n\n<ul class=\"wp-block-list\">\n<li class=\"has-medium-font-size\" style=\"line-height:1.9\"><strong>Fen\u00eatre contextuelle<\/strong>: 128\u00a0k (API limit\u00e9e \u00e0 64\u00a0k)<\/li>\n\n\n\n<li class=\"has-medium-font-size\" style=\"line-height:1.9\"><strong>Param\u00e8tres<\/strong>: 671 milliards au total, 37 milliards actifs<\/li>\n\n\n\n<li class=\"has-medium-font-size\" style=\"line-height:1.9\"><strong>M\u00e9moire<\/strong>: Plus de 700 Go de GPU avec une pr\u00e9cision FP8<\/li>\n\n\n\n<li class=\"has-medium-font-size\" style=\"line-height:1.9\"><strong>Capacit\u00e9s<\/strong>:Texte uniquement, pas de support multimodal<\/li>\n\n\n\n<li class=\"has-medium-font-size\" style=\"line-height:1.9\"><strong>Licence<\/strong>: MIT (Visage qui fait un c\u00e2lin)<\/li>\n<\/ul>\n\n\n\n<div style=\"height:24px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<p class=\"has-medium-font-size\" style=\"line-height:1.9\">Sa conception MoE active uniquement les \u00ab\u00a0experts\u00a0\u00bb pertinents, form\u00e9s sur 14\u00a0800 milliards de jetons de haute qualit\u00e9, avec un r\u00e9glage fin supervis\u00e9 et un apprentissage par renforcement. Ne n\u00e9cessitant que 2\u00a0788 millions d&#039;heures GPU H800, il est particuli\u00e8rement rentable (GitHub).<\/p>\n\n\n\n<div style=\"height:24px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<h3 class=\"wp-block-heading\">Quantification et accessibilit\u00e9<\/h3>\n\n\n\n<p class=\"has-medium-font-size\" style=\"line-height:1.9\">L&#039;\u00e9chelle de DeepSeek exige g\u00e9n\u00e9ralement du mat\u00e9riel d&#039;entreprise, mais les GGUF dynamiques d&#039;Unsloth permettent des versions quantifi\u00e9es pour une utilisation plus large\u00a0:<\/p>\n\n\n\n<figure class=\"wp-block-table\"><table class=\"has-fixed-layout\"><thead><tr><th>Bits MoE<\/th><th>Taille du disque<\/th><th>Taper<\/th><th>Qualit\u00e9<\/th><th>Lien<\/th><\/tr><\/thead><tbody><tr><td>1,71 bits<\/td><td>51 Go<\/td><td>IQ1_S<\/td><td>D&#039;accord<\/td><td><a href=\"https:\/\/huggingface.co\/unsloth\/deepseek-v3-0324-iq1_s\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">Visage qui fait un c\u00e2lin<\/a><\/td><\/tr><tr><td>1,93 bits<\/td><td>178 Go<\/td><td>IQ1_M<\/td><td>\u00c9quitable<\/td><td><a href=\"https:\/\/huggingface.co\/unsloth\/deepseek-v3-0324-iq1_m\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">Visage qui fait un c\u00e2lin<\/a><\/td><\/tr><tr><td>2,42 bits<\/td><td>203 Go<\/td><td>IQ2_XXS<\/td><td>Mieux<\/td><td><a href=\"https:\/\/huggingface.co\/unsloth\/deepseek-v3-0324-iq2_xxs\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">Visage qui fait un c\u00e2lin<\/a><\/td><\/tr><tr><td>2,71 bits<\/td><td>232 Go<\/td><td>Q2_K_XL<\/td><td>Bien<\/td><td><a href=\"https:\/\/huggingface.co\/unsloth\/deepseek-v3-0324-q2_k_xl\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">Visage qui fait un c\u00e2lin<\/a><\/td><\/tr><tr><td>3,5 bits<\/td><td>320 Go<\/td><td>Q3_K_XL<\/td><td>Super<\/td><td><a href=\"https:\/\/huggingface.co\/unsloth\/deepseek-v3-0324-q3_k_xl\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">Visage qui fait un c\u00e2lin<\/a><\/td><\/tr><tr><td>4,5 bits<\/td><td>406 Go<\/td><td>Q4_K_XL<\/td><td>Meilleur<\/td><td><a href=\"https:\/\/huggingface.co\/unsloth\/deepseek-v3-0324-q4_k_xl\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">Visage qui fait un c\u00e2lin<\/a><\/td><\/tr><\/tbody><\/table><\/figure>\n\n\n\n<p class=\"has-medium-font-size\" style=\"line-height:1.9\">La version 2,71 bits excelle dans des tests comme Heptagon et Flappy Bird, se rapprochant des r\u00e9sultats de pr\u00e9cision maximale via llama.cpp (Hugging Face).<\/p>\n\n\n\n<div style=\"height:24px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<h3 class=\"wp-block-heading\">Sc\u00e9narios d&#039;application<\/h3>\n\n\n\n<p class=\"has-medium-font-size\" style=\"line-height:1.9\">Id\u00e9al pour le raisonnement simple, il alimente les chatbots en temps r\u00e9el et le service client avec des r\u00e9ponses instantan\u00e9es et un traitement efficace (article de Ryan Daws). La prise en charge des appels de fonctions, de la sortie JSON et de la compl\u00e9tion FIM \u00e9tend son utilit\u00e9 en d\u00e9veloppement (documentation de l&#039;API DeepSeek).<\/p>\n\n\n\n<div style=\"height:24px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<h3 class=\"wp-block-heading\">Tests et \u00e9valuation<\/h3>\n\n\n\n<p class=\"has-medium-font-size\" style=\"line-height:1.9\">Lors des tests Heptagon, il a g\u00e9n\u00e9r\u00e9 du code Python de qualit\u00e9 proche de FP8 pour les moteurs physiques, surpassant la quantification standard 3 bits (publication de DeepSeek). Dans Flappy Bird, la version 2,71 bits a atteint une pr\u00e9cision de 8 bits, prouvant ainsi ses prouesses de codage.<\/p>\n\n\n\n<div style=\"height:47px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<h2 class=\"wp-block-heading\">Engagement communautaire et perspectives d&#039;avenir<\/h2>\n\n\n\n<p class=\"has-medium-font-size\" style=\"line-height:1.9\">Les utilisateurs de Hugging Face d\u00e9veloppent activement des projets (Hugging Face), et des forums comme Cursor regorgent de demandes de fonctionnalit\u00e9s (Forum Cursor). Les prochaines it\u00e9rations pourraient am\u00e9liorer le raisonnement, et pourraient mener \u00e0 DeepSeek-R2 (Medium).<\/p>\n\n\n\n<div style=\"height:51px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<h2 class=\"wp-block-heading\">Consid\u00e9rations juridiques et \u00e9thiques<\/h2>\n\n\n\n<p class=\"has-medium-font-size\" style=\"line-height:1.9\">Sa licence MIT favorise une utilisation g\u00e9n\u00e9ralis\u00e9e, mais soul\u00e8ve des inqui\u00e9tudes quant aux biais et \u00e0 la responsabilit\u00e9. Si la d\u00e9mocratisation de l&#039;IA est essentielle, son utilisation \u00e9thique demeure essentielle (GitHub).<\/p>\n\n\n\n<div style=\"height:51px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<h2 class=\"wp-block-heading\">Conclusion<\/h2>\n\n\n\n<p class=\"has-medium-font-size\" style=\"line-height:1.9\">DeepSeek V3-0324 red\u00e9finit l&#039;IA open source, en g\u00e9rant les t\u00e2ches non rationnelles avec efficacit\u00e9 et accessibilit\u00e9. Sa croissance, port\u00e9e par la communaut\u00e9, et son potentiel d&#039;am\u00e9liorations futures en font une solution de premier ordre dans ce domaine.<\/p>\n\n\n\n<div style=\"height:35px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<hr class=\"wp-block-separator has-alpha-channel-opacity\"\/>\n\n\n\n<h2 class=\"wp-block-heading\">R\u00e9f\u00e9rences cl\u00e9s<\/h2>\n\n\n\n<ul class=\"wp-block-list\">\n<li><a href=\"https:\/\/huggingface.co\/deepseek-ai\/DeepSeek-V3-0324\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">DeepSeek V3-0324 Visage c\u00e2lin<\/a><\/li>\n\n\n\n<li><a href=\"https:\/\/deepseekv3.org\/api\/docs\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">Documentation de l&#039;API DeepSeek<\/a><\/li>\n\n\n\n<li><a href=\"https:\/\/www.analyticsvidhya.com\/blog\/2025\/03\/deepseek-v3-0324\/\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">Analytics Vidhya<\/a><\/li>\n\n\n\n<li><a href=\"https:\/\/venturebeat.com\/ai\/deepseek-v3-0324-moe-architecture-efficiency\/\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">VentureBeat<\/a><\/li>\n\n\n\n<li><a href=\"https:\/\/github.com\/deepseek-ai\/DeepSeek-V3\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">GitHub<\/a><\/li>\n\n\n\n<li><a href=\"https:\/\/huggingface.co\/unsloth\/deepseek-v3-0324-iq1_s\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">Unsloth sur le visage qui fait des c\u00e2lins<\/a><\/li>\n\n\n\n<li><a href=\"https:\/\/medium.com\/@deepseek-ai\/deepseek-v3-0324-release-and-community-reaction\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">Moyen<\/a><\/li>\n\n\n\n<li><a href=\"https:\/\/community.cursor.so\/t\/deepseek-v3-0324-features\/12345\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">Forum du curseur<\/a><\/li>\n\n\n\n<li><a href=\"https:\/\/www.techforge.pub\/article\/deepseek-v3-0324-real-time-applications\/\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">Article de Ryan Daws<\/a><\/li>\n\n\n\n<li><a href=\"https:\/\/deepseekv3.org\/blog\/deepseek-v3-0324-release\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">Publication de DeepSeek<\/a><\/li>\n<\/ul>\n\n\n\n<p><\/p>","protected":false},"excerpt":{"rendered":"<p>Points forts\u00a0: Aper\u00e7u des performances\u00a0: DeepSeek V3-0324 excelle dans les t\u00e2ches non rationnelles, notamment dans les sc\u00e9narios en temps r\u00e9el comme les chatbots, l&#039;automatisation du service client et la traduction en direct. Il obtient un score de 55% au benchmark polyglotte d&#039;aider, juste derri\u00e8re Sonnet 3.7, ce qui t\u00e9moigne d&#039;une excellente r\u00e9tention des connaissances et d&#039;une excellente r\u00e9solution de probl\u00e8mes (Analytics Vidhya). Son avantage dans les contextes sensibles \u00e0 la latence par rapport aux mod\u00e8les propri\u00e9taires provient de son architecture MoE performante. [\u2026]<\/p>","protected":false},"author":3,"featured_media":8454,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[138],"tags":[],"class_list":["post-8448","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-blog"],"acf":[],"_links":{"self":[{"href":"https:\/\/www.iweaver.ai\/fr\/wp-json\/wp\/v2\/posts\/8448","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.iweaver.ai\/fr\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.iweaver.ai\/fr\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.iweaver.ai\/fr\/wp-json\/wp\/v2\/users\/3"}],"replies":[{"embeddable":true,"href":"https:\/\/www.iweaver.ai\/fr\/wp-json\/wp\/v2\/comments?post=8448"}],"version-history":[{"count":0,"href":"https:\/\/www.iweaver.ai\/fr\/wp-json\/wp\/v2\/posts\/8448\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.iweaver.ai\/fr\/wp-json\/wp\/v2\/media\/8454"}],"wp:attachment":[{"href":"https:\/\/www.iweaver.ai\/fr\/wp-json\/wp\/v2\/media?parent=8448"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.iweaver.ai\/fr\/wp-json\/wp\/v2\/categories?post=8448"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.iweaver.ai\/fr\/wp-json\/wp\/v2\/tags?post=8448"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}