{"id":23351,"date":"2026-02-19T22:00:56","date_gmt":"2026-02-19T14:00:56","guid":{"rendered":"https:\/\/www.iweaver.ai\/?p=23351"},"modified":"2026-02-19T22:04:21","modified_gmt":"2026-02-19T14:04:21","slug":"what-breakthroughs-does-glm-5-deliver","status":"publish","type":"post","link":"https:\/\/www.iweaver.ai\/fr\/blog\/what-breakthroughs-does-glm-5-deliver\/","title":{"rendered":"Analyse approfondie du GLM-5\u00a0: Principales avanc\u00e9es, classement de l\u2019analyse artificielle et avantages et inconv\u00e9nients pratiques en ing\u00e9nierie"},"content":{"rendered":"<p>J&#039;\u00e9value GLM-5 principalement comme un <strong>mod\u00e8le d&#039;ing\u00e9nierie<\/strong>, et non pas comme un mod\u00e8le de chat g\u00e9n\u00e9ral qui doit simplement \u00ab sonner juste \u00bb. Mon approche est simple\u00a0: j\u2019utilise d\u2019abord des benchmarks publics largement r\u00e9f\u00e9renc\u00e9s pour confirmer la position de GLM-5 parmi les meilleurs, puis je valide ces signaux avec un <strong>flux de travail reproductible<\/strong> pour v\u00e9rifier si GLM-5 est r\u00e9ellement plus stable et plus pratique pour des t\u00e2ches d&#039;ing\u00e9nierie concr\u00e8tes. Sur la base de ce processus, ma conclusion est que les progr\u00e8s de GLM-5 ne se limitent pas \u00e0 l&#039;\u00e9chelle\u00a0; ils concernent \u00e9galement\u2026 <strong>efficacit\u00e9 \u00e0 long terme<\/strong>, <strong>formation des agents<\/strong>, et <strong>stabilit\u00e9 de sortie de qualit\u00e9 ing\u00e9nierie<\/strong> Parall\u00e8lement, cette combinaison explique en partie pourquoi ses performances se rapprochent de celles des meilleurs mod\u00e8les ferm\u00e9s, tant dans les classements composites que lors des \u00e9valuations d&#039;agents en situation r\u00e9elle.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">J&#039;utilise deux indicateurs pour \u00e9tablir la position de GLM-5<\/h2>\n\n\n\n<p>Pour \u00e9viter de me fier uniquement \u00e0 des impressions subjectives, j&#039;ancre mon \u00e9valuation de GLM-5 dans deux axes d&#039;\u00e9valuation compl\u00e9mentaires en mati\u00e8re d&#039;analyse artificielle\u00a0:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong><a href=\"https:\/\/artificialanalysis.ai\/evaluations\/artificial-analysis-intelligence-index\" rel=\"nofollow noopener\" target=\"_blank\">Indice d&#039;intelligence artificielle <\/a><\/strong><strong>(score de capacit\u00e9 composite) :<\/strong> Scores GLM-5 <strong>50<\/strong>ce qui le place dans la cat\u00e9gorie des meilleurs. Parmi les scores sup\u00e9rieurs, on trouve Claude Opus 4.6 (raisonnement adaptatif) \u00e0 <strong>53<\/strong> et GPT-5.2 (xhigh) \u00e0 <strong>51<\/strong>, tandis que Claude Opus 4.5 figure \u00e9galement dans le <strong>50<\/strong> \u00c9chelle. Cet indice agr\u00e8ge plusieurs \u00e9valuations en un score unique qui refl\u00e8te la force globale en mati\u00e8re de raisonnement, de codage et de capacit\u00e9s connexes.<\/li>\n\n\n\n<li><strong><a href=\"https:\/\/artificialanalysis.ai\/evaluations\/artificial-analysis-intelligence-index\" rel=\"nofollow noopener\" target=\"_blank\">GDPval-AA<\/a><\/strong><strong> (\u00e9valuation concr\u00e8te du travail intellectuel par les agents) :<\/strong> Le GLM-5 poss\u00e8de un <strong>Classement Elo de 1412<\/strong>En termes simples, Elo est un syst\u00e8me de notation math\u00e9matique. <strong>score de force relative en confrontation directe<\/strong>Un score Elo plus \u00e9lev\u00e9 signifie un taux de r\u00e9ussite global plus \u00e9lev\u00e9 sur un m\u00eame ensemble de t\u00e2ches. GDPval-AA est con\u00e7u pour reproduire des situations de travail r\u00e9elles (par exemple, la r\u00e9cup\u00e9ration d&#039;informations, leur analyse et la production de livrables) et permet aux mod\u00e8les de fonctionner dans un environnement d&#039;agents avec acc\u00e8s aux outils.<\/li>\n<\/ul>\n\n\n\n<figure class=\"wp-block-image size-large\"><img fetchpriority=\"high\" decoding=\"async\" width=\"1024\" height=\"606\" src=\"https:\/\/www.iweaver.ai\/wp-content\/uploads\/2026\/02\/artificial-analysis-intelligence-index-and-gdpval-aa-leaderboard-chart-highlighting-glm-5-score-50-and-elo-1412-1024x606.webp\" alt=\"\" class=\"wp-image-23352\" srcset=\"https:\/\/www.iweaver.ai\/wp-content\/uploads\/2026\/02\/artificial-analysis-intelligence-index-and-gdpval-aa-leaderboard-chart-highlighting-glm-5-score-50-and-elo-1412-1024x606.webp 1024w, https:\/\/www.iweaver.ai\/wp-content\/uploads\/2026\/02\/artificial-analysis-intelligence-index-and-gdpval-aa-leaderboard-chart-highlighting-glm-5-score-50-and-elo-1412-300x177.webp 300w, https:\/\/www.iweaver.ai\/wp-content\/uploads\/2026\/02\/artificial-analysis-intelligence-index-and-gdpval-aa-leaderboard-chart-highlighting-glm-5-score-50-and-elo-1412-768x454.webp 768w, https:\/\/www.iweaver.ai\/wp-content\/uploads\/2026\/02\/artificial-analysis-intelligence-index-and-gdpval-aa-leaderboard-chart-highlighting-glm-5-score-50-and-elo-1412-1536x908.webp 1536w, https:\/\/www.iweaver.ai\/wp-content\/uploads\/2026\/02\/artificial-analysis-intelligence-index-and-gdpval-aa-leaderboard-chart-highlighting-glm-5-score-50-and-elo-1412-18x12.webp 18w, https:\/\/www.iweaver.ai\/wp-content\/uploads\/2026\/02\/artificial-analysis-intelligence-index-and-gdpval-aa-leaderboard-chart-highlighting-glm-5-score-50-and-elo-1412.webp 2048w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><\/figure>\n\n\n\n<p>Pris ensemble, ces deux indicateurs convergent vers une hypoth\u00e8se claire\u00a0: <strong>L&#039;avantage de GLM-5 ne provient probablement pas de simples \u00ab astuces \u00bb appliqu\u00e9es \u00e0 des ensembles de tests sp\u00e9cifiques. Il provient plus vraisemblablement de la qualit\u00e9 et de la stabilit\u00e9 de l&#039;ex\u00e9cution des t\u00e2ches complexes \u00e0 plusieurs \u00e9tapes.<\/strong><\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Comment je teste GLM-5\u00a0: trois flux de travail d\u2019ing\u00e9nierie \u00e0 haute fr\u00e9quence<\/h2>\n\n\n\n<p>Mes tests pratiques s&#039;apparentent davantage \u00e0 une validation technique qu&#039;\u00e0 une simple d\u00e9monstration. Je me concentre moins sur la capacit\u00e9 du mod\u00e8le \u00e0 g\u00e9n\u00e9rer des explications plus longues que sur sa capacit\u00e9 \u00e0 fournir des r\u00e9sultats corrects et exploitables malgr\u00e9 les contraintes. Je teste principalement trois types de flux de travail\u00a0:<\/p>\n\n\n\n<ol start=\"1\" class=\"wp-block-list\">\n<li><strong>T\u00e2ches d&#039;ing\u00e9nierie logicielle \u00e0 long terme\u00a0:<\/strong> Je fournis un segment de code plus long ainsi que des contraintes de documentation, et j&#039;exige la localisation des probl\u00e8mes entre les fichiers et une proposition de correction avec un minimum de modifications.<\/li>\n\n\n\n<li><strong>Modifications incr\u00e9mentales du code\u00a0:<\/strong> Je demande des modifications limit\u00e9es \u00e0 une fonction ou un module sp\u00e9cifique, en conservant le reste de la structure intact, et je demande un correctif de type diff ainsi que la prise en compte des risques de r\u00e9gression.<\/li>\n\n\n\n<li><strong>Cha\u00eenes de t\u00e2ches centr\u00e9es sur les outils\u00a0:<\/strong> Je structure les t\u00e2ches comme suit : r\u00e9cup\u00e9rer \u2192 synth\u00e9tiser \u2192 produire un livrable, et je v\u00e9rifie si le mod\u00e8le peut demander clairement les entr\u00e9es manquantes et proposer un chemin de nouvelle tentative fiable en cas d&#039;\u00e9chec.<\/li>\n<\/ol>\n\n\n\n<p>J&#039;utilise ces flux de travail car les am\u00e9liorations de l&#039;indice d&#039;intelligence et du PIBval-AA devraient appara\u00eetre plus clairement dans <strong>cha\u00eenes de production longues, utilisation d&#039;outils et livrables d&#039;ing\u00e9nierie<\/strong> plut\u00f4t que par de courtes invites \u00e0 un seul tour.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Les principales avanc\u00e9es du GLM-5\u00a0: une mise \u00e0 niveau structurelle gr\u00e2ce \u00e0 trois modifications de renforcement<\/h2>\n\n\n\n<p><strong>L&#039;attention parcimonieuse du DSA rend le contexte long \u00e9conomiquement viable.<\/strong><\/p>\n\n\n\n<p>Dans les documents publics et le <a href=\"https:\/\/www.arxiv.org\/abs\/2602.15763\" rel=\"nofollow noopener\" target=\"_blank\">papier<\/a>, GLM-5 met l&#039;accent sur l&#039;adoption <strong>DSA (Attention clairsem\u00e9e \u00e0 recherche profonde)<\/strong>En clair\u00a0: lorsque les entr\u00e9es deviennent tr\u00e8s longues, le mod\u00e8le n\u2019a pas besoin de consacrer la m\u00eame quantit\u00e9 de ressources de calcul \u00e0 chaque jeton. Il alloue plut\u00f4t davantage de ressources aux jetons les plus importants et pertinents, r\u00e9duisant ainsi les co\u00fbts d\u2019entra\u00eenement et d\u2019inf\u00e9rence tout en pr\u00e9servant la qualit\u00e9 du contexte long.<\/p>\n\n\n\n<p>Dans mes tests, l&#039;implication pratique est coh\u00e9rente avec cet objectif de conception\u00a0: \u00e0 mesure que le contexte s&#039;\u00e9largit, <strong>la latence tend \u00e0 augmenter plus progressivement.<\/strong>, et <strong>La coh\u00e9rence de sortie tend \u00e0 rester plus stable<\/strong>Cela est important dans le contexte de l&#039;ing\u00e9nierie car l&#039;exploration du code source, l&#039;accumulation des exigences et l&#039;ex\u00e9cution \u00e0 long terme \u00e9largissent naturellement le contexte au fil du temps.<\/p>\n\n\n\n<p><strong>L&#039;infrastructure RL asynchrone (\u00ab slime \u00bb) est mieux adapt\u00e9e aux interactions \u00e0 long terme.<\/strong><\/p>\n\n\n\n<p>GLM-5 d\u00e9crit publiquement une configuration d&#039;apprentissage par renforcement asynchrone qui d\u00e9couple la g\u00e9n\u00e9ration de trajectoires (d\u00e9ploiement) de l&#039;entra\u00eenement afin d&#039;am\u00e9liorer le d\u00e9bit et l&#039;efficacit\u00e9. Concr\u00e8tement, cela signifie que le mod\u00e8le peut apprendre plus efficacement \u00e0 partir de grands volumes de traces d&#039;interaction. <strong>comment mener \u00e0 bien des t\u00e2ches de bout en bout<\/strong>, plut\u00f4t que d&#039;apprendre seulement \u00e0 produire des r\u00e9ponses qui paraissent plausibles prises isol\u00e9ment.<\/p>\n\n\n\n<p>Dans les flux de travail pratiques, je le constate le plus clairement dans la gestion des erreurs\u00a0: au lieu de boucler sur du texte improductif, GLM-5 revient plus souvent aux contraintes et propose <strong>nouvelles \u00e9tapes ex\u00e9cutables<\/strong>et il pr\u00e9cise plus clairement quelles donn\u00e9es sont manquantes.<\/p>\n\n\n\n<p><strong>Les objectifs de formation \u00e9voluent vers l&#039;ing\u00e9nierie de l&#039;agentivit\u00e9, et non plus vers l&#039;acquisition de comp\u00e9tences ponctuelles.<\/strong><\/p>\n\n\n\n<p>GLM-5 se positionne explicitement comme passant d&#039;une \u00ab programmation guid\u00e9e par invite \u00bb \u00e0 une approche diff\u00e9rente. <strong>ing\u00e9nierie agentique<\/strong>J&#039;interpr\u00e8te cela comme un objectif de formation qui va au-del\u00e0 de l&#039;\u00e9criture de code ou de la r\u00e9solution de probl\u00e8mes de raisonnement isol\u00e9s\u00a0: le mod\u00e8le doit planifier, ex\u00e9cuter et r\u00e9fl\u00e9chir sur des horizons plus longs, produisant des r\u00e9sultats utilisables dans les flux de travail d&#039;ing\u00e9nierie.<\/p>\n\n\n\n<p>Ce cadre permet d&#039;expliquer pourquoi GLM-5 peut \u00eatre performant sur GDPval-AA (t\u00e2ches d&#039;agents de travail de connaissances) tout en obtenant des r\u00e9sultats comp\u00e9titifs sur l&#039;indice d&#039;intelligence composite.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Pourquoi le GLM-5 reste \u00ab\u00a0juste derri\u00e8re\u00a0\u00bb les fleurons ferm\u00e9s\u00a0: l\u2019\u00e9cart est plus faible, mais pas nul.<\/h2>\n\n\n\n<p><strong>GLM-5 se situe d\u00e9j\u00e0 dans la m\u00eame tranche de scores \u00e9lev\u00e9e.<\/strong><\/p>\n\n\n\n<p>UN <strong>50<\/strong> L&#039;indice d&#039;intelligence sugg\u00e8re l&#039;absence de faiblesses majeures dans l&#039;ensemble des \u00e9valuations\u00a0; autrement, il serait difficile de maintenir un score aussi \u00e9lev\u00e9. Il se situe dans la m\u00eame cat\u00e9gorie que Claude Opus 4.5, et l\u00e9g\u00e8rement en dessous de Claude Opus 4.6 (raisonnement adaptatif) et de GPT-5.2 (xhigh).<\/p>\n\n\n\n<p><strong>GLM-5 est proche des projets phares en mati\u00e8re de travail du savoir r\u00e9el <\/strong><strong>Agent<\/strong><strong> T\u00e2ches<\/strong><\/p>\n\n\n\n<p>Un <strong>Elo de 1412<\/strong> L&#039;utilisation de GDPval-AA indique des taux de r\u00e9ussite relatifs \u00e9lev\u00e9s pour les t\u00e2ches intellectuelles r\u00e9alis\u00e9es \u00e0 l&#039;aide d&#039;outils. Pour les d\u00e9cisions de d\u00e9ploiement, ce r\u00e9sultat est souvent plus pr\u00e9dictif qu&#039;une pr\u00e9cision statique sur un banc d&#039;essai restreint, car de nombreux sc\u00e9narios de production impliquent la recherche, l&#039;analyse, la r\u00e9daction et la coordination des outils.<\/p>\n\n\n\n<p><strong>Les diff\u00e9rences restantes se manifestent dans les situations de difficult\u00e9 extr\u00eame et de maturit\u00e9 politique.<\/strong><\/p>\n\n\n\n<p>Les syst\u00e8mes phares ferm\u00e9s conservent souvent des avantages en mati\u00e8re de maturit\u00e9 des politiques\u00a0: autocontr\u00f4le plus coh\u00e9rent, limites de refus plus fiables et moins d\u2019erreurs dans les cas limites. GLM-5 peut s\u2019en approcher, mais pour un sous-ensemble de t\u00e2ches complexes, il peut encore n\u00e9cessiter des contraintes plus claires ou des garde-fous syst\u00e8me plus robustes pour garantir un fonctionnement constant.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Avantages que je confirme en pratique\u00a0: GLM-5 se comporte davantage comme un copilote d\u2019ing\u00e9nierie que comme un chatbot.<\/h2>\n\n\n\n<p><strong>Des modifications incr\u00e9mentales plus fiables, moins de r\u00e9\u00e9critures inutiles<\/strong><\/p>\n\n\n\n<p>Lorsque j&#039;ai besoin de modifications localis\u00e9es tout en pr\u00e9servant la structure environnante, GLM-5 privil\u00e9gie les remplacements cibl\u00e9s ou les modifications de type diff plut\u00f4t que la r\u00e9\u00e9criture de modules entiers. Cela r\u00e9duit la charge de travail li\u00e9e \u00e0 la r\u00e9vision et facilite la gestion des risques de r\u00e9gression.<\/p>\n\n\n\n<p><strong>Meilleure coh\u00e9rence des contraintes sur des cha\u00eenes de t\u00e2ches plus longues<\/strong><\/p>\n\n\n\n<p>Lorsque je divise une t\u00e2che en plusieurs tours et que j&#039;impose des contraintes strictes \u00e0 partir des \u00e9tapes pr\u00e9c\u00e9dentes, GLM-5 est plus susceptible de maintenir la coh\u00e9rence de ces contraintes \u00e0 mesure que le contexte s&#039;\u00e9largit, r\u00e9duisant ainsi les hypoth\u00e8ses contradictoires.<\/p>\n\n\n\n<p><strong>Des sorties de cha\u00eene d&#039;outils plus exploitables et une meilleure r\u00e9cup\u00e9ration apr\u00e8s les pannes<\/strong><\/p>\n\n\n\n<p>Dans les flux de travail r\u00e9cup\u00e9ration \u2192 synth\u00e8se \u2192 livraison, je m&#039;attache \u00e0 v\u00e9rifier si le mod\u00e8le peut g\u00e9n\u00e9rer des \u00e9tapes ex\u00e9cutables et une liste claire des donn\u00e9es manquantes. GLM-5 fait g\u00e9n\u00e9ralement progresser le flux de travail plut\u00f4t que de se limiter \u00e0 la couche explicative.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Limites \u00e0 conna\u00eetre au pr\u00e9alable\u00a0: ce qui peut bloquer l\u2019adoption en production<\/h2>\n\n\n\n<p><strong>Les co\u00fbts de d\u00e9ploiement et des syst\u00e8mes restent \u00e9lev\u00e9s.<\/strong><\/p>\n\n\n\n<p>GLM-5 est un mod\u00e8le MoE de pointe. M\u00eame si seule une partie du mod\u00e8le est activ\u00e9e par jeton, l&#039;auto-h\u00e9bergement n\u00e9cessite un travail consid\u00e9rable en mati\u00e8re de planification de la m\u00e9moire, d&#039;ordonnancement de la concurrence, de strat\u00e9gie de cache KV, de quantification et de compatibilit\u00e9 avec le moteur d&#039;inf\u00e9rence.<\/p>\n\n\n\n<p><strong>Cela ne garantira pas la victoire dans tous les march\u00e9s verticaux sp\u00e9cialis\u00e9s.<\/strong><\/p>\n\n\n\n<p>L&#039;indice d&#039;intelligence et GDPval-AA privil\u00e9gient le raisonnement g\u00e9n\u00e9ral et les t\u00e2ches intellectuelles. Si votre domaine est tr\u00e8s sp\u00e9cialis\u00e9 (par exemple, des processus de conformit\u00e9 stricts, des d\u00e9monstrations math\u00e9matiques formelles de niche ou un contr\u00f4le de style extr\u00eamement pr\u00e9cis), il est tout de m\u00eame conseill\u00e9 de r\u00e9aliser des tests A\/B cibl\u00e9s avant de prendre une d\u00e9cision.<\/p>\n\n\n\n<p><strong>Un mod\u00e8le performant ne remplace pas une ing\u00e9nierie des syst\u00e8mes performante.<\/strong><\/p>\n\n\n\n<p>Dans les d\u00e9ploiements d&#039;agents, la d\u00e9faillance la plus courante n&#039;est pas \u00ab le mod\u00e8le ne peut pas r\u00e9pondre \u00bb, mais \u00ab la cha\u00eene d&#039;ex\u00e9cution n&#039;est pas contr\u00f4l\u00e9e \u00bb. Les autorisations des outils, l&#039;isolation de s\u00e9curit\u00e9, l&#039;observabilit\u00e9, la logique de nouvelle tentative et la v\u00e9rification des preuves restent n\u00e9cessaires pour transformer les capacit\u00e9s du mod\u00e8le en performances de production stables.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Quand je donnerais la priorit\u00e9 \u00e0 GLM-5<\/h2>\n\n\n\n<p>Si mon objectif est qu&#039;un mod\u00e8le prenne en charge une part significative d&#039;un flux de travail d&#039;ing\u00e9nierie (et non pas qu&#039;il produise uniquement des r\u00e9ponses ponctuelles), GLM-5 est un candidat de premier ordre, notamment pour\u00a0:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>T\u00e2ches d&#039;ing\u00e9nierie \u00e0 long terme\u00a0:<\/strong> D\u00e9bogage inter-fichiers, refactorisation, localisation de probl\u00e8mes complexes<\/li>\n\n\n\n<li><strong>Flux de travail centr\u00e9s sur les outils\u00a0:<\/strong> r\u00e9cup\u00e9ration, \u00e9criture de scripts, synth\u00e8se de donn\u00e9es, livrables documentaires<\/li>\n\n\n\n<li><strong>Exigences relatives aux poids ouverts\u00a0:<\/strong> d\u00e9ploiement sur site, personnalisation et limites de co\u00fbts\/contr\u00f4le plus strictes<\/li>\n<\/ul>\n\n\n\n<p>Si votre charge de travail est domin\u00e9e par des questions-r\u00e9ponses courtes, est extr\u00eamement sensible au co\u00fbt\/QPS, ou si vous travaillez dans des conditions de conformit\u00e9 tr\u00e8s strictes sans app\u00e9tit pour les garde-fous au niveau du syst\u00e8me, je commencerais par des mod\u00e8les plus l\u00e9gers ou des mod\u00e8les phares ferm\u00e9s comme base et n&#039;ajouterais GLM-5 que s&#039;il apporte un retour sur investissement clair.<\/p>","protected":false},"excerpt":{"rendered":"<p>J&#039;\u00e9value GLM-5 principalement comme un mod\u00e8le d&#039;ing\u00e9nierie, et non comme un mod\u00e8le de conversation g\u00e9n\u00e9ral qui doit simplement \u00ab\u00a0sembler correct\u00a0\u00bb. Mon approche est simple\u00a0: je commence par utiliser des benchmarks publics largement r\u00e9f\u00e9renc\u00e9s pour confirmer la position de GLM-5 parmi les meilleurs, puis je valide ces r\u00e9sultats \u00e0 l&#039;aide d&#039;un flux de travail reproductible afin de v\u00e9rifier si GLM-5 est r\u00e9ellement [\u2026]<\/p>","protected":false},"author":29,"featured_media":23355,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[138],"tags":[],"class_list":["post-23351","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-blog"],"acf":[],"_links":{"self":[{"href":"https:\/\/www.iweaver.ai\/fr\/wp-json\/wp\/v2\/posts\/23351","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.iweaver.ai\/fr\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.iweaver.ai\/fr\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.iweaver.ai\/fr\/wp-json\/wp\/v2\/users\/29"}],"replies":[{"embeddable":true,"href":"https:\/\/www.iweaver.ai\/fr\/wp-json\/wp\/v2\/comments?post=23351"}],"version-history":[{"count":2,"href":"https:\/\/www.iweaver.ai\/fr\/wp-json\/wp\/v2\/posts\/23351\/revisions"}],"predecessor-version":[{"id":23356,"href":"https:\/\/www.iweaver.ai\/fr\/wp-json\/wp\/v2\/posts\/23351\/revisions\/23356"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.iweaver.ai\/fr\/wp-json\/wp\/v2\/media\/23355"}],"wp:attachment":[{"href":"https:\/\/www.iweaver.ai\/fr\/wp-json\/wp\/v2\/media?parent=23351"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.iweaver.ai\/fr\/wp-json\/wp\/v2\/categories?post=23351"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.iweaver.ai\/fr\/wp-json\/wp\/v2\/tags?post=23351"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}