{"id":23337,"date":"2026-02-18T01:16:19","date_gmt":"2026-02-17T17:16:19","guid":{"rendered":"https:\/\/www.iweaver.ai\/?p=23337"},"modified":"2026-02-18T01:22:06","modified_gmt":"2026-02-17T17:22:06","slug":"minimax-m2-5-highlight","status":"publish","type":"post","link":"https:\/\/www.iweaver.ai\/de\/blog\/minimax-m2-5-highlight\/","title":{"rendered":"MiniMax M2.5 \u2013 Highlights: Ein praktischer \u00dcberblick, Vergleiche und Anmerkungen"},"content":{"rendered":"<p>Bei meinen j\u00fcngsten Modellevaluierungen taucht immer wieder eine Frage auf: <strong>Kann ein Codierungsagent auch dann schnell, zuverl\u00e4ssig und kosteng\u00fcnstig bleiben, wenn Aufgaben die Bearbeitung mehrerer Dateien, wiederholtes Debuggen und den Einsatz von Werkzeugen umfassen \u2013 und nicht nur die Beantwortung einzelner Fragen?<\/strong> MiniMax M2.5 ist eine der wenigen Ver\u00f6ffentlichungen, die mit ausreichend <strong>Gesamteffizienz und Preisdetails<\/strong> um diese Frage konkret zu pr\u00fcfen.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Warum ich der M2.5 meine Aufmerksamkeit schenke<\/h2>\n\n\n\n<p>Ich konzentriere mich weniger auf den \u201ebesten Benchmark-Wert\u201c und mehr darauf, ob ein Modell reale Arbeitsabl\u00e4ufe bew\u00e4ltigen kann:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Komplette Lieferung<\/strong>: Umfang \u2192 Implementierung \u2192 Validierung \u2192 Ergebnisse<\/li>\n\n\n\n<li><strong>Betriebliche Effizienz<\/strong>: Toolaufruf-Iterationen, Token-Nutzung und Laufzeitstabilit\u00e4t<\/li>\n\n\n\n<li><strong>Agent<\/strong><strong> Wirtschaft<\/strong>: ob das Preismodell langlaufende Agenten und wiederholte Iterationen unterst\u00fctzt<\/li>\n<\/ul>\n\n\n\n<p>MiniMax M2.5 ist interessant, weil es auf Optimierung abzielt. <strong>Leistungsf\u00e4higkeit, Effizienz und Kosten<\/strong> in der gleichen Version \u2013 eine wichtige Kombination f\u00fcr Entwicklungsteams, die \u00fcber die Bereitstellung entscheiden.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Wof\u00fcr der M2.5 gebaut wurde<\/h2>\n\n\n\n<p>Basierend auf der <a href=\"https:\/\/www.minimax.io\/news\/minimax-m25\" rel=\"nofollow noopener\" target=\"_blank\">offizielle Materialien<\/a>, <strong>MiniMax M2.5<\/strong> ist auf realweltliche Produktivit\u00e4ts-Workloads in drei Hauptbereichen ausgerichtet:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>F\u00fcr Softwareentwicklung (Agentencodierung)<\/strong>: repr\u00e4sentiert durch SWE-Bench Verified, Multi-SWE-Bench und einen Schwerpunkt auf stabile Leistung \u00fcber verschiedene Kabelb\u00e4ume hinweg.<\/li>\n\n\n\n<li><strong>F\u00fcr die interaktive Suche und Werkzeugnutzung<\/strong>einschlie\u00dflich BrowseComp, Wide Search und MiniMax&#039;s hauseigenem RISE-Benchmark, der eine tiefergehende Erkundung professioneller Webquellen abbilden soll.<\/li>\n\n\n\n<li><strong>F\u00fcr mehr Produktivit\u00e4t im B\u00fcro<\/strong>: Fokus auf ergebnisorientierte Aufgaben in Word, PowerPoint und Excel, unterst\u00fctzt durch ein Bewertungsframework (GDPval-MM), das die Ausgabequalit\u00e4t, Agentenausf\u00fchrungsspuren und Tokenkosten ber\u00fccksichtigt.<\/li>\n<\/ul>\n\n\n\n<p>MiniMax ver\u00f6ffentlicht au\u00dferdem repr\u00e4sentative Ergebnisse wie beispielsweise <strong>SWE-Bench-verifiziert 80.2%<\/strong>, <strong>Multi-SWE-Bench 51.3%<\/strong>, Und <strong>BrowseComp 76.3%<\/strong>.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">MiniMax M2.5 vs. M2.1 und Claude Opus 4.6: Mein Vergleich<\/h2>\n\n\n\n<h3 class=\"wp-block-heading\">M2.5 vs M2.1 vs Claude Opus 4.6 (Tabelle der wichtigsten Kennzahlen)<\/h3>\n\n\n\n<figure class=\"wp-block-table\"><table class=\"has-fixed-layout\"><thead><tr><td><strong>Dimension<\/strong><\/td><td><strong>M2.5<\/strong><\/td><td><strong>M2.1<\/strong><\/td><td><strong>Claude Opus 4.6<\/strong><\/td><\/tr><\/thead><tbody><tr><td><strong>SWE-Bench-verifiziert<\/strong><\/td><td>80.20%<\/td><td>74.0%<\/td><td>81.42%<br>(Anthropologische Daten)<br>~78-80% (\u00d6ffentlicher Durchschnitt)<\/td><\/tr><tr><td><strong>Durchschnittliche Gesamtzeit pro SWE-Aufgabe<\/strong><\/td><td>22,8 Min.<\/td><td>31,3 Min.<\/td><td>22,9 Min.<\/td><\/tr><tr><td><strong>Tokens pro SWE-Aufgabe (Durchschnitt)<\/strong><\/td><td>3,52 Mio.<\/td><td>3,72 Mio.<\/td><td>\u2014<br>(Wahrscheinlich &gt;4M aufgrund der Ausf\u00fchrlichkeit)<\/td><\/tr><tr><td><strong>Such-\/Werkzeugiterationen im Vergleich zur vorherigen Generation<\/strong><\/td><td>~20% weniger Iterationen (gemeldet)<\/td><td>Ausgangswert<\/td><td>\u2014<\/td><\/tr><tr><td><strong>Cross-harness SWE-Bench (Droid)<\/strong><\/td><td>79.7<\/td><td>71.3<\/td><td>78.9<\/td><\/tr><tr><td><strong>Cross-harness SWE-Bench (OpenCode)<\/strong><\/td><td>76.1<\/td><td>72.0<\/td><td>75.9<\/td><\/tr><tr><td><strong>Durchsatzoptionen<\/strong><\/td><td>~50 Token\/s (Standard)<br>~100 Token\/s (Blitz)<\/td><td>~57 Token\/s<\/td><td>~67-77 Token\/s<\/td><\/tr><tr><td><strong>Preisgestaltung (pro 1 Million Input-Token)<\/strong><\/td><td>$0.3 (Standard &amp; Lightning)<\/td><td>$0.3<\/td><td>$5.0<\/td><\/tr><tr><td><strong>Preisgestaltung (pro 1 Million Output-Token)<\/strong><\/td><td>$1.2 (Standard)<br>$2.4 (Lightning)<\/td><td>$1.2<\/td><td>$25.0<\/td><\/tr><tr><td><strong>St\u00fcndliche Intuition (kontinuierliche Ausgabe)<\/strong><\/td><td>~$0,3\/Std. bei 50 t\/s<br>~$1\/Std. bei 100 t\/s<\/td><td>~$0,3\/Std. bei 57 t\/s<\/td><td>~$6,50\/Std. bei 70 t\/s<\/td><\/tr><\/tbody><\/table><\/figure>\n\n\n\n<div class=\"wp-block-group is-layout-constrained wp-block-group-is-layout-constrained\">\n<p><em>Anmerkungen:<\/em><\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><em>\u201e\u2014\u201c bedeutet, dass der Wert in den hier zusammengefassten Unterlagen nicht angegeben wurde.<\/em><\/li>\n\n\n\n<li><em>Benchmarks k\u00f6nnen je nach Testumgebung, Werkzeugkonfiguration, Eingabeaufforderungen und Berichtskonventionen variieren, daher behandle ich sie als <strong>Bereichsanzeigen<\/strong>, keine absoluten Ranglisten.<\/em><\/li>\n<\/ul>\n<\/div>\n\n\n\n<h3 class=\"wp-block-heading\">M2.5 vs M2.1: Schnellere End-to-End-Verarbeitung, geringerer Tokenverbrauch, weniger Suchiterationen<\/h3>\n\n\n\n<p>Der offizielle Vergleich wird in einer f\u00fcr Ingenieure verst\u00e4ndlichen Weise pr\u00e4sentiert. Ich achte dabei auf drei spezifische Kennzahlen:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>End-to-End-Laufzeit<\/strong>: Die durchschnittliche Bearbeitungszeit f\u00fcr Softwareentwicklungsaufgaben sinkt von <strong>31,3 Minuten (M2.1)<\/strong> Zu <strong>22,8 Minuten (M2,5)<\/strong>, beschrieben als <strong>37% Verbesserung<\/strong>.<\/li>\n\n\n\n<li><strong>Token pro Aufgabe<\/strong>: Der Tokenverbrauch pro Aufgabe sinkt von <strong>3,72 Mio.<\/strong> Zu <strong>3,52 Mio.<\/strong>.<\/li>\n\n\n\n<li><strong>Effizienz der Such-\/Werkzeugiteration<\/strong>Bei BrowseComp, Wide Search und RISE erzielt MiniMax bessere Ergebnisse mit weniger Iterationen, wobei die Iterationskosten ungef\u00e4hr <strong>20% untere<\/strong> als M2.1.<\/li>\n<\/ul>\n\n\n\n<p>F\u00fcr mich sind diese Verbesserungen wichtiger als ein einzelner Benchmark-Wert, weil sie direkt bestimmen <strong>Agentendurchsatz<\/strong> Und <strong>nachhaltige Betriebskosten<\/strong>.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">M2.5 vs Claude Opus 4.6: \u00c4hnlicher Kodierungsbereich, der Bewertungskontext ist entscheidend<\/h3>\n\n\n\n<p>Beim Vergleich <strong>M2.5<\/strong> mit <strong>Claude Opus 4.6<\/strong>Ich behandle Punktzahlen als <strong>Bereiche<\/strong> und nicht absolute Ranglisten, da sich Benutzerhandb\u00fccher, Werkzeugkonfigurationen, Eingabeaufforderungen und Berichtskonventionen unterscheiden k\u00f6nnen.<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><a href=\"https:\/\/www.anthropic.com\/news\/claude-opus-4-6\" rel=\"nofollow noopener\" target=\"_blank\">Anthropisch<\/a> stellt fest, dass <strong>Opus 4.6 wurde im SWE-Benchmark-Test verifiziert.<\/strong> Das Ergebnis ist ein Durchschnitt \u00fcber <strong>25 Versuche<\/strong>und erw\u00e4hnt einen h\u00f6heren beobachteten Wert (81,42%) unter sofortigen Anpassungen.<\/li>\n\n\n\n<li>MiniMax-Berichte <strong>SWE-Bench-verifiziert 80.2%<\/strong> f\u00fcr <strong>MiniMax M2.5<\/strong>.<\/li>\n<\/ul>\n\n\n\n<p>Numerisch betrachtet scheinen die beiden in einem \u00e4hnlichen Wettbewerbsbereich f\u00fcr Coding-Agent-Benchmarks zu liegen. Aus technischer Sicht ist mir die Stabilit\u00e4t \u00fcber reale Projektstrukturen hinweg \u2013 Frontend + Backend, verschiedene Scaffolds und Integrationen von Drittanbietern \u2013 wichtiger als eine einzelne Kennzahl.<\/p>\n\n\n\n<figure class=\"wp-block-image size-large\"><img fetchpriority=\"high\" decoding=\"async\" width=\"1024\" height=\"494\" src=\"https:\/\/www.iweaver.ai\/wp-content\/uploads\/2026\/02\/minimax-m2-5-benchmark-comparison-chart-swe-bench-verified-pro-terminal-bench-2-multi-swe-bench-multilingual-vibe-pro-vs-minimax-m2-1-claude-opus-4-5-claude-opus-4-6-gemini-3-pro-gpt-5-2-1024x494.webp\" alt=\"\" class=\"wp-image-23338\" srcset=\"https:\/\/www.iweaver.ai\/wp-content\/uploads\/2026\/02\/minimax-m2-5-benchmark-comparison-chart-swe-bench-verified-pro-terminal-bench-2-multi-swe-bench-multilingual-vibe-pro-vs-minimax-m2-1-claude-opus-4-5-claude-opus-4-6-gemini-3-pro-gpt-5-2-1024x494.webp 1024w, https:\/\/www.iweaver.ai\/wp-content\/uploads\/2026\/02\/minimax-m2-5-benchmark-comparison-chart-swe-bench-verified-pro-terminal-bench-2-multi-swe-bench-multilingual-vibe-pro-vs-minimax-m2-1-claude-opus-4-5-claude-opus-4-6-gemini-3-pro-gpt-5-2-300x145.webp 300w, https:\/\/www.iweaver.ai\/wp-content\/uploads\/2026\/02\/minimax-m2-5-benchmark-comparison-chart-swe-bench-verified-pro-terminal-bench-2-multi-swe-bench-multilingual-vibe-pro-vs-minimax-m2-1-claude-opus-4-5-claude-opus-4-6-gemini-3-pro-gpt-5-2-768x370.webp 768w, https:\/\/www.iweaver.ai\/wp-content\/uploads\/2026\/02\/minimax-m2-5-benchmark-comparison-chart-swe-bench-verified-pro-terminal-bench-2-multi-swe-bench-multilingual-vibe-pro-vs-minimax-m2-1-claude-opus-4-5-claude-opus-4-6-gemini-3-pro-gpt-5-2-1536x741.webp 1536w, https:\/\/www.iweaver.ai\/wp-content\/uploads\/2026\/02\/minimax-m2-5-benchmark-comparison-chart-swe-bench-verified-pro-terminal-bench-2-multi-swe-bench-multilingual-vibe-pro-vs-minimax-m2-1-claude-opus-4-5-claude-opus-4-6-gemini-3-pro-gpt-5-2-2048x988.webp 2048w, https:\/\/www.iweaver.ai\/wp-content\/uploads\/2026\/02\/minimax-m2-5-benchmark-comparison-chart-swe-bench-verified-pro-terminal-bench-2-multi-swe-bench-multilingual-vibe-pro-vs-minimax-m2-1-claude-opus-4-5-claude-opus-4-6-gemini-3-pro-gpt-5-2-18x9.webp 18w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><\/figure>\n\n\n\n<h2 class=\"wp-block-heading\">Wie M2.5 meinen Workflow ver\u00e4ndert (Praxisnotizen)<\/h2>\n\n\n\n<h3 class=\"wp-block-heading\">Geschwindigkeit und Workflow-Stil<\/h3>\n\n\n\n<p>Nach der Integration <strong>MiniMax M2.5<\/strong> Bei der Betrachtung einer Coding-Agent-Toolchain fallen zwei Dinge besonders auf:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Die Geschwindigkeit von MiniMax M2.5 verbessert die Iteration kurzer Aufgaben deutlich.<\/strong>Viele reale Aufgaben folgen dem Schema \u201ekleine \u00c4nderung \u2192 Ausf\u00fchrung \u2192 Anpassung\u201c. Wenn jede Schleife lange Wartezeiten verursacht, wird der Kontextwechsel kostspielig. MiniMax hebt explizit \u201eschnellere End-to-End-Prozesse\u201c und \u201egeringeren Tokenverbrauch\u201c als zentrale Ergebnisse hervor.<\/li>\n\n\n\n<li><strong>MiniMax M2.5 neigt dazu, vor der Implementierung eine Spezifikation zu schreiben.<\/strong>Bei Aufgaben mit mehreren Dateien und Modulen bevorzuge ich ein Modell, das Bereichsgrenzen, Modulbeziehungen und Akzeptanzkriterien explizit vor dem Schreiben des Codes erfasst. Dadurch l\u00e4sst sich die Ausf\u00fchrung leichter \u00fcberpr\u00fcfen und standardisieren, und M2.5 funktioniert mit dieser Struktur einwandfrei.<\/li>\n<\/ul>\n\n\n\n<h3 class=\"wp-block-heading\">Diese Punkte sollten nicht \u00fcbersehen werden.<\/h3>\n\n\n\n<p>Selbst bei einer insgesamt guten Leistung betrachte ich die folgenden Punkte dennoch als Einschr\u00e4nkungen, die Arbeitsablauf-Leitplanken erfordern:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Die Debugging-Strategie ist nicht immer proaktiv.<\/strong>Bei schwer lokalisierbaren Fehlern kann das Modell die Implementierung wiederholt \u00e4ndern, ohne automatisch auf Unit-Tests, Protokollierung oder minimale Reproduktionsschritte umzuschalten. Ich muss oft explizit anweisen: \u201eF\u00fcge Protokolle hinzu \/ schreibe Tests \/ grenze den Fehlerpfad ein.\u201c<\/li>\n\n\n\n<li><strong>Externe Datenabfragen und die Integration von Drittanbietern k\u00f6nnen unzuverl\u00e4ssig sein.<\/strong>Bei der Integration bestimmter externer Dienste kann das Modell fehlerhafte Integrationsschritte erzeugen. Ich bevorzuge es, Eingaben anhand von Beispielen aus der offiziellen Dokumentation zu beschr\u00e4nken, anstatt mich auf automatisch generierten Code zu verlassen.<\/li>\n\n\n\n<li><strong>Die Synchronisierung von Code und Dokumentation ist nicht durchg\u00e4ngig standardm\u00e4\u00dfig.<\/strong>Wenn eine Aufgabe die Aktualisierung des Codes sowie der Dokumentation\/des Skill-Markdowns erfordert, verwende ich eine explizite Checkliste, um die Wahrscheinlichkeit zu verringern, dass nur der Code aktualisiert wird.<\/li>\n<\/ul>\n\n\n\n<p>Diese Einschr\u00e4nkungen gelten nicht nur f\u00fcr M2.5; es handelt sich um Leitplanken, die ich bei den meisten Coding-Agent-Workflows anwende.<\/p>\n\n\n\n<p>In dieser Phase positioniere ich mich <strong><a href=\"https:\/\/agent.minimax.io\/\" rel=\"nofollow noopener\" target=\"_blank\">MiniMax M2.5<\/a><\/strong> als <strong>Ingenieurorientiertes agentenbasiertes Produktivit\u00e4tsmodell<\/strong>Es liefert nicht nur Benchmark-Ergebnisse, sondern legt auch die Laufzeit bis zum Ende, den Token-Verbrauch, die Iterationseffizienz und die Preisstruktur offen, wodurch ich die tats\u00e4chlichen Bereitstellungskosten anhand eines einheitlichen Satzes von Metriken bewerten kann.<\/p>\n\n\n\n<p>Manche Nutzer k\u00f6nnten sich fragen, ob die Erstellung einer Spezifikation vor der Codierung die Tokenkosten erh\u00f6ht und die Behauptung der \u201eniedrigen Kosten\u201c untergr\u00e4bt. Meine praktische Schlussfolgerung lautet:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Ja, das Schreiben einer Spezifikation f\u00fcgt einige Ausgabetoken hinzu.<\/strong><\/li>\n\n\n\n<li><strong>In vielen realen Arbeitsabl\u00e4ufen werden diese Kosten durch weniger Nachbearbeitungsschleifen und weniger Hin- und Her-Iterationen kompensiert.<\/strong>insbesondere f\u00fcr Aufgaben mit mehreren Dateien, modul\u00fcbergreifenden Aufgaben oder hohem Debugging-Aufwand.<\/li>\n\n\n\n<li>Der Mehraufwand ist in der Regel kontrollierbar, solange die Spezifikation nicht \u00fcberm\u00e4\u00dfig lang ist und keine Implementierungsdetails wiederholt.<\/li>\n<\/ul>\n\n\n\n<p><strong>Hier sind einige praktische Tipps zur Minimierung des Overheads f\u00fcr Spec-Token:<\/strong><\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>F\u00fcr kleine Aufgaben<\/strong>: explizit anfordern \u201ekeine Spezifikation; stattdessen Code-Diff und Testschritte bereitstellen\u201c.<\/li>\n\n\n\n<li><strong>F\u00fcr mittelgro\u00dfe\/gro\u00dfe Aufgaben<\/strong>: die Spezifikation einschr\u00e4nken auf <strong>X Linien \/ X Punkte<\/strong> (z. B. 10\u201315), wobei der Fokus ausschlie\u00dflich auf <strong>Struktur und Akzeptanzkriterien<\/strong>, nicht Implementierungsdetails.<\/li>\n\n\n\n<li><strong>In Agenten-Toolchains<\/strong>: Behandle die Spezifikation als die <strong>einzige Quelle der Wahrheit<\/strong>Aktualisieren Sie bei sich \u00e4ndernden Anforderungen zuerst den entsprechenden Abschnitt der Spezifikation, bevor Sie mit der Codierung und Validierung fortfahren. Dadurch werden wiederholte Erkl\u00e4rungen und unn\u00f6tiger Code durch die erneute Kontextualisierung vermieden.<\/li>\n<\/ul>","protected":false},"excerpt":{"rendered":"<p>In meinen j\u00fcngsten Modellevaluierungen taucht immer wieder dieselbe Frage auf: Kann ein Codierungsagent schnell, zuverl\u00e4ssig und kosteng\u00fcnstig bleiben, wenn Aufgaben die Bearbeitung mehrerer Dateien, wiederholtes Debuggen und den Einsatz von Tools umfassen \u2013 und nicht nur die Beantwortung einzelner Fragen? MiniMax M2.5 ist eine der wenigen Versionen, die gen\u00fcgend Informationen zur Gesamteffizienz und Preisgestaltung bietet, um diese Frage in einem umfassenden Test zu pr\u00fcfen.<\/p>","protected":false},"author":29,"featured_media":23339,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[138],"tags":[],"class_list":["post-23337","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-blog"],"acf":[],"_links":{"self":[{"href":"https:\/\/www.iweaver.ai\/de\/wp-json\/wp\/v2\/posts\/23337","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.iweaver.ai\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.iweaver.ai\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.iweaver.ai\/de\/wp-json\/wp\/v2\/users\/29"}],"replies":[{"embeddable":true,"href":"https:\/\/www.iweaver.ai\/de\/wp-json\/wp\/v2\/comments?post=23337"}],"version-history":[{"count":2,"href":"https:\/\/www.iweaver.ai\/de\/wp-json\/wp\/v2\/posts\/23337\/revisions"}],"predecessor-version":[{"id":23341,"href":"https:\/\/www.iweaver.ai\/de\/wp-json\/wp\/v2\/posts\/23337\/revisions\/23341"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.iweaver.ai\/de\/wp-json\/wp\/v2\/media\/23339"}],"wp:attachment":[{"href":"https:\/\/www.iweaver.ai\/de\/wp-json\/wp\/v2\/media?parent=23337"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.iweaver.ai\/de\/wp-json\/wp\/v2\/categories?post=23337"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.iweaver.ai\/de\/wp-json\/wp\/v2\/tags?post=23337"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}