{"id":23342,"date":"2026-02-18T02:20:37","date_gmt":"2026-02-17T18:20:37","guid":{"rendered":"https:\/\/www.iweaver.ai\/?p=23342"},"modified":"2026-02-24T16:17:39","modified_gmt":"2026-02-24T08:17:39","slug":"alibaba-qwen-3-5-how-to-choose-the-right-deployment","status":"publish","type":"post","link":"https:\/\/www.iweaver.ai\/es\/blog\/alibaba-qwen-3-5-how-to-choose-the-right-deployment\/","title":{"rendered":"Alibaba Qwen 3.5: C\u00f3mo elegir la implementaci\u00f3n adecuada"},"content":{"rendered":"<h2 class=\"wp-block-heading\">Lo que Alibaba realmente lanz\u00f3 con Qwen 3.5: Aclaraci\u00f3n de la gama de versiones<\/h2>\n\n\n\n<p>En mi opini\u00f3n, el primer paso para comprender <strong><a href=\"https:\/\/huggingface.co\/Qwen\/Qwen3.5-397B-A17B\" rel=\"nofollow noopener\" target=\"_blank\">Alibaba Qwen 3.5<\/a><\/strong> es separar claramente la <strong>modelo de peso abierto<\/strong> desde <strong>alojado en la nube <\/strong><strong>API<\/strong><strong> ofrenda<\/strong>:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Qwen3.5-397B-A17B<\/strong>El modelo de peso abierto. Alibaba proporciona especificaciones b\u00e1sicas sobre Hugging Face, como <strong>397B par\u00e1metros totales<\/strong>, <strong>17B activados por token<\/strong>, y <strong>60 capas<\/strong>.<\/li>\n\n\n\n<li><strong>Qwen3.5-Plus<\/strong>La versi\u00f3n de la API alojada en Alibaba Cloud Model Studio. Alibaba indica que corresponde al modelo 397B-A17B y a\u00f1ade funciones de producci\u00f3n como <strong>una ventana de contexto de token 1M predeterminada<\/strong>, <strong>herramientas integradas<\/strong>, y <strong>invocaci\u00f3n de herramienta adaptativa<\/strong>.<\/li>\n<\/ul>\n\n\n\n<p>Esta distinci\u00f3n aparece repetidamente en <a href=\"https:\/\/www.reddit.com\/r\/LocalLLaMA\/comments\/1r6h3ha\/difference_between_qwen_3_maxthinking_and_qwen_35\/\" rel=\"nofollow noopener\" target=\"_blank\">Reddit<\/a> discusiones. Mucha gente confunde <strong>M\u00e1s<\/strong>, el modelo de peso abierto y las \u201cextensiones de herramientas\/contexto\u201d, lo que aumenta la confusi\u00f3n durante la evaluaci\u00f3n.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Lo que considero como las principales mejoras en Qwen 3.5<\/h2>\n\n\n\n<p>Agrupo las actualizaciones en dos categor\u00edas: <strong>cambios fundamentales a nivel de modelo<\/strong> y <strong>Optimizaciones de ingenier\u00eda para la eficiencia<\/strong>. <a href=\"https:\/\/www.reuters.com\/world\/china\/alibaba-unveils-new-qwen35-model-agentic-ai-era-2026-02-16\/\" rel=\"nofollow noopener\" target=\"_blank\">Mensajer\u00eda p\u00fablica<\/a> Tambi\u00e9n destaca <strong>menor costo<\/strong>, <strong>mayor rendimiento<\/strong>, y un enfoque en <strong>IA agente<\/strong>.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">MoE extremadamente escaso<\/h3>\n\n\n\n<p><strong>Ministerio de Educaci\u00f3n (Mezcla de expertos)<\/strong> Puede entenderse como una arquitectura de modelo con m\u00faltiples subredes de expertos. Durante la inferencia, un mecanismo de enrutamiento activa solo un peque\u00f1o subconjunto de expertos, en lugar de ejecutar todos los par\u00e1metros cada vez. Las principales ventajas son:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Gran recuento total de par\u00e1metros<\/strong>:mayor capacidad del modelo (m\u00e1s patrones puede representar el modelo).<\/li>\n\n\n\n<li><strong>Peque\u00f1o recuento de par\u00e1metros activados<\/strong>:El c\u00e1lculo de inferencia se acerca m\u00e1s a un modelo m\u00e1s peque\u00f1o, lo que puede mejorar el rendimiento y reducir los costos.<\/li>\n<\/ul>\n\n\n\n<p>Para <strong>Qwen3.5-397B-A17B<\/strong>, los n\u00fameros listados p\u00fablicamente son <strong>397B par\u00e1metros totales<\/strong> y <strong>17B activado<\/strong>Reuters tambi\u00e9n informa sobre las afirmaciones de Alibaba de <strong>Menor costo de uso y mayor rendimiento<\/strong> en comparaci\u00f3n con la generaci\u00f3n anterior, incluidas declaraciones como &quot;aproximadamente 60% m\u00e1s barato&quot; y una capacidad mejorada para manejar cargas de trabajo m\u00e1s pesadas.<\/p>\n\n\n\n<p>Al evaluar MoE en la pr\u00e1ctica, considero los beneficios de dos maneras: (1) con el mismo presupuesto, se puede usar un modelo de mayor capacidad, y (2) con el mismo objetivo de rendimiento, se puede reducir el consumo de c\u00f3mputo. Sin embargo, estas ganancias dependen de un enrutamiento s\u00f3lido, la paralelizaci\u00f3n y un entrenamiento estable. De lo contrario, los sistemas MoE pueden presentar variabilidad en la calidad o inestabilidad del servicio.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Predicci\u00f3n conjunta multitoken nativa<\/h3>\n\n\n\n<p>Los modelos autorregresivos tradicionales predicen <strong>un token siguiente por paso<\/strong>. El objetivo de <strong>predicci\u00f3n conjunta de m\u00faltiples tokens<\/strong> es producir predicciones para <strong>m\u00faltiples posiciones futuras<\/strong> en una sola pasada hacia adelante, mientras se entrena expl\u00edcitamente el modelo para mantener esas predicciones consistentes.<\/p>\n\n\n\n<p>He aqu\u00ed el impacto pr\u00e1ctico en la velocidad de inferencia en t\u00e9rminos sencillos:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Si el modelo puede \u201cmirar hacia adelante\u201d de manera confiable y predecir m\u00faltiples tokens a la vez, y una pol\u00edtica de aceptaci\u00f3n solo mantiene resultados de alta confianza, puede reducir la cantidad de pasos de decodificaci\u00f3n.<\/li>\n\n\n\n<li>Menos pasos de decodificaci\u00f3n generalmente aumentan el rendimiento, especialmente para salidas largas o cargas de trabajo de contexto largo.<\/li>\n<\/ul>\n\n\n\n<p>Alguno <a href=\"https:\/\/openrouter.ai\/qwen\/qwen3.5-397b-a17b\" rel=\"nofollow noopener\" target=\"_blank\">tarjetas de modelos de terceros<\/a> y los res\u00famenes de ecosistemas tambi\u00e9n tratan <strong>predicci\u00f3n de m\u00faltiples tokens<\/strong> como un factor importante detr\u00e1s de las ganancias de rendimiento de Qwen 3.5.<\/p>\n\n\n\n<blockquote class=\"wp-block-quote is-layout-flow wp-block-quote-is-layout-flow\">\n<p>Al evaluar esta t\u00e9cnica, me centro en dos aspectos: la estabilidad de la estrategia de aceptaci\u00f3n y su comportamiento en muestreos a baja y alta temperatura. En mi experiencia, las cargas de trabajo de prellenado prolongadas y la alta concurrencia tienden a exponer la inestabilidad con mayor antelaci\u00f3n.<\/p>\n<\/blockquote>\n\n\n\n<h3 class=\"wp-block-heading\">Multimodalidad nativa<\/h3>\n\n\n\n<p><a href=\"https:\/\/qwen.ai\/blog?id=qwen3.5\" rel=\"nofollow noopener\" target=\"_blank\">Blog oficial de Qwen de Alibaba<\/a> posiciones <strong>Qwen 3.5<\/strong> como \u201cAgentes Multimodales Nativos\u201d, enfatiz\u00e1ndolo como un <strong>modelo de visi\u00f3n-lenguaje nativo<\/strong> Dise\u00f1ado para la comprensi\u00f3n de im\u00e1genes\/videos y flujos de trabajo de agentes.<\/p>\n\n\n\n<p>Resumo el valor de la multimodalidad nativa de la siguiente manera:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>La visi\u00f3n y el lenguaje se entrenan en el mismo espacio de par\u00e1metros, lo que puede facilitar que las se\u00f1ales visuales contribuyan al razonamiento, el uso de herramientas y las decisiones de acci\u00f3n posteriores.<\/li>\n\n\n\n<li>Se adapta mejor a las tareas de &quot;agente visual&quot;. Reuters tambi\u00e9n menciona capacidades relacionadas con la ejecuci\u00f3n de tareas en aplicaciones m\u00f3viles y de escritorio.<\/li>\n<\/ul>\n\n\n\n<h2 class=\"wp-block-heading\">C\u00f3mo interpreto el perfil de capacidades de Qwen 3.5: fortalezas y l\u00edmites<\/h2>\n\n\n\n<p>No recomiendo basarse en uno o dos resultados de la clasificaci\u00f3n. Un enfoque m\u00e1s \u00fatil es dividir las capacidades en categor\u00edas que se ajusten a las tareas de su empresa.<\/p>\n\n\n\n<figure class=\"wp-block-image size-large is-resized\"><img fetchpriority=\"high\" decoding=\"async\" width=\"1024\" height=\"662\" src=\"https:\/\/www.iweaver.ai\/wp-content\/uploads\/2026\/02\/qwen-3-5-performance-benchmark-chart-comparing-qwen3-5-gpt-5-2-claude-opus-4-5-and-gemini-3-pro-1024x662.webp\" alt=\"\" class=\"wp-image-23343\" style=\"width:537px;height:auto\" srcset=\"https:\/\/www.iweaver.ai\/wp-content\/uploads\/2026\/02\/qwen-3-5-performance-benchmark-chart-comparing-qwen3-5-gpt-5-2-claude-opus-4-5-and-gemini-3-pro-1024x662.webp 1024w, https:\/\/www.iweaver.ai\/wp-content\/uploads\/2026\/02\/qwen-3-5-performance-benchmark-chart-comparing-qwen3-5-gpt-5-2-claude-opus-4-5-and-gemini-3-pro-300x194.webp 300w, https:\/\/www.iweaver.ai\/wp-content\/uploads\/2026\/02\/qwen-3-5-performance-benchmark-chart-comparing-qwen3-5-gpt-5-2-claude-opus-4-5-and-gemini-3-pro-768x497.webp 768w, https:\/\/www.iweaver.ai\/wp-content\/uploads\/2026\/02\/qwen-3-5-performance-benchmark-chart-comparing-qwen3-5-gpt-5-2-claude-opus-4-5-and-gemini-3-pro-1536x993.webp 1536w, https:\/\/www.iweaver.ai\/wp-content\/uploads\/2026\/02\/qwen-3-5-performance-benchmark-chart-comparing-qwen3-5-gpt-5-2-claude-opus-4-5-and-gemini-3-pro-18x12.webp 18w, https:\/\/www.iweaver.ai\/wp-content\/uploads\/2026\/02\/qwen-3-5-performance-benchmark-chart-comparing-qwen3-5-gpt-5-2-claude-opus-4-5-and-gemini-3-pro.webp 2048w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><\/figure>\n\n\n\n<h3 class=\"wp-block-heading\">Lenguaje y razonamiento general: cerca del nivel superior del modelo cerrado, pero la combinaci\u00f3n de tareas importa<\/h3>\n\n\n\n<p>Los informes oficiales y de terceros sugieren que Qwen 3.5 tiene un excelente desempe\u00f1o en m\u00faltiples puntos de referencia de lenguaje y razonamiento y enfatiza una alta capacidad por costo unitario.<\/p>\n\n\n\n<p>Si su carga de trabajo se centra principalmente en preguntas y respuestas sobre conocimientos, generaci\u00f3n de contenido o an\u00e1lisis general, Qwen 3.5 puede ser una opci\u00f3n con una excelente relaci\u00f3n calidad-precio. Aun as\u00ed, recomiendo realizar una peque\u00f1a prueba A\/B con su combinaci\u00f3n de tareas de producci\u00f3n real en lugar de extraer conclusiones \u00fanicamente de las pruebas de rendimiento.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Visi\u00f3n, documentos y v\u00eddeo: un enfoque claro para Qwen 3.5<\/h3>\n\n\n\n<p>Qwen3.5-397B-A17B est\u00e1 categorizado en Hugging Face como un modelo con capacidad de visi\u00f3n, y el blog de Alibaba lo enmarca para casos de uso de agentes multimodales.<\/p>\n\n\n\n<p>Si su aplicaci\u00f3n incluye lo siguiente, creo que vale la pena priorizar Qwen 3.5 para su evaluaci\u00f3n:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Comprensi\u00f3n del dise\u00f1o de documentos complejos y canales de OCR a razonamiento<\/li>\n\n\n\n<li>Razonamiento visual, gr\u00e1ficos y tablas<\/li>\n\n\n\n<li>Entrada de video largo para resumen estructurado o extracci\u00f3n de informaci\u00f3n (dependiendo de si utiliza <strong>Qwen3.5-Plus<\/strong> y sus capacidades de contexto)<\/li>\n<\/ul>\n\n\n\n<h3 class=\"wp-block-heading\">Agentes y uso de herramientas: Separo los \u201cagentes de b\u00fasqueda\u201d de los \u201cagentes de herramientas generales\u201d<\/h3>\n\n\n\n<p>El \u201crendimiento del agente\u201d var\u00eda ampliamente tanto en la evaluaci\u00f3n como en las implementaciones reales:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Agentes de b\u00fasqueda<\/strong> Dependen en gran medida de la estrategia de recuperaci\u00f3n, las pol\u00edticas de plegado\/compresi\u00f3n de contexto y la orquestaci\u00f3n de herramientas. Las discusiones de la comunidad tambi\u00e9n se\u00f1alan que diferentes estrategias pueden producir grandes diferencias de puntuaci\u00f3n.<\/li>\n\n\n\n<li><strong>Agentes de herramientas generales<\/strong> dependen m\u00e1s de los protocolos de herramientas, la recuperaci\u00f3n de errores, la estabilidad a largo plazo y los l\u00edmites de permisos.<\/li>\n<\/ul>\n\n\n\n<p>Reuters destaca las mejoras de Qwen 3.5 para ejecutar tareas en aplicaciones m\u00f3viles y de escritorio, lo que generalmente implica una inversi\u00f3n significativa en \u201cagentes visuales + herramientas\u201d.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Costo y acceso: \u00bfC\u00f3mo elegir\u00eda entre las opciones?<\/h2>\n\n\n\n<h3 class=\"wp-block-heading\">Si desea la ruta m\u00e1s r\u00e1pida hacia la producci\u00f3n, comenzar\u00eda con Qwen3.5-Plus<\/h3>\n\n\n\n<p>Mi raz\u00f3n es sencilla: <strong>M\u00e1s<\/strong> Viene con valores predeterminados orientados a la producci\u00f3n, como <strong>una ventana de contexto de 1 mill\u00f3n de tokens<\/strong>, <strong>herramientas integradas<\/strong>, y <strong>invocaci\u00f3n de herramienta adaptativa<\/strong>.<\/p>\n\n\n\n<p><a href=\"https:\/\/www.alibabacloud.com\/help\/en\/model-studio\/model-pricing\" rel=\"nofollow noopener\" target=\"_blank\">Estudio de modelos de Alibaba Cloud<\/a> Tambi\u00e9n ofrece precios de tokens escalonados (los precios var\u00edan seg\u00fan el rango de contexto).<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Si necesita control de cumplimiento y propiedad predecible, los pesos abiertos pueden ser una mejor opci\u00f3n, pero con un mayor costo de ingenier\u00eda.<\/h3>\n\n\n\n<p>Al elegir pesas abiertas, divido el costo en tres partes:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>C\u00e1lculo de inferencia y memoria (MoE puede ser sensible a la paralelizaci\u00f3n y al soporte del marco)<\/li>\n\n\n\n<li>Herramientas y alineaci\u00f3n (recuperaci\u00f3n\/exploraci\u00f3n, ejecuci\u00f3n de c\u00f3digo, aislamiento de permisos)<\/li>\n\n\n\n<li>Garant\u00eda de calidad (conjuntos de evaluaci\u00f3n, pruebas de regresi\u00f3n, seguimiento y recuperaci\u00f3n)<\/li>\n<\/ul>\n\n\n\n<h2 class=\"wp-block-heading\">Mi flujo de trabajo de validaci\u00f3n recomendado para una implementaci\u00f3n real<\/h2>\n\n\n\n<ol start=\"1\" class=\"wp-block-list\">\n<li>Define la proporci\u00f3n de tres tipos de tareas: texto de preguntas y respuestas \/ documento y visi\u00f3n \/ herramientas y b\u00fasqueda<\/li>\n\n\n\n<li>Corrija las restricciones de entrada\/salida: longitud del contexto, asignaci\u00f3n de herramientas y si se requieren citas<\/li>\n\n\n\n<li>Utilice un marco de evaluaci\u00f3n en dos rutas:\n<ol class=\"wp-block-list\">\n<li>Ruta A: <strong>Qwen3.5-Plus<\/strong> (obtenga una l\u00ednea base r\u00e1pidamente)<\/li>\n\n\n\n<li>Ruta B: <strong>Peso abierto 397B-A17B<\/strong> (medir el costo y la estabilidad del autohospedaje)<\/li>\n<\/ol>\n<\/li>\n\n\n\n<li>Centrarse en casos de fallo: fallos de herramientas en cadenas largas, errores de comprensi\u00f3n de documentos y p\u00e9rdida de informaci\u00f3n causada por estrategias de b\u00fasqueda.<\/li>\n<\/ol>\n\n\n\n<p>Seg\u00fan la informaci\u00f3n p\u00fablica, considero que la direcci\u00f3n de Qwen 3.5 de Alibaba es pasar de un &quot;modelo de chat&quot; a <strong>multimodalidad + herramientas + ejecuci\u00f3n multidispositivo<\/strong> para flujos de trabajo de agentes, mientras se utiliza <strong>MoE escaso<\/strong> y <strong>predicci\u00f3n de m\u00faltiples tokens<\/strong> para reducir el costo de inferencia y aumentar el rendimiento.<\/p>\n\n\n\n<p>Si su negocio implica comprensi\u00f3n de documentos, razonamiento visual, b\u00fasqueda o flujos de trabajo entre aplicaciones, creo que Qwen 3.5 deber\u00eda estar en su primera opci\u00f3n de evaluaci\u00f3n. Si sus necesidades principales son matem\u00e1ticas de alto nivel o razonamiento extremo, le sugiero una comparaci\u00f3n m\u00e1s rigurosa, tarea por tarea, con otros modelos de gama alta antes de decidirse por una estrategia de modelo principal\/de respaldo.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Preguntas frecuentes: Preguntas que recibo con m\u00e1s frecuencia durante la evaluaci\u00f3n<\/h2>\n\n\n\n<h3 class=\"wp-block-heading\">P1: \u00bfCu\u00e1l es la diferencia entre Qwen 3.5 y modelos como \u201cQwen 3 Max-Thinking\u201d?<\/h3>\n\n\n\n<p>Interpreto las diferencias en dos dimensiones:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Posicionamiento<\/strong>:Qwen 3.5 pone m\u00e1s \u00e9nfasis en la multimodalidad nativa y los flujos de trabajo agentes.<\/li>\n\n\n\n<li><strong>Forma del producto<\/strong>: Plus es una oferta alojada &quot;mejorada&quot; que suele incluir configuraciones predeterminadas para el contexto, las herramientas y las pol\u00edticas. Por esta raz\u00f3n, algunos usuarios de la comunidad consideran que la relaci\u00f3n entre versiones no es clara.<\/li>\n<\/ul>\n\n\n\n<h3 class=\"wp-block-heading\">P2: \u00bfPor qu\u00e9 deber\u00eda importarme el \u201cMoE extremadamente disperso\u201d?<\/h3>\n\n\n\n<p>Porque afecta directamente el coste por solicitud y el l\u00edmite de rendimiento. Para preguntas y respuestas de alta concurrencia y an\u00e1lisis de contexto extenso, esta arquitectura tiene m\u00e1s probabilidades de generar mayor tr\u00e1fico con un presupuesto fijo. Los par\u00e1metros y detalles estructurales se detallan claramente en la tarjeta del modelo.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">P3: \u00bfLa predicci\u00f3n conjunta de m\u00faltiples tokens afectar\u00e1 la calidad de la generaci\u00f3n?<\/h3>\n\n\n\n<p>El objetivo es reducir los pasos de decodificaci\u00f3n y mejorar el rendimiento, pero el impacto en la calidad depende de las pol\u00edticas de entrenamiento e inferencia. Recomiendo probar las tareas de salida de formato largo y las tareas de muestreo de alta aleatoriedad por separado, y evitar extraer conclusiones de un \u00fanico punto de referencia.<\/p>","protected":false},"excerpt":{"rendered":"<p>Lo que Alibaba realmente lanz\u00f3 con Qwen 3.5: Aclarando la gama de versiones En mi opini\u00f3n, el primer paso para comprender Alibaba Qwen 3.5 es separar claramente el modelo de peso abierto de la oferta de API alojada en la nube: Esta distinci\u00f3n surge repetidamente en las discusiones de Reddit. Mucha gente confunde Plus, el modelo de peso abierto y las &quot;extensiones de herramientas\/contexto&quot;, que aumentan [\u2026]<\/p>","protected":false},"author":29,"featured_media":23344,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[138],"tags":[],"class_list":["post-23342","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-blog"],"acf":[],"_links":{"self":[{"href":"https:\/\/www.iweaver.ai\/es\/wp-json\/wp\/v2\/posts\/23342","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.iweaver.ai\/es\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.iweaver.ai\/es\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.iweaver.ai\/es\/wp-json\/wp\/v2\/users\/29"}],"replies":[{"embeddable":true,"href":"https:\/\/www.iweaver.ai\/es\/wp-json\/wp\/v2\/comments?post=23342"}],"version-history":[{"count":3,"href":"https:\/\/www.iweaver.ai\/es\/wp-json\/wp\/v2\/posts\/23342\/revisions"}],"predecessor-version":[{"id":23365,"href":"https:\/\/www.iweaver.ai\/es\/wp-json\/wp\/v2\/posts\/23342\/revisions\/23365"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.iweaver.ai\/es\/wp-json\/wp\/v2\/media\/23344"}],"wp:attachment":[{"href":"https:\/\/www.iweaver.ai\/es\/wp-json\/wp\/v2\/media?parent=23342"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.iweaver.ai\/es\/wp-json\/wp\/v2\/categories?post=23342"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.iweaver.ai\/es\/wp-json\/wp\/v2\/tags?post=23342"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}