{"id":23351,"date":"2026-02-19T22:00:56","date_gmt":"2026-02-19T14:00:56","guid":{"rendered":"https:\/\/www.iweaver.ai\/?p=23351"},"modified":"2026-02-19T22:04:21","modified_gmt":"2026-02-19T14:04:21","slug":"what-breakthroughs-does-glm-5-deliver","status":"publish","type":"post","link":"https:\/\/www.iweaver.ai\/pt\/blog\/what-breakthroughs-does-glm-5-deliver\/","title":{"rendered":"An\u00e1lise detalhada do GLM-5: principais avan\u00e7os, classifica\u00e7\u00e3o de an\u00e1lise artificial e vantagens e desvantagens pr\u00e1ticas para a engenharia."},"content":{"rendered":"<p>Avalio o GLM-5 principalmente como um <strong>modelo de engenharia<\/strong>, n\u00e3o como um modelo de bate-papo gen\u00e9rico que s\u00f3 precisa &quot;soar bem&quot;. Minha abordagem \u00e9 direta: primeiro, uso benchmarks p\u00fablicos amplamente referenciados para confirmar a posi\u00e7\u00e3o do GLM-5 no n\u00edvel superior e, em seguida, valido esses sinais com um <strong>fluxo de trabalho repet\u00edvel<\/strong> Para verificar se o GLM-5 \u00e9 realmente mais est\u00e1vel e pr\u00e1tico para tarefas reais de engenharia. Com base nesse processo, minha conclus\u00e3o \u00e9 que o progresso do GLM-5 n\u00e3o se resume apenas \u00e0 escala \u2014 ele tamb\u00e9m avan\u00e7a em <strong>efici\u00eancia de contexto longo<\/strong>, <strong>treinamento de agentes<\/strong>, e <strong>estabilidade de sa\u00edda de n\u00edvel de engenharia<\/strong> Ao mesmo tempo. Essa combina\u00e7\u00e3o ajuda a explicar por que seu desempenho se aproxima dos principais modelos fechados, tanto em rankings compostos quanto em avalia\u00e7\u00f5es de agentes no mundo real.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Utilizo duas m\u00e9tricas para estabelecer a posi\u00e7\u00e3o do GLM-5.<\/h2>\n\n\n\n<p>Para evitar depender apenas de impress\u00f5es subjetivas, baseio minha avalia\u00e7\u00e3o do GLM-5 em duas vertentes complementares de avalia\u00e7\u00e3o de An\u00e1lise Artificial:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong><a href=\"https:\/\/artificialanalysis.ai\/evaluations\/artificial-analysis-intelligence-index\" rel=\"nofollow noopener\" target=\"_blank\">\u00cdndice de Intelig\u00eancia Artificial de An\u00e1lise <\/a><\/strong><strong>(pontua\u00e7\u00e3o de capacidade composta):<\/strong> Pontua\u00e7\u00f5es GLM-5 <strong>50<\/strong>, o que a coloca no n\u00edvel mais alto. Pontua\u00e7\u00f5es mais altas incluem Claude Opus 4.6 (Racioc\u00ednio Adaptativo) em <strong>53<\/strong> e GPT-5.2 (xhigh) em <strong>51<\/strong>, enquanto Claude Opus 4.5 tamb\u00e9m est\u00e1 no <strong>50<\/strong> alcance. Este \u00edndice agrega m\u00faltiplas avalia\u00e7\u00f5es em uma \u00fanica pontua\u00e7\u00e3o que reflete a for\u00e7a geral em racioc\u00ednio, codifica\u00e7\u00e3o e habilidades relacionadas.<\/li>\n\n\n\n<li><strong><a href=\"https:\/\/artificialanalysis.ai\/evaluations\/artificial-analysis-intelligence-index\" rel=\"nofollow noopener\" target=\"_blank\">GDPval-AA<\/a><\/strong><strong> (avalia\u00e7\u00e3o agentiva do trabalho intelectual no mundo real):<\/strong> GLM-5 tem um <strong>Classifica\u00e7\u00e3o Elo de 1412<\/strong>Em termos simples, Elo \u00e9 um <strong>pontua\u00e7\u00e3o de for\u00e7a relativa frente a frente<\/strong>\u2014Um Elo mais alto significa uma taxa de sucesso geral maior no mesmo conjunto de tarefas. O GDPval-AA foi projetado para simular o trabalho real (por exemplo, recuperar informa\u00e7\u00f5es, analis\u00e1-las e produzir entreg\u00e1veis) e permite que os modelos operem em um ambiente de agentes com acesso a ferramentas.<\/li>\n<\/ul>\n\n\n\n<figure class=\"wp-block-image size-large\"><img fetchpriority=\"high\" decoding=\"async\" width=\"1024\" height=\"606\" src=\"https:\/\/www.iweaver.ai\/wp-content\/uploads\/2026\/02\/artificial-analysis-intelligence-index-and-gdpval-aa-leaderboard-chart-highlighting-glm-5-score-50-and-elo-1412-1024x606.webp\" alt=\"\" class=\"wp-image-23352\" srcset=\"https:\/\/www.iweaver.ai\/wp-content\/uploads\/2026\/02\/artificial-analysis-intelligence-index-and-gdpval-aa-leaderboard-chart-highlighting-glm-5-score-50-and-elo-1412-1024x606.webp 1024w, https:\/\/www.iweaver.ai\/wp-content\/uploads\/2026\/02\/artificial-analysis-intelligence-index-and-gdpval-aa-leaderboard-chart-highlighting-glm-5-score-50-and-elo-1412-300x177.webp 300w, https:\/\/www.iweaver.ai\/wp-content\/uploads\/2026\/02\/artificial-analysis-intelligence-index-and-gdpval-aa-leaderboard-chart-highlighting-glm-5-score-50-and-elo-1412-768x454.webp 768w, https:\/\/www.iweaver.ai\/wp-content\/uploads\/2026\/02\/artificial-analysis-intelligence-index-and-gdpval-aa-leaderboard-chart-highlighting-glm-5-score-50-and-elo-1412-1536x908.webp 1536w, https:\/\/www.iweaver.ai\/wp-content\/uploads\/2026\/02\/artificial-analysis-intelligence-index-and-gdpval-aa-leaderboard-chart-highlighting-glm-5-score-50-and-elo-1412-18x12.webp 18w, https:\/\/www.iweaver.ai\/wp-content\/uploads\/2026\/02\/artificial-analysis-intelligence-index-and-gdpval-aa-leaderboard-chart-highlighting-glm-5-score-50-and-elo-1412.webp 2048w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><\/figure>\n\n\n\n<p>Consideradas em conjunto, essas duas m\u00e9tricas apontam para uma hip\u00f3tese clara: <strong>\u00c9 improv\u00e1vel que a vantagem do GLM-5 venha de &quot;truques&quot; isolados em conjuntos de teste. \u00c9 mais prov\u00e1vel que ela provenha da qualidade de execu\u00e7\u00e3o e da estabilidade em tarefas complexas de m\u00faltiplas etapas.<\/strong><\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Como eu testo o GLM-5: tr\u00eas fluxos de trabalho de engenharia de alta frequ\u00eancia<\/h2>\n\n\n\n<p>Meus testes pr\u00e1ticos se assemelham mais a uma verifica\u00e7\u00e3o de aceita\u00e7\u00e3o de engenharia do que a uma &quot;demonstra\u00e7\u00e3o de resultados&quot;. Eu me concentro menos em se o modelo consegue gerar explica\u00e7\u00f5es mais longas e mais em se ele consegue fornecer resultados corretos e utiliz\u00e1veis sob certas restri\u00e7\u00f5es. Eu testo principalmente tr\u00eas tipos de fluxo de trabalho:<\/p>\n\n\n\n<ol start=\"1\" class=\"wp-block-list\">\n<li><strong>Tarefas de engenharia de software de contexto longo:<\/strong> Forne\u00e7o um segmento de c\u00f3digo mais extenso, al\u00e9m de restri\u00e7\u00f5es de documenta\u00e7\u00e3o, e solicito a localiza\u00e7\u00e3o de problemas entre arquivos e uma proposta de corre\u00e7\u00e3o com altera\u00e7\u00f5es m\u00ednimas.<\/li>\n\n\n\n<li><strong>Edi\u00e7\u00f5es incrementais de c\u00f3digo:<\/strong> Preciso de altera\u00e7\u00f5es limitadas a uma fun\u00e7\u00e3o ou m\u00f3dulo espec\u00edfico, mantendo o restante da estrutura intacto, e solicito um patch no estilo diff, al\u00e9m da corre\u00e7\u00e3o dos riscos de regress\u00e3o.<\/li>\n\n\n\n<li><strong>Cadeias de tarefas centradas em ferramentas:<\/strong> Estruturo as tarefas como recuperar \u2192 sintetizar \u2192 produzir um resultado, e verifico se o modelo consegue solicitar as entradas ausentes de forma clara e propor um caminho de repeti\u00e7\u00e3o confi\u00e1vel quando algo falha.<\/li>\n<\/ol>\n\n\n\n<p>Utilizo esses fluxos de trabalho porque as melhorias no \u00cdndice de Intelig\u00eancia e no GDPval-AA devem aparecer com mais clareza em <strong>cadeias longas, uso de ferramentas e entreg\u00e1veis de engenharia<\/strong> em vez de instru\u00e7\u00f5es curtas e de turno \u00fanico.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Principais inova\u00e7\u00f5es do GLM-5: uma melhoria estrutural a partir de tr\u00eas altera\u00e7\u00f5es de refor\u00e7o.<\/h2>\n\n\n\n<p><strong>A aten\u00e7\u00e3o esparsa da DSA torna o contexto longo economicamente sustent\u00e1vel.<\/strong><\/p>\n\n\n\n<p>Em materiais p\u00fablicos e o <a href=\"https:\/\/www.arxiv.org\/abs\/2602.15763\" rel=\"nofollow noopener\" target=\"_blank\">papel<\/a>, o GLM-5 enfatiza a ado\u00e7\u00e3o de <strong>DSA (DeepSeek Sparse Attention)<\/strong>Em termos simples: quando as entradas se tornam muito longas, o modelo n\u00e3o precisa gastar a mesma quantidade de processamento computacional em cada token. Em vez disso, ele aloca mais processamento para os tokens que provavelmente s\u00e3o mais importantes e relevantes, reduzindo o custo de treinamento e infer\u00eancia, ao mesmo tempo que busca preservar a qualidade do contexto longo.<\/p>\n\n\n\n<p>Nos meus testes, a implica\u00e7\u00e3o pr\u00e1tica \u00e9 consistente com esse objetivo de design: \u00e0 medida que o contexto aumenta, <strong>A lat\u00eancia tende a aumentar de forma mais suave.<\/strong>, e <strong>A coer\u00eancia da sa\u00edda tende a permanecer mais est\u00e1vel.<\/strong>Isso \u00e9 importante em contextos de engenharia porque a explora\u00e7\u00e3o da base de c\u00f3digo, o ac\u00famulo de requisitos e a execu\u00e7\u00e3o em longo prazo expandem naturalmente o contexto ao longo do tempo.<\/p>\n\n\n\n<p><strong>A infraestrutura de RL ass\u00edncrona (&quot;slime&quot;) se adapta melhor \u00e0 intera\u00e7\u00e3o de longo prazo.<\/strong><\/p>\n\n\n\n<p>O GLM-5 descreve publicamente uma configura\u00e7\u00e3o de aprendizado por refor\u00e7o ass\u00edncrono que desacopla a gera\u00e7\u00e3o de trajet\u00f3ria (rollout) do treinamento para melhorar o rendimento e a efici\u00eancia. Uma interpreta\u00e7\u00e3o pr\u00e1tica disso \u00e9 que o modelo pode aprender de forma mais eficaz a partir de grandes volumes de registros de intera\u00e7\u00e3o sobre o modelo. <strong>Como concluir tarefas de ponta a ponta<\/strong>, em vez de apenas aprender a produzir respostas que pare\u00e7am plaus\u00edveis isoladamente.<\/p>\n\n\n\n<p>Em fluxos de trabalho pr\u00e1ticos, vejo isso mais claramente no tratamento de falhas: em vez de ficar repetindo trechos de texto improdutivos, o GLM-5 retorna com mais frequ\u00eancia \u00e0s restri\u00e7\u00f5es e prop\u00f5e solu\u00e7\u00f5es. <strong>novas etapas execut\u00e1veis<\/strong>E \u00e9 mais expl\u00edcito sobre quais entradas est\u00e3o faltando.<\/p>\n\n\n\n<p><strong>Os objetivos do treinamento est\u00e3o mudando em dire\u00e7\u00e3o \u00e0 engenharia de agentes, e n\u00e3o ao ganho de habilidades pontuais.<\/strong><\/p>\n\n\n\n<p>O GLM-5 se posiciona explicitamente como uma transi\u00e7\u00e3o da \u201ccodifica\u00e7\u00e3o orientada por instru\u00e7\u00f5es\u201d para <strong>engenharia de agentes<\/strong>Interpreto isso como um objetivo de treinamento que vai al\u00e9m de escrever c\u00f3digo ou resolver problemas isolados de racioc\u00ednio: o modelo precisa planejar, executar e refletir em horizontes mais longos, produzindo resultados que sejam utiliz\u00e1veis em fluxos de trabalho de engenharia.<\/p>\n\n\n\n<p>Essa abordagem ajuda a explicar por que o GLM-5 pode ter um bom desempenho no GDPval-AA (tarefas de agentes de trabalho intelectual), ao mesmo tempo que apresenta uma pontua\u00e7\u00e3o competitiva no \u00cdndice de Intelig\u00eancia composto.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Por que o GLM-5 ainda est\u00e1 classificado &quot;logo atr\u00e1s&quot; dos porta-avi\u00f5es blindados fechados: a diferen\u00e7a \u00e9 menor, mas n\u00e3o \u00e9 zero.<\/h2>\n\n\n\n<p><strong>O GLM-5 j\u00e1 est\u00e1 na mesma faixa de pontua\u00e7\u00e3o de alto n\u00edvel.<\/strong><\/p>\n\n\n\n<p>UM <strong>50<\/strong> A pontua\u00e7\u00e3o no \u00cdndice de Intelig\u00eancia sugere que n\u00e3o h\u00e1 grandes pontos fracos nas avalia\u00e7\u00f5es agregadas \u2014 caso contr\u00e1rio, seria dif\u00edcil manter uma pontua\u00e7\u00e3o nesse n\u00edvel. Est\u00e1 na mesma faixa que o Claude Opus 4.5 e ligeiramente abaixo do Claude Opus 4.6 (Racioc\u00ednio Adaptativo) e do GPT-5.2 (extremamente alto).<\/p>\n\n\n\n<p><strong>O GLM-5 est\u00e1 pr\u00f3ximo de se tornar um dos principais dispositivos em termos de trabalho intelectual real. <\/strong><strong>Agente<\/strong><strong> Tarefas<\/strong><\/p>\n\n\n\n<p>Um <strong>Elo de 1412<\/strong> O GDPval-AA indica altas taxas de sucesso relativas em tarefas de trabalho intelectual com suporte de ferramentas. Para decis\u00f5es de implementa\u00e7\u00e3o, isso costuma ser mais preditivo do que a acur\u00e1cia est\u00e1tica em um benchmark espec\u00edfico, pois muitos cen\u00e1rios de produ\u00e7\u00e3o envolvem recupera\u00e7\u00e3o, an\u00e1lise, reda\u00e7\u00e3o e coordena\u00e7\u00e3o de ferramentas.<\/p>\n\n\n\n<p><strong>As diferen\u00e7as remanescentes se manifestam na extrema dificuldade e na maturidade das pol\u00edticas.<\/strong><\/p>\n\n\n\n<p>Sistemas de seguran\u00e7a fechados geralmente mant\u00eam vantagens em termos de maturidade de pol\u00edticas: autoverifica\u00e7\u00e3o mais consistente, limites de recusa mais confi\u00e1veis e menos erros em casos extremos. O GLM-5 pode se aproximar desse n\u00edvel, mas para um subconjunto de tarefas complexas ainda pode exigir restri\u00e7\u00f5es mais claras ou mecanismos de prote\u00e7\u00e3o mais robustos em n\u00edvel de sistema para garantir resultados consistentes.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Vantagens que confirmo na pr\u00e1tica: o GLM-5 se comporta mais como um copiloto de engenharia do que como um chatbot.<\/h2>\n\n\n\n<p><strong>Edi\u00e7\u00f5es incrementais mais confi\u00e1veis, menos reescritas desnecess\u00e1rias.<\/strong><\/p>\n\n\n\n<p>Quando preciso de altera\u00e7\u00f5es localizadas, preservando a estrutura circundante, o GLM-5 geralmente produz substitui\u00e7\u00f5es direcionadas ou edi\u00e7\u00f5es no estilo diff em vez de reescrever m\u00f3dulos inteiros. Isso reduz o trabalho de revis\u00e3o e facilita o gerenciamento dos riscos de regress\u00e3o.<\/p>\n\n\n\n<p><strong>Melhor consist\u00eancia de restri\u00e7\u00f5es em cadeias de tarefas mais longas.<\/strong><\/p>\n\n\n\n<p>Ao dividir uma tarefa em v\u00e1rias etapas e impor restri\u00e7\u00f5es rigorosas a partir de etapas anteriores, o GLM-5 tende a manter essas restri\u00e7\u00f5es consistentes \u00e0 medida que o contexto se expande, reduzindo suposi\u00e7\u00f5es contradit\u00f3rias.<\/p>\n\n\n\n<p><strong>Mais sa\u00eddas execut\u00e1veis da cadeia de ferramentas e melhor recupera\u00e7\u00e3o ap\u00f3s falhas.<\/strong><\/p>\n\n\n\n<p>Em fluxos de trabalho de recupera\u00e7\u00e3o \u2192 s\u00edntese \u2192 entrega, foco em verificar se o modelo consegue gerar etapas execut\u00e1veis e uma lista de verifica\u00e7\u00e3o clara de &quot;entradas ausentes&quot;. O GLM-5, com mais frequ\u00eancia, impulsiona o fluxo de trabalho em vez de permanecer na camada de explica\u00e7\u00e3o.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Limita\u00e7\u00f5es a serem conhecidas antecipadamente: o que pode bloquear a ado\u00e7\u00e3o em produ\u00e7\u00e3o<\/h2>\n\n\n\n<p><strong>Os custos de implanta\u00e7\u00e3o e de sistemas ainda s\u00e3o elevados.<\/strong><\/p>\n\n\n\n<p>O GLM-5 \u00e9 um modelo MoE de grande escala. Mesmo que apenas parte do modelo seja ativada por token, a auto-hospedagem ainda requer trabalho substancial em planejamento de mem\u00f3ria, agendamento de concorr\u00eancia, estrat\u00e9gia de cache chave-valor, quantiza\u00e7\u00e3o e compatibilidade com mecanismos de infer\u00eancia.<\/p>\n\n\n\n<p><strong>N\u00e3o vai ganhar automaticamente em todos os segmentos especializados.<\/strong><\/p>\n\n\n\n<p>O \u00cdndice de Intelig\u00eancia e o GDPval-AA tendem a favorecer o racioc\u00ednio geral e tarefas de trabalho intelectual. Se o seu dom\u00ednio for altamente especializado \u2014 por exemplo, fluxos de trabalho de conformidade rigorosa, demonstra\u00e7\u00f5es matem\u00e1ticas formais de nicho ou controle de estilo extremamente detalhado \u2014 voc\u00ea ainda deve realizar testes A\/B direcionados antes de se comprometer.<\/p>\n\n\n\n<p><strong>Um modelo robusto n\u00e3o substitui uma engenharia de sistemas robusta.<\/strong><\/p>\n\n\n\n<p>Em implanta\u00e7\u00f5es com agentes, a falha mais comum n\u00e3o \u00e9 &quot;o modelo n\u00e3o consegue responder&quot;, mas sim &quot;a cadeia de execu\u00e7\u00e3o n\u00e3o est\u00e1 controlada&quot;. Permiss\u00f5es de ferramentas, isolamento de seguran\u00e7a, observabilidade, l\u00f3gica de repeti\u00e7\u00e3o e verifica\u00e7\u00e3o de evid\u00eancias continuam sendo necess\u00e1rios para transformar a capacidade do modelo em desempenho est\u00e1vel em produ\u00e7\u00e3o.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Quando eu priorizaria o GLM-5<\/h2>\n\n\n\n<p>Se meu objetivo \u00e9 que um modelo desempenhe um papel significativo em um fluxo de trabalho de engenharia (e n\u00e3o apenas produza respostas isoladas), o GLM-5 \u00e9 um candidato de primeira linha, especialmente para:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Tarefas de engenharia de longo contexto:<\/strong> depura\u00e7\u00e3o entre arquivos, refatora\u00e7\u00e3o, localiza\u00e7\u00e3o de problemas complexos<\/li>\n\n\n\n<li><strong>Fluxos de trabalho centrados em ferramentas:<\/strong> recupera\u00e7\u00e3o, cria\u00e7\u00e3o de scripts, s\u00edntese de dados, entreg\u00e1veis de documentos<\/li>\n\n\n\n<li><strong>Requisitos para categorias de peso livre:<\/strong> Implanta\u00e7\u00e3o local, personaliza\u00e7\u00e3o e limites de custo\/controle mais rigorosos.<\/li>\n<\/ul>\n\n\n\n<p>Se sua carga de trabalho for dominada por perguntas e respostas curtas, extremamente sens\u00edvel a custos\/QPS, ou se voc\u00ea operar sob limites de conformidade muito r\u00edgidos, sem toler\u00e2ncia a prote\u00e7\u00f5es em n\u00edvel de sistema, eu come\u00e7aria com modelos mais leves ou solu\u00e7\u00f5es de ponta fechadas como base e adicionaria o GLM-5 somente se ele apresentar um retorno claro.<\/p>","protected":false},"excerpt":{"rendered":"<p>Avalio o GLM-5 principalmente como um modelo de engenharia, n\u00e3o como um modelo de conversa\u00e7\u00e3o gen\u00e9rico que s\u00f3 precisa &quot;soar bem&quot;. Minha abordagem \u00e9 direta: primeiro, utilizo benchmarks p\u00fablicos amplamente referenciados para confirmar a posi\u00e7\u00e3o do GLM-5 no n\u00edvel superior; em seguida, valido esses sinais com um fluxo de trabalho repet\u00edvel para verificar se o GLM-5 \u00e9 realmente adequado.<\/p>","protected":false},"author":29,"featured_media":23355,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[138],"tags":[],"class_list":["post-23351","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-blog"],"acf":[],"_links":{"self":[{"href":"https:\/\/www.iweaver.ai\/pt\/wp-json\/wp\/v2\/posts\/23351","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.iweaver.ai\/pt\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.iweaver.ai\/pt\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.iweaver.ai\/pt\/wp-json\/wp\/v2\/users\/29"}],"replies":[{"embeddable":true,"href":"https:\/\/www.iweaver.ai\/pt\/wp-json\/wp\/v2\/comments?post=23351"}],"version-history":[{"count":2,"href":"https:\/\/www.iweaver.ai\/pt\/wp-json\/wp\/v2\/posts\/23351\/revisions"}],"predecessor-version":[{"id":23356,"href":"https:\/\/www.iweaver.ai\/pt\/wp-json\/wp\/v2\/posts\/23351\/revisions\/23356"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.iweaver.ai\/pt\/wp-json\/wp\/v2\/media\/23355"}],"wp:attachment":[{"href":"https:\/\/www.iweaver.ai\/pt\/wp-json\/wp\/v2\/media?parent=23351"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.iweaver.ai\/pt\/wp-json\/wp\/v2\/categories?post=23351"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.iweaver.ai\/pt\/wp-json\/wp\/v2\/tags?post=23351"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}