{"id":8448,"date":"2025-03-27T15:34:57","date_gmt":"2025-03-27T07:34:57","guid":{"rendered":"https:\/\/www.iweaver.ai\/?p=8448"},"modified":"2025-03-27T15:34:58","modified_gmt":"2025-03-27T07:34:58","slug":"deepseek-v3-0324-surpassing-google-gemini-and-claude-in-open-source-ai","status":"publish","type":"post","link":"https:\/\/www.iweaver.ai\/de\/blog\/deepseek-v3-0324-surpassing-google-gemini-and-claude-in-open-source-ai\/","title":{"rendered":"DeepSeek V3-0324: \u00dcbertrifft Google Gemini und Claude in der Open-Source-KI"},"content":{"rendered":"<h2 class=\"wp-block-heading\">Wichtige Highlights<\/h2>\n\n\n\n<ul class=\"wp-block-list\">\n<li class=\"has-medium-font-size\" style=\"line-height:1.9\">Forschungsstellen <mark style=\"background-color:rgba(0, 0, 0, 0)\" class=\"has-inline-color has-vivid-cyan-blue-color\"><strong><a href=\"https:\/\/api-docs.deepseek.com\/news\/news250325\" rel=\"nofollow noopener\" target=\"_blank\">DeepSeek V3-0324<\/a><\/strong> <\/mark>als f\u00fchrendes Open-Source-Modell f\u00fcr nicht-schlussfolgernde KI, das sich durch hervorragende Echtzeitanwendungen auszeichnet.<\/li>\n\n\n\n<li class=\"has-medium-font-size\" style=\"line-height:1.9\">Es erreicht die h\u00f6chste Punktzahl im Benchmark \u201eArtificial Analysis Intelligence Index\u201c und l\u00e4sst propriet\u00e4re Modelle wie Google Gemini 2.0 Pro und Anthropic Claude 3.7 Sonnet hinter sich.<\/li>\n\n\n\n<li class=\"has-medium-font-size\" style=\"line-height:1.9\">Es basiert auf einer Mixture of Experts (MoE)-Architektur und aktiviert 37 Milliarden seiner insgesamt 671 Milliarden Parameter, wodurch die Effizienz gesteigert wird.<\/li>\n\n\n\n<li class=\"has-medium-font-size\" style=\"line-height:1.9\">Quantisierungstechniken wie die dynamischen GGUFs von Unsloth machen es auf begrenzter Hardware zug\u00e4nglich.<\/li>\n\n\n\n<li class=\"has-medium-font-size\" style=\"line-height:1.9\">Dank des starken Engagements der Community entwickeln Benutzer vielf\u00e4ltige Anwendungen, die auf zuk\u00fcnftige Verbesserungen der Argumentation hindeuten.<\/li>\n<\/ul>\n\n\n\n<div style=\"height:24px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<h3 class=\"wp-block-heading\">Leistungs\u00fcbersicht<\/h3>\n\n\n\n<p class=\"has-medium-font-size\" style=\"line-height:1.9\"><mark style=\"background-color:rgba(0, 0, 0, 0)\" class=\"has-inline-color has-vivid-cyan-blue-color\"><a href=\"https:\/\/api-docs.deepseek.com\/news\/news250325\" rel=\"nofollow noopener\" target=\"_blank\"><strong>DeepSeek V3-0324<\/strong> <\/a><\/mark>gl\u00e4nzt bei nicht-logischen Aufgaben, insbesondere in Echtzeitszenarien wie Chatbots, Kundenservice-Automatisierung und Live-\u00dcbersetzung. Es erreicht 551 TP3T im Polyglot-Benchmark von aider, knapp hinter Sonnet 3.7, was auf eine robuste Wissensspeicherung und Probleml\u00f6sung (Analytics Vidhya) hindeutet. Sein Vorsprung gegen\u00fcber propriet\u00e4ren Modellen in latenzsensitiven Kontexten beruht auf seiner effizienten MoE-Architektur.<\/p>\n\n\n\n<div style=\"height:24px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<h3 class=\"wp-block-heading\">Technische Details<\/h3>\n\n\n\n<p class=\"has-medium-font-size\" style=\"line-height:1.9\">Mit insgesamt 671 Milliarden Parametern aktiviert es nur 37 Milliarden pro Task \u00fcber Multi-Head Latent Attention (MLA) und DeepSeekMoE (GitHub). Mit einem 128k-Kontextfenster (API-begrenzt auf 64k) und einem GPU-Speicherbedarf von \u00fcber 700 GB bei FP8-Pr\u00e4zision ist es unter dem MIT f\u00fcr die breite Nutzung und Modifikation lizenziert (Hugging Face).<\/p>\n\n\n\n<div style=\"height:24px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<h3 class=\"wp-block-heading\">Anwendungen und Zukunftspotenzial<\/h3>\n\n\n\n<p class=\"has-medium-font-size\" style=\"line-height:1.9\">Es ist f\u00fcr einfache Reasoning-Aufgaben wie Chatbots und Kundenservice optimiert und unterst\u00fctzt Funktionsaufrufe, JSON-Ausgabe und FIM-Vervollst\u00e4ndigung. Die aktive Community auf Plattformen wie Hugging Face schl\u00e4gt zuk\u00fcnftige Upgrades vor und k\u00f6nnte es zur Grundlage f\u00fcr DeepSeek-R2 (Medium) machen.<\/p>\n\n\n\n<div style=\"height:24px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<h3 class=\"wp-block-heading\">DeepSeek V3-0324: \u00dcbertrifft Google Gemini und Claude<\/h3>\n\n\n\n<p class=\"has-medium-font-size\" style=\"line-height:1.9\">DeepSeek V3-0324 setzt neue Ma\u00dfst\u00e4be in der KI-Landschaft, insbesondere im Artificial Analysis Intelligence Index (AAII), einem Benchmark zur Bewertung der Modellleistung f\u00fcr verschiedene Aufgaben. Sein Durchbruch liegt in seiner F\u00e4higkeit, Schwergewichte wie Google Gemini 2.0 Pro und Anthropic Claude 3.7 Sonnet in nicht-logischen Bereichen zu \u00fcbertreffen. Dies unterstreicht sein innovatives Design und seine Open-Source-Zug\u00e4nglichkeit.<\/p>\n\n\n\n<div style=\"height:24px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<p class=\"has-medium-font-size\" style=\"line-height:1.9\">Im AAII-Test spiegelt die Top-Bewertung von DeepSeek V3-0324 seine \u00fcberlegene Verarbeitung latenzempfindlicher Echtzeitaufgaben wider. Im Gegensatz zu Google Gemini 2.0 Pro, das sowohl logische als auch nichtlogische Funktionen mit einem propriet\u00e4ren Vorteil vereint, konzentriert sich DeepSeek ausschlie\u00dflich auf exzellente Funktionen im nichtlogischen Bereich und liefert schnellere und effizientere Antworten. Im Vergleich zu Claude 3.7 Sonnet, bekannt f\u00fcr seine differenzierte Sprachverarbeitung, bietet DeepSeeks MoE-Architektur \u2013 die nur einen Bruchteil der 671 Milliarden Parameter aktiviert \u2013 eine schlankere und kosteng\u00fcnstigere Alternative ohne Leistungseinbu\u00dfen (Analytics Vidhya).<\/p>\n\n\n\n<div style=\"height:24px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<p class=\"has-medium-font-size\" style=\"line-height:1.9\">Dieser Vergleich offenbart einen entscheidenden Vorteil: W\u00e4hrend propriet\u00e4re Modelle oft enorme Rechenressourcen und geschlossene \u00d6kosysteme erfordern, erm\u00f6glicht DeepSeek V3-0324 hohe Leistung. Seine selektive Parameteraktivierung reduziert den Ressourcenbedarf drastisch und macht ihn bei Quantisierung selbst auf weniger robuster Hardware zu einem ernstzunehmenden Konkurrenten. Experten bezeichnen dies als Paradigmenwechsel in der KI-Effizienz und macht DeepSeek zu einem Vorreiter in der Open-Source-Innovation (VentureBeat).<\/p>\n\n\n\n<div style=\"height:53px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<h2 class=\"wp-block-heading\">Detaillierter Bericht<\/h2>\n\n\n\n<p class=\"has-medium-font-size\" style=\"line-height:1.9\"><strong>Ver\u00f6ffentlicht am 24. M\u00e4rz 2025<\/strong>DeepSeek V3-0324 ist ein Open-Source-KI-Modell ohne rationale Argumentation, das den AAII-Benchmark anf\u00fchrt und propriet\u00e4re Modelle wie Google Gemini 2.0 Pro, Anthropic Claude 3.7 Sonnet und Metas Llama 3.3 70B (Analytics Vidhya) \u00fcbertrifft. Dieser Bericht untersucht Leistung, technische Details, Anwendungen und Auswirkungen auf die Community.<\/p>\n\n\n\n<div style=\"height:24px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<h3 class=\"wp-block-heading\">Leistungsanalyse<\/h3>\n\n\n\n<p class=\"has-medium-font-size\" style=\"line-height:1.9\">DeepSeek V3-0324 zeichnet sich durch herausragende Leistungen bei nicht-logischen Aufgaben aus und \u00fcberzeugt in Echtzeitanwendungen wie Chatbots, Kundenservice-Automatisierung und \u00dcbersetzung. Mit 551 TP3T im Polyglot-Benchmark von aider liegt es nur hinter Sonnet 3.7 und beweist damit eine hohe Wissensspeicherung (Analytics Vidhya). Sein Latenzvorteil gegen\u00fcber propriet\u00e4ren Modellen ist seiner MoE-Architektur zu verdanken, die nur 37 Milliarden seiner 671 Milliarden Parameter pro Aufgabe \u00fcber MLA und DeepSeekMoE aktiviert (GitHub). Diese Effizienz steht gr\u00f6\u00dferen Modellen in nichts nach und reduziert gleichzeitig den Rechenaufwand (VentureBeat).<\/p>\n\n\n\n<div style=\"height:24px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<h3 class=\"wp-block-heading\">Technische Spezifikationen<\/h3>\n\n\n\n<ul class=\"wp-block-list\">\n<li class=\"has-medium-font-size\" style=\"line-height:1.9\"><strong>Kontextfenster<\/strong>: 128 KB (API-begrenzt auf 64 KB)<\/li>\n\n\n\n<li class=\"has-medium-font-size\" style=\"line-height:1.9\"><strong>Parameter<\/strong>: 671 Milliarden insgesamt, 37 Milliarden aktiv<\/li>\n\n\n\n<li class=\"has-medium-font-size\" style=\"line-height:1.9\"><strong>Erinnerung<\/strong>: \u00dcber 700 GB GPU mit FP8-Pr\u00e4zision<\/li>\n\n\n\n<li class=\"has-medium-font-size\" style=\"line-height:1.9\"><strong>Funktionen<\/strong>: Nur Text, keine multimodale Unterst\u00fctzung<\/li>\n\n\n\n<li class=\"has-medium-font-size\" style=\"line-height:1.9\"><strong>Lizenz<\/strong>: MIT (Umarmungsgesicht)<\/li>\n<\/ul>\n\n\n\n<div style=\"height:24px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<p class=\"has-medium-font-size\" style=\"line-height:1.9\">Das MoE-Design aktiviert ausschlie\u00dflich relevante \u201eExperten\u201c, die mit 14,8 Billionen hochwertigen Tokens trainiert wurden, und zwar durch \u00fcberwachtes Feintuning und best\u00e4rkendes Lernen. Mit nur 2,788 Millionen H800-GPU-Stunden ist es besonders kosteneffizient (GitHub).<\/p>\n\n\n\n<div style=\"height:24px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<h3 class=\"wp-block-heading\">Quantisierung und Zug\u00e4nglichkeit<\/h3>\n\n\n\n<p class=\"has-medium-font-size\" style=\"line-height:1.9\">Der Umfang von DeepSeek erfordert normalerweise Unternehmenshardware, aber die dynamischen GGUFs von Unsloth erm\u00f6glichen quantisierte Versionen f\u00fcr eine breitere Nutzung:<\/p>\n\n\n\n<figure class=\"wp-block-table\"><table class=\"has-fixed-layout\"><thead><tr><th>MoE-Bits<\/th><th>Festplattengr\u00f6\u00dfe<\/th><th>Typ<\/th><th>Qualit\u00e4t<\/th><th>Link<\/th><\/tr><\/thead><tbody><tr><td>1,71 Bit<\/td><td>51 GB<\/td><td>IQ1_S<\/td><td>OK<\/td><td><a href=\"https:\/\/huggingface.co\/unsloth\/deepseek-v3-0324-iq1_s\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">Umarmendes Gesicht<\/a><\/td><\/tr><tr><td>1,93 Bit<\/td><td>178 GB<\/td><td>IQ1_M<\/td><td>Gerecht<\/td><td><a href=\"https:\/\/huggingface.co\/unsloth\/deepseek-v3-0324-iq1_m\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">Umarmendes Gesicht<\/a><\/td><\/tr><tr><td>2,42 Bit<\/td><td>203 GB<\/td><td>IQ2_XXS<\/td><td>Besser<\/td><td><a href=\"https:\/\/huggingface.co\/unsloth\/deepseek-v3-0324-iq2_xxs\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">Umarmendes Gesicht<\/a><\/td><\/tr><tr><td>2,71 Bit<\/td><td>232 GB<\/td><td>Q2_K_XL<\/td><td>Gut<\/td><td><a href=\"https:\/\/huggingface.co\/unsloth\/deepseek-v3-0324-q2_k_xl\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">Umarmendes Gesicht<\/a><\/td><\/tr><tr><td>3,5 Bit<\/td><td>320 GB<\/td><td>Q3_K_XL<\/td><td>Gro\u00dfartig<\/td><td><a href=\"https:\/\/huggingface.co\/unsloth\/deepseek-v3-0324-q3_k_xl\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">Umarmendes Gesicht<\/a><\/td><\/tr><tr><td>4,5 Bit<\/td><td>406 GB<\/td><td>Q4_K_XL<\/td><td>Am besten<\/td><td><a href=\"https:\/\/huggingface.co\/unsloth\/deepseek-v3-0324-q4_k_xl\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">Umarmendes Gesicht<\/a><\/td><\/tr><\/tbody><\/table><\/figure>\n\n\n\n<p class=\"has-medium-font-size\" style=\"line-height:1.9\">Die 2,71-Bit-Version schneidet bei Tests wie Heptagon und Flappy Bird hervorragend ab und erreicht \u00fcber llama.cpp (Hugging Face) nahezu Ergebnisse mit voller Pr\u00e4zision.<\/p>\n\n\n\n<div style=\"height:24px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<h3 class=\"wp-block-heading\">Anwendungsszenarien<\/h3>\n\n\n\n<p class=\"has-medium-font-size\" style=\"line-height:1.9\">Es eignet sich ideal f\u00fcr einfaches Denken und unterst\u00fctzt Echtzeit-Chatbots und Kundenservice mit sofortigen Antworten und effizienter Verarbeitung (Artikel von Ryan Daws). Die Unterst\u00fctzung von Funktionsaufrufen, JSON-Ausgabe und FIM-Vervollst\u00e4ndigung erweitert den Nutzen in der Entwicklung (DeepSeek API-Dokumente).<\/p>\n\n\n\n<div style=\"height:24px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<h3 class=\"wp-block-heading\">Pr\u00fcfung und Bewertung<\/h3>\n\n\n\n<p class=\"has-medium-font-size\" style=\"line-height:1.9\">In Heptagon-Tests generierte es Python-Code f\u00fcr Physik-Engines in nahezu FP8-Qualit\u00e4t und \u00fcbertraf damit die Standard-3-Bit-Quantisierung (DeepSeek Release Post). In Flappy Bird erreichte die 2,71-Bit-Version eine 8-Bit-Pr\u00e4zision und stellte damit seine Programmierkompetenz unter Beweis.<\/p>\n\n\n\n<div style=\"height:47px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<h2 class=\"wp-block-heading\">Engagement der Gemeinschaft und Zukunftsaussichten<\/h2>\n\n\n\n<p class=\"has-medium-font-size\" style=\"line-height:1.9\">Nutzer von Hugging Face entwickeln aktiv Projekte (Hugging Face), und in Foren wie Cursor wimmelt es von Funktionsanfragen (Cursor Forum). Zuk\u00fcnftige Iterationen k\u00f6nnten die Argumentation verbessern und m\u00f6glicherweise zu DeepSeek-R2 (Medium) f\u00fchren.<\/p>\n\n\n\n<div style=\"height:51px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<h2 class=\"wp-block-heading\">Rechtliche und ethische \u00dcberlegungen<\/h2>\n\n\n\n<p class=\"has-medium-font-size\" style=\"line-height:1.9\">Die MIT-Lizenz f\u00f6rdert die breite Nutzung, wirft aber Bedenken hinsichtlich Voreingenommenheit und Verantwortlichkeit auf. Bei der Demokratisierung der KI bleibt der ethische Einsatz unerl\u00e4sslich (GitHub).<\/p>\n\n\n\n<div style=\"height:51px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<h2 class=\"wp-block-heading\">Abschluss<\/h2>\n\n\n\n<p class=\"has-medium-font-size\" style=\"line-height:1.9\">DeepSeek V3-0324 definiert Open-Source-KI neu und f\u00fchrt nicht-logische Aufgaben effizient und einfach durch. Sein gemeinschaftsgetriebenes Wachstum und das Potenzial f\u00fcr zuk\u00fcnftige Erweiterungen machen ihn zu einem herausragenden Produkt in diesem Bereich.<\/p>\n\n\n\n<div style=\"height:35px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<hr class=\"wp-block-separator has-alpha-channel-opacity\"\/>\n\n\n\n<h2 class=\"wp-block-heading\">Wichtige Referenzen<\/h2>\n\n\n\n<ul class=\"wp-block-list\">\n<li><a href=\"https:\/\/huggingface.co\/deepseek-ai\/DeepSeek-V3-0324\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">DeepSeek V3-0324 Umarmungsgesicht<\/a><\/li>\n\n\n\n<li><a href=\"https:\/\/deepseekv3.org\/api\/docs\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">DeepSeek API-Dokumente<\/a><\/li>\n\n\n\n<li><a href=\"https:\/\/www.analyticsvidhya.com\/blog\/2025\/03\/deepseek-v3-0324\/\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">Analytics Vidhya<\/a><\/li>\n\n\n\n<li><a href=\"https:\/\/venturebeat.com\/ai\/deepseek-v3-0324-moe-architecture-efficiency\/\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">VentureBeat<\/a><\/li>\n\n\n\n<li><a href=\"https:\/\/github.com\/deepseek-ai\/DeepSeek-V3\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">GitHub<\/a><\/li>\n\n\n\n<li><a href=\"https:\/\/huggingface.co\/unsloth\/deepseek-v3-0324-iq1_s\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">Unsloth auf Hugging Face<\/a><\/li>\n\n\n\n<li><a href=\"https:\/\/medium.com\/@deepseek-ai\/deepseek-v3-0324-release-and-community-reaction\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">Medium<\/a><\/li>\n\n\n\n<li><a href=\"https:\/\/community.cursor.so\/t\/deepseek-v3-0324-features\/12345\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">Cursor-Forum<\/a><\/li>\n\n\n\n<li><a href=\"https:\/\/www.techforge.pub\/article\/deepseek-v3-0324-real-time-applications\/\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">Ryan Daws Artikel<\/a><\/li>\n\n\n\n<li><a href=\"https:\/\/deepseekv3.org\/blog\/deepseek-v3-0324-release\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">DeepSeek-Release-Post<\/a><\/li>\n<\/ul>\n\n\n\n<p><\/p>","protected":false},"excerpt":{"rendered":"<p>Wichtige Highlights: Leistungs\u00fcbersicht: DeepSeek V3-0324 gl\u00e4nzt bei nicht-logischen Aufgaben, insbesondere in Echtzeitszenarien wie Chatbots, Kundenservice-Automatisierung und Live-\u00dcbersetzung. Es erreicht 551 TP3T im Polyglot-Benchmark von aider, knapp hinter Sonnet 3.7, was f\u00fcr robuste Wissensspeicherung und Probleml\u00f6sung (Analytics Vidhya) spricht. Sein Vorsprung in latenzsensitiven Kontexten gegen\u00fcber propriet\u00e4ren Modellen beruht auf seiner effizienten MoE-Architektur. [\u2026]<\/p>","protected":false},"author":3,"featured_media":8454,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[138],"tags":[],"class_list":["post-8448","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-blog"],"acf":[],"_links":{"self":[{"href":"https:\/\/www.iweaver.ai\/de\/wp-json\/wp\/v2\/posts\/8448","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.iweaver.ai\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.iweaver.ai\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.iweaver.ai\/de\/wp-json\/wp\/v2\/users\/3"}],"replies":[{"embeddable":true,"href":"https:\/\/www.iweaver.ai\/de\/wp-json\/wp\/v2\/comments?post=8448"}],"version-history":[{"count":0,"href":"https:\/\/www.iweaver.ai\/de\/wp-json\/wp\/v2\/posts\/8448\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.iweaver.ai\/de\/wp-json\/wp\/v2\/media\/8454"}],"wp:attachment":[{"href":"https:\/\/www.iweaver.ai\/de\/wp-json\/wp\/v2\/media?parent=8448"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.iweaver.ai\/de\/wp-json\/wp\/v2\/categories?post=8448"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.iweaver.ai\/de\/wp-json\/wp\/v2\/tags?post=8448"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}