{"id":23333,"date":"2026-02-17T23:20:33","date_gmt":"2026-02-17T15:20:33","guid":{"rendered":"https:\/\/www.iweaver.ai\/?p=23333"},"modified":"2026-02-17T23:20:35","modified_gmt":"2026-02-17T15:20:35","slug":"seedance-2-0-vs-sora-2-veo-3-1-video-generator","status":"publish","type":"post","link":"https:\/\/www.iweaver.ai\/fr\/blog\/seedance-2-0-vs-sora-2-veo-3-1-video-generator\/","title":{"rendered":"Lancement de Seedance 2.0\u00a0: est-ce le meilleur g\u00e9n\u00e9rateur vid\u00e9o IA compar\u00e9 \u00e0 Sora 2 et Veo 3.1\u00a0?"},"content":{"rendered":"<p>Au cours de l&#039;ann\u00e9e \u00e9coul\u00e9e, l&#039;exp\u00e9rience globale avec les outils vid\u00e9o d&#039;IA a \u00e9t\u00e9 mitig\u00e9e. M\u00eame lorsqu&#039;un mod\u00e8le parvient \u00e0 produire un r\u00e9sultat unique impressionnant, le processus de cr\u00e9ation s&#039;av\u00e8re souvent peu fiable\u00a0: il est difficile de reproduire certains mouvements de cam\u00e9ra, la coh\u00e9rence des personnages est instable, les actions ne correspondent pas toujours aux mouvements de cam\u00e9ra, l&#039;image scintille, les sous-titres et les petits textes \u00e0 l&#039;\u00e9cran sont flous, et l&#039;audio peut se d\u00e9synchroniser de la vid\u00e9o.<\/p>\n\n\n\n<p>Je suis attentif \u00e0 <strong>Seedance 2.0<\/strong> car cette version privil\u00e9gie <strong>contr\u00f4le bas\u00e9 sur une r\u00e9f\u00e9rence<\/strong> et <strong>modifiable<\/strong>Plut\u00f4t que de se concentrer uniquement sur des r\u00e9sultats \u00ab plus r\u00e9alistes \u00bb ou \u00ab plus cin\u00e9matographiques \u00bb, il s&#039;agit, du point de vue du produit, d&#039;une mise \u00e0 niveau du syst\u00e8me ax\u00e9e sur le flux de travail, et non d&#039;une simple am\u00e9lioration ponctuelle du mod\u00e8le de base.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Seedance 2.0 est pr\u00e9sent\u00e9 par ByteDance comme un mod\u00e8le de cr\u00e9ation vid\u00e9o bas\u00e9 sur l&#039;IA de nouvelle g\u00e9n\u00e9ration.<\/h2>\n\n\n\n<p>ByteDance a publi\u00e9 <strong>Seedance 2.0<\/strong> \u00e0 la mi-f\u00e9vrier 2026. Dans son <a href=\"https:\/\/seed.bytedance.com\/en\/blog\/official-launch-of-seedance-2-0\" rel=\"nofollow noopener\" target=\"_blank\">description officielle<\/a>Deux points sont mis en \u00e9vidence\u00a0:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Une unifi\u00e9e <strong>architecture de g\u00e9n\u00e9ration audio-vid\u00e9o multimodale<\/strong><\/li>\n\n\n\n<li>Soutien pour <strong>texte, images, audio et vid\u00e9o<\/strong> comme entr\u00e9es, avec <strong>capacit\u00e9s de r\u00e9f\u00e9rence et d&#039;\u00e9dition<\/strong> positionn\u00e9s comme arguments de vente principaux<\/li>\n<\/ul>\n\n\n\n<p>En termes de positionnement, Seedance 2.0 ne se limite pas \u00e0 <strong>texte en vid\u00e9o<\/strong>Il vise \u00e0 effectuer une boucle compl\u00e8te\u00a0: <strong>Importation des ressources \u2192 R\u00e9plication du style\/de la cam\u00e9ra \u2192 G\u00e9n\u00e9ration \u2192 Modifications et extensions locales<\/strong>.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Nouveaut\u00e9s de Seedance 2.0\u00a0: Am\u00e9liorations du noyau<\/h2>\n\n\n\n<h3 class=\"wp-block-heading\">Contr\u00f4le bas\u00e9 sur une r\u00e9f\u00e9rence<\/h3>\n\n\n\n<p>Dans la g\u00e9n\u00e9ration vid\u00e9o par IA traditionnelle, reproduire les mouvements de cam\u00e9ra classiques, le rythme ou les interactions complexes n\u00e9cessite g\u00e9n\u00e9ralement des instructions longues et d\u00e9taill\u00e9es, et les r\u00e9sultats restent incoh\u00e9rents. Le changement cl\u00e9 r\u00e9side dans <strong>Seedance 2.0<\/strong> c&#039;est que cela traite <strong>ressources de r\u00e9f\u00e9rence<\/strong> comme entr\u00e9es de premi\u00e8re classe. En r\u00e9f\u00e9ren\u00e7ant <strong>vid\u00e9o, images et audio<\/strong>, le mod\u00e8le peut mieux contraindre le style de sortie, le langage de la cam\u00e9ra et le rythme \u2014 par exemple, en reproduisant les mouvements et les transitions de la cam\u00e9ra, en faisant correspondre le mouvement de la cam\u00e9ra aux actions des personnages ou en adaptant une bande dessin\u00e9e en une courte s\u00e9quence anim\u00e9e tout en pr\u00e9servant les dialogues.<\/p>\n\n\n\n<p>Cette interaction bas\u00e9e sur des r\u00e9f\u00e9rences r\u00e9duit les aspects de l&#039;intention difficiles \u00e0 exprimer uniquement par des invites textuelles, transf\u00e9rant ainsi le contr\u00f4le des instructions textuelles seules \u00e0 <strong>contraintes v\u00e9rifiables d\u00e9finies par les m\u00e9dias de r\u00e9f\u00e9rence<\/strong>.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Entr\u00e9es de formats multiples (texte + image + audio + vid\u00e9o)<\/h3>\n\n\n\n<p>Seedance 2.0 prend en charge les entr\u00e9es multimodales, ce qui permet plusieurs flux de travail pratiques\u00a0:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Reproduction de plans classiques\/style r\u00e9alisateur\u00a0:<\/strong> Utilisez une vid\u00e9o de r\u00e9f\u00e9rence pour verrouiller les mouvements et le rythme de la cam\u00e9ra.<\/li>\n\n\n\n<li><strong>Coh\u00e9rence des personnages et des sc\u00e8nes :<\/strong> utiliser plusieurs images de personnages pour stabiliser les traits d&#039;identit\u00e9 et le style visuel g\u00e9n\u00e9ral<\/li>\n\n\n\n<li><strong>Alignement audio-vid\u00e9o :<\/strong> utiliser des r\u00e9f\u00e9rences audio pour contraindre la musique, le rythme et la synchronisation labiale\/vocale (une faiblesse courante chez de nombreux g\u00e9n\u00e9rateurs vid\u00e9o IA).<\/li>\n\n\n\n<li><strong>Des bandes dessin\u00e9es statiques \u00e0 l&#039;animation :<\/strong> Utiliser \u00ab des cases de BD comme source de contenu + une vid\u00e9o de r\u00e9f\u00e9rence pour synchroniser le rythme et les transitions du storyboard + des r\u00e8gles textuelles pour d\u00e9finir l&#039;ordre des cases et le d\u00e9coupage des plans + une r\u00e9f\u00e9rence audio optionnelle pour un style musical\/SFX coh\u00e9rent \u00bb pour convertir des images fixes en plans continus.<\/li>\n<\/ul>\n\n\n\n<p><a href=\"https:\/\/www.theverge.com\/ai-artificial-intelligence\/877931\/bytedance-seedance-2-video-generator-ai-launch\" rel=\"nofollow noopener\" target=\"_blank\">The Verge<\/a> a \u00e9galement soulign\u00e9 que <strong>Seedance 2.0 prend en charge le r\u00e9f\u00e9rencement multi-actifs<\/strong>, permettant \u00e0 plusieurs images, plusieurs clips vid\u00e9o et \u00e9chantillons audio de contraindre conjointement le r\u00e9sultat de la g\u00e9n\u00e9ration.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Am\u00e9liorations de la qualit\u00e9\u00a0: meilleure coh\u00e9rence d\u2019utilisation, continuit\u00e9 de la cam\u00e9ra et synchronisation audio<\/h2>\n\n\n\n<p>D\u2019apr\u00e8s les d\u00e9monstrations publiques et les descriptions d\u2019utilisation, Seedance 2.0 semble concentrer ses am\u00e9liorations sur trois domaines\u00a0:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Continuit\u00e9 des plans :<\/strong> moins de coupes brusques inexpliqu\u00e9es et de transitions incontr\u00f4l\u00e9es (surtout pour les plans-s\u00e9quences ou les travellings).<\/li>\n\n\n\n<li><strong>Coh\u00e9rence des caract\u00e8res :<\/strong> Moins de probl\u00e8mes courants tels que le d\u00e9calage du visage lors des mouvements de la t\u00eate, le scintillement des textures et les expressions fig\u00e9es.<\/li>\n\n\n\n<li><strong>Synchronisation audio-vid\u00e9o :<\/strong> Voix off plus stable (moins de d\u00e9rive du canal) et musique de fond mieux adapt\u00e9e au rythme de la sc\u00e8ne<\/li>\n<\/ul>\n\n\n\n<p>Sa page officielle affiche \u00e9galement d&#039;excellents r\u00e9sultats sur un ensemble d&#039;\u00e9valuation interne (SeedVideoBench-2.0). Cependant, s&#039;agissant d&#039;un test de performance interne, il convient de l&#039;interpr\u00e9ter comme une indication plut\u00f4t que comme une conclusion applicable \u00e0 tous les mod\u00e8les et conforme aux normes de l&#039;industrie.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Montage et it\u00e9ration\u00a0: pourquoi c\u2019est plus important pour les flux de travail vid\u00e9o r\u00e9els<\/h2>\n\n\n\n<p>Un probl\u00e8me r\u00e9current avec de nombreux outils vid\u00e9o IA est que, si le r\u00e9sultat n&#039;est pas satisfaisant, il faut souvent tout recommencer. M\u00eame lorsqu&#039;on souhaite seulement modifier l&#039;intrigue, un seul plan ou une seule s\u00e9quence d&#039;action, il est difficile de conserver la stabilit\u00e9 du reste de la vid\u00e9o.<\/p>\n\n\n\n<p>Positions Seedance 2.0 <strong>\u00e9dition<\/strong> comme capacit\u00e9 essentielle. L&#039;objectif est de ne modifier que ce qui doit l&#039;\u00eatre et de conserver le reste inchang\u00e9. Cela fonctionne de concert avec le syst\u00e8me de r\u00e9f\u00e9rences\u00a0: les r\u00e9f\u00e9rences sont utilis\u00e9es non seulement pour la premi\u00e8re g\u00e9n\u00e9ration, mais aussi pour les suivantes. <strong>verrouiller les \u00e9l\u00e9ments inchang\u00e9s lors des r\u00e9visions<\/strong>.<\/p>\n\n\n\n<p>Je consid\u00e8re cela plus important que la simple am\u00e9lioration de la qualit\u00e9 maximale des prises individuelles, car cela correspond mieux aux flux de travail de production r\u00e9els\u00a0: perfectionnement it\u00e9ratif, r\u00e9visions locales et pr\u00e9servation des ressources de prises existantes.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Seedance 2.0 vs Sora 2 vs Google Veo 3.1<\/h2>\n\n\n\n<p>La g\u00e9n\u00e9ration vid\u00e9o par IA ne dispose pas encore d&#039;un r\u00e9f\u00e9rentiel unifi\u00e9, faisant autorit\u00e9 et inter-fournisseurs comparable \u00e0 celui existant pour le traitement automatique du langage naturel (TALN). La plupart des affirmations du type \u00ab\u00a0le mod\u00e8le X est meilleur\u00a0\u00bb proviennent de tests internes des fournisseurs ou de comparaisons tierces non standardis\u00e9es. La comparaison ci-dessous s&#039;appuie principalement sur la documentation officielle et une couverture m\u00e9diatique reconnue, en se concentrant sur les fonctionnalit\u00e9s clairement identifiables.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Priorit\u00e9s de performance\u00a0: chaque mod\u00e8le est optimis\u00e9 pour des crit\u00e8res diff\u00e9rents.<\/h3>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong><a href=\"https:\/\/dreamina.capcut.com\/tools\/seedance-2-0\" rel=\"nofollow noopener\" target=\"_blank\">Seedance 2.0<\/a><\/strong><strong>:<\/strong> Contr\u00f4labilit\u00e9 par r\u00e9f\u00e9rence + entr\u00e9es multimodales (y compris des r\u00e9f\u00e9rences audio) + montage. Le positionnement officiel est ax\u00e9 sur \u00ab la r\u00e9f\u00e9rence et le montage \u00bb, mettant l&#039;accent sur l&#039;utilisation de r\u00e9f\u00e9rences image\/audio\/vid\u00e9o pour influencer la performance, l&#039;\u00e9clairage et les mouvements de la cam\u00e9ra.<\/li>\n\n\n\n<li><strong><a href=\"https:\/\/sora2.com\/\" rel=\"nofollow noopener\" target=\"_blank\">Sora 2<\/a><\/strong><strong>:<\/strong> Sora 2 d&#039;OpenAI met davantage l&#039;accent sur la coh\u00e9rence physique et la \u00ab\u00a0simulation du monde\u00a0\u00bb, ainsi que sur un flux de travail de cr\u00e9ation c\u00f4t\u00e9 produit plus complet (Storyboard \/ Extension \/ Stitch). Le positionnement de Sora 2 repose sur un r\u00e9alisme et une ma\u00eetrise accrus, avec des dialogues et des effets sonores synchronis\u00e9s. Les notes de version de Sora mettent en avant Storyboard, les Extensions (Extend) et Stitch pour les vid\u00e9os plus longues et la structuration par segments.<\/li>\n\n\n\n<li><strong><a href=\"https:\/\/aistudio.google.com\/models\/veo-3\" rel=\"nofollow noopener\" target=\"_blank\">Google Veo 3.1<\/a><\/strong><strong>:<\/strong> Des sp\u00e9cifications techniques claires et une sortie audio native, orient\u00e9es vers des clips courts haute fid\u00e9lit\u00e9 et une int\u00e9gration programmable\u00a0: la documentation de l\u2019API Gemini de Google indique que Veo 3.1 g\u00e9n\u00e8re des vid\u00e9os de 8 secondes, prend en charge les r\u00e9solutions 720p\/1080p\/4K et inclut la g\u00e9n\u00e9ration audio native. La documentation de Vertex AI ajoute des dur\u00e9es optionnelles de 4, 6 et 8 secondes (la conversion image-vid\u00e9o \u00e9tant limit\u00e9e \u00e0 8 secondes).<\/li>\n<\/ul>\n\n\n\n<h3 class=\"wp-block-heading\">Adaptation pratique aux flux de travail\u00a0: diff\u00e9rents mod\u00e8les conviennent \u00e0 diff\u00e9rents styles de production<\/h3>\n\n\n\n<p>Je compare des flux de travail r\u00e9els en utilisant la m\u00eame structure\u00a0: <strong>Ressources d&#039;entr\u00e9e \u2192 m\u00e9thode de contr\u00f4le \u2192 contraintes de dur\u00e9e\/sp\u00e9cifications \u2192 flux de travail it\u00e9ratif<\/strong>, puis s\u00e9lectionnez le mod\u00e8le le mieux adapt\u00e9 \u00e0 la t\u00e2che.<\/p>\n\n\n\n<figure class=\"wp-block-table\"><table class=\"has-fixed-layout\"><tbody><tr><td><strong>Mod\u00e8le<\/strong><\/td><td><a href=\"https:\/\/seed.bytedance.com\/en\/blog\/official-launch-of-seedance-2-0\" rel=\"nofollow noopener\" target=\"_blank\"><strong>Seedance 2.0<\/strong><\/a><\/td><td><a href=\"https:\/\/developers.openai.com\/api\/docs\/models\/sora-2\" rel=\"nofollow noopener\" target=\"_blank\"><strong>Sora 2<\/strong><\/a><\/td><td><a href=\"https:\/\/ai.google.dev\/gemini-api\/docs\/video\" rel=\"nofollow noopener\" target=\"_blank\"><strong>Google Veo 3.1<\/strong><\/a><\/td><\/tr><tr><td><strong>Modalit\u00e9s d&#039;entr\u00e9e<\/strong><\/td><td>Texte + Image + Vid\u00e9o + Audio (Quad-modal)<\/td><td>Texte + Image (prise en charge de la g\u00e9n\u00e9ration vid\u00e9o suivie du remix)<\/td><td>Texte\/Image \u2192 G\u00e9n\u00e9ration vid\u00e9o Veo 3.1 (audio natif inclus)<\/td><\/tr><tr><td><strong>M\u00e9thodes de contr\u00f4le cl\u00e9s<\/strong><\/td><td>R\u00e9f\u00e9rence multi-mat\u00e9riaux (r\u00e9plication des mouvements\/actions\/rythmes de la cam\u00e9ra) + Montage it\u00e9ratif<\/td><td>Storyboard + Remix + Stitch<\/td><td>Param\u00e9trage de l&#039;API (version, sp\u00e9cifications, dur\u00e9e, etc.) + Orchestration des produits Gemini\/Flow<\/td><\/tr><tr><td><strong>Dur\u00e9e (Sp\u00e9cifications publiques)<\/strong><\/td><td>Les d\u00e9monstrations courantes durent de 4 \u00e0 15 secondes (d&#039;apr\u00e8s les rapports publics et les tutoriels).<\/td><td>Version longue : 15 secondes ; Version professionnelle : jusqu&#039;\u00e0 25 secondes (web + storyboard)<\/td><td>Veo 3.1 g\u00e9n\u00e9ralement 8 secondes (documentation API officielle)<\/td><\/tr><tr><td><strong>T\u00e2ches les mieux adapt\u00e9es<\/strong><\/td><td>\u00ab\u00a0Suivre la r\u00e9f\u00e9rence\u00a0\u00bb et montage it\u00e9ratif, synchronisation labiale\/alignement rythmique, r\u00e9plication de mod\u00e8le<\/td><td>T\u00e2ches exigeant un r\u00e9alisme physique marqu\u00e9, des plans fixes plus longs, une narration bas\u00e9e sur un storyboard<\/td><td>G\u00e9n\u00e9ration vid\u00e9o n\u00e9cessitant des API standardis\u00e9es, une int\u00e9gration technique et des sp\u00e9cifications contr\u00f4lables<\/td><\/tr><\/tbody><\/table><\/figure>\n\n\n\n<p><strong>Mes recommandations :<\/strong><\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Rapide<\/strong><strong> it\u00e9ration ou modifications cibl\u00e9es des d\u00e9tails\u00a0:<\/strong> Seedance 2.0 correspond mieux \u00e0 cet objectif, car il met l&#039;accent sur les r\u00e9f\u00e9rences multimodales (image\/audio\/vid\u00e9o) et l&#039;\u00e9dition.<\/li>\n\n\n\n<li><strong>Extension narrative plus longue, bas\u00e9e sur un storyboard et un segment\u00a0:<\/strong> Sora 2 est g\u00e9n\u00e9ralement plus adapt\u00e9 gr\u00e2ce \u00e0 Storyboard \/ Extend \/ Stitch.<\/li>\n\n\n\n<li><strong>Int\u00e9gration technique, sp\u00e9cifications fixes et r\u00e9sultats stables\u00a0:<\/strong> Google Veo 3.1 convient parfaitement car ses contraintes API\/Vertex sont clairement d\u00e9finies et plus faciles \u00e0 standardiser dans un pipeline de production.<\/li>\n<\/ul>\n\n\n\n<p>Mon point de vue <strong>Seedance 2.0<\/strong> c&#039;est que la conception de ses produits est davantage en phase avec les v\u00e9ritables flux de travail cr\u00e9atifs, et ce, de deux mani\u00e8res\u00a0: <strong>g\u00e9n\u00e9ration contr\u00f4lable pilot\u00e9e par r\u00e9f\u00e9rence<\/strong> et <strong>it\u00e9ration modifiable<\/strong>Cela augmente ses chances d&#039;atteindre un statut \u00ab utilisable \u00bb par rapport aux syst\u00e8mes qui n&#039;optimisent que la qualit\u00e9 en prise de vue unique.<\/p>\n\n\n\n<p>Dans le m\u00eame temps, apr\u00e8s le lancement de Seedance 2.0, les pr\u00e9occupations relatives aux risques li\u00e9s au droit d&#039;auteur et \u00e0 l&#039;image se sont intensifi\u00e9es. Pour les entreprises et les cr\u00e9ateurs professionnels, le principal d\u00e9fi ne r\u00e9side pas seulement dans la capacit\u00e9 du mod\u00e8le, mais aussi dans la question de savoir si\u2026 <strong>r\u00e9sultats de production livrables<\/strong> et <strong>utilisation conforme<\/strong> peuvent \u00eatre r\u00e9alis\u00e9s simultan\u00e9ment.<\/p>","protected":false},"excerpt":{"rendered":"<p>Au cours de l&#039;ann\u00e9e \u00e9coul\u00e9e, l&#039;exp\u00e9rience globale avec les outils vid\u00e9o d&#039;IA a \u00e9t\u00e9 mitig\u00e9e. M\u00eame lorsqu&#039;un mod\u00e8le parvient \u00e0 produire un r\u00e9sultat unique impressionnant, le processus de cr\u00e9ation s&#039;av\u00e8re souvent peu fiable\u00a0: il est difficile de reproduire certains mouvements de cam\u00e9ra, la coh\u00e9rence des personnages est instable, les actions ne correspondent pas toujours aux mouvements de cam\u00e9ra, l&#039;image scintille, les sous-titres et les petits textes \u00e0 l&#039;\u00e9cran sont flous, [\u2026]<\/p>","protected":false},"author":29,"featured_media":23334,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[138],"tags":[],"class_list":["post-23333","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-blog"],"acf":[],"_links":{"self":[{"href":"https:\/\/www.iweaver.ai\/fr\/wp-json\/wp\/v2\/posts\/23333","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.iweaver.ai\/fr\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.iweaver.ai\/fr\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.iweaver.ai\/fr\/wp-json\/wp\/v2\/users\/29"}],"replies":[{"embeddable":true,"href":"https:\/\/www.iweaver.ai\/fr\/wp-json\/wp\/v2\/comments?post=23333"}],"version-history":[{"count":2,"href":"https:\/\/www.iweaver.ai\/fr\/wp-json\/wp\/v2\/posts\/23333\/revisions"}],"predecessor-version":[{"id":23336,"href":"https:\/\/www.iweaver.ai\/fr\/wp-json\/wp\/v2\/posts\/23333\/revisions\/23336"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.iweaver.ai\/fr\/wp-json\/wp\/v2\/media\/23334"}],"wp:attachment":[{"href":"https:\/\/www.iweaver.ai\/fr\/wp-json\/wp\/v2\/media?parent=23333"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.iweaver.ai\/fr\/wp-json\/wp\/v2\/categories?post=23333"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.iweaver.ai\/fr\/wp-json\/wp\/v2\/tags?post=23333"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}