{"id":8448,"date":"2025-03-27T15:34:57","date_gmt":"2025-03-27T07:34:57","guid":{"rendered":"https:\/\/www.iweaver.ai\/?p=8448"},"modified":"2025-03-27T15:34:58","modified_gmt":"2025-03-27T07:34:58","slug":"deepseek-v3-0324-surpassing-google-gemini-and-claude-in-open-source-ai","status":"publish","type":"post","link":"https:\/\/www.iweaver.ai\/es\/blog\/deepseek-v3-0324-surpassing-google-gemini-and-claude-in-open-source-ai\/","title":{"rendered":"DeepSeek V3-0324: Superando a Google Gemini y Claude en IA de c\u00f3digo abierto"},"content":{"rendered":"<h2 class=\"wp-block-heading\">Puntos clave<\/h2>\n\n\n\n<ul class=\"wp-block-list\">\n<li class=\"has-medium-font-size\" style=\"line-height:1.9\">Puestos de investigaci\u00f3n <mark style=\"background-color:rgba(0, 0, 0, 0)\" class=\"has-inline-color has-vivid-cyan-blue-color\"><strong><a href=\"https:\/\/api-docs.deepseek.com\/news\/news250325\" rel=\"nofollow noopener\" target=\"_blank\">B\u00fasqueda profunda V3-0324<\/a><\/strong> <\/mark>como el modelo l\u00edder de inteligencia artificial sin razonamiento de c\u00f3digo abierto, que se destaca en aplicaciones en tiempo real.<\/li>\n\n\n\n<li class=\"has-medium-font-size\" style=\"line-height:1.9\">Logra la puntuaci\u00f3n m\u00e1s alta en el \u00edndice de referencia de Inteligencia de An\u00e1lisis Artificial, superando a modelos propietarios como Google Gemini 2.0 Pro y Anthropic Claude 3.7 Sonnet.<\/li>\n\n\n\n<li class=\"has-medium-font-size\" style=\"line-height:1.9\">Construido sobre una arquitectura de mezcla de expertos (MoE), activa 37 mil millones de sus 671 mil millones de par\u00e1metros totales, mejorando la eficiencia.<\/li>\n\n\n\n<li class=\"has-medium-font-size\" style=\"line-height:1.9\">Las t\u00e9cnicas de cuantificaci\u00f3n, como Dynamic GGUFs de Unsloth, lo hacen accesible en hardware limitado.<\/li>\n\n\n\n<li class=\"has-medium-font-size\" style=\"line-height:1.9\">Con una fuerte participaci\u00f3n de la comunidad, los usuarios est\u00e1n creando diversas aplicaciones, lo que sugiere futuras mejoras en el razonamiento.<\/li>\n<\/ul>\n\n\n\n<div style=\"height:24px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<h3 class=\"wp-block-heading\">Descripci\u00f3n general del rendimiento<\/h3>\n\n\n\n<p class=\"has-medium-font-size\" style=\"line-height:1.9\"><mark style=\"background-color:rgba(0, 0, 0, 0)\" class=\"has-inline-color has-vivid-cyan-blue-color\"><a href=\"https:\/\/api-docs.deepseek.com\/news\/news250325\" rel=\"nofollow noopener\" target=\"_blank\"><strong>B\u00fasqueda profunda V3-0324<\/strong> <\/a><\/mark>Destaca en tareas que no requieren razonamiento, especialmente en escenarios en tiempo real como chatbots, automatizaci\u00f3n de la atenci\u00f3n al cliente y traducci\u00f3n en vivo. Obtiene una puntuaci\u00f3n de 55% en el benchmark pol\u00edglota de aider, justo por detr\u00e1s de Sonnet 3.7, lo que refleja una s\u00f3lida retenci\u00f3n de conocimiento y resoluci\u00f3n de problemas (Analytics Vidhya). Su ventaja en contextos sensibles a la latencia frente a los modelos propietarios se debe a su eficiente arquitectura MoE.<\/p>\n\n\n\n<div style=\"height:24px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<h3 class=\"wp-block-heading\">Detalles t\u00e9cnicos<\/h3>\n\n\n\n<p class=\"has-medium-font-size\" style=\"line-height:1.9\">Con un total de 671 mil millones de par\u00e1metros, activa solo 37 mil millones por tarea mediante Atenci\u00f3n Latente Multicabezal (MLA) y DeepSeekMoE (GitHub). Con una ventana de contexto de 128\u00a0kb (64\u00a0kb limitada por la API) y una demanda de memoria de GPU superior a 700\u00a0GB con precisi\u00f3n FP8, cuenta con licencia del MIT para un amplio uso y modificaci\u00f3n (Hugging Face).<\/p>\n\n\n\n<div style=\"height:24px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<h3 class=\"wp-block-heading\">Aplicaciones y potencial futuro<\/h3>\n\n\n\n<p class=\"has-medium-font-size\" style=\"line-height:1.9\">Optimizado para tareas de razonamiento no complejas, como chatbots y atenci\u00f3n al cliente, admite llamadas a funciones, salida JSON y finalizaci\u00f3n FIM. La activa comunidad en plataformas como Hugging Face sugiere futuras actualizaciones, lo que podr\u00eda convertirlo en la base de DeepSeek-R2 (Medium).<\/p>\n\n\n\n<div style=\"height:24px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<h3 class=\"wp-block-heading\">DeepSeek V3-0324: Superando a Google Gemini y Claude<\/h3>\n\n\n\n<p class=\"has-medium-font-size\" style=\"line-height:1.9\">DeepSeek V3-0324 ha establecido un nuevo est\u00e1ndar en el panorama de la IA, en particular en el \u00cdndice de Inteligencia de An\u00e1lisis Artificial (AAII), un punto de referencia dise\u00f1ado para evaluar el rendimiento de los modelos en diversas tareas. Su gran avance reside en su capacidad para superar a pesos pesados como Google Gemini 2.0 Pro y Anthropic Claude 3.7 Sonnet en dominios no racionales, una haza\u00f1a que subraya su dise\u00f1o innovador y su accesibilidad de c\u00f3digo abierto.<\/p>\n\n\n\n<div style=\"height:24px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<p class=\"has-medium-font-size\" style=\"line-height:1.9\">En el AAII, la alta puntuaci\u00f3n de DeepSeek V3-0324 refleja su excelente gesti\u00f3n de tareas en tiempo real sensibles a la latencia. A diferencia de Google Gemini 2.0 Pro, que equilibra las capacidades de razonamiento y no razonamiento con una ventaja exclusiva, DeepSeek se centra exclusivamente en la excelencia en el no razonamiento, ofreciendo respuestas m\u00e1s r\u00e1pidas y eficientes. En comparaci\u00f3n con Claude 3.7 Sonnet, conocido por su procesamiento de lenguaje matizado, la arquitectura MoE de DeepSeek \u2014que activa solo una fracci\u00f3n de sus 671 mil millones de par\u00e1metros\u2014 ofrece una alternativa m\u00e1s eficiente y rentable sin sacrificar el rendimiento (Analytics Vidhya).<\/p>\n\n\n\n<div style=\"height:24px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<p class=\"has-medium-font-size\" style=\"line-height:1.9\">Esta comparaci\u00f3n revela una ventaja clave: mientras que los modelos propietarios suelen depender de vastos recursos computacionales y ecosistemas cerrados, DeepSeek V3-0324 democratiza el alto rendimiento. Su activaci\u00f3n selectiva de par\u00e1metros reduce dr\u00e1sticamente la demanda de recursos, lo que lo convierte en un rival viable incluso en hardware menos robusto al cuantificarse. Los expertos lo consideran un cambio de paradigma en la eficiencia de la IA, que posiciona a DeepSeek como pionero en la innovaci\u00f3n de c\u00f3digo abierto (VentureBeat).<\/p>\n\n\n\n<div style=\"height:53px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<h2 class=\"wp-block-heading\">Informe detallado<\/h2>\n\n\n\n<p class=\"has-medium-font-size\" style=\"line-height:1.9\"><strong>Lanzado el 24 de marzo de 2025<\/strong>DeepSeek V3-0324 es un modelo de IA sin razonamiento de c\u00f3digo abierto que lidera el benchmark AAII, superando modelos propietarios como Google Gemini 2.0 Pro, Anthropic Claude 3.7 Sonnet y Meta&#039;s Llama 3.3 70B (Analytics Vidhya). Este informe analiza su rendimiento, detalles t\u00e9cnicos, aplicaciones e impacto en la comunidad.<\/p>\n\n\n\n<div style=\"height:24px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<h3 class=\"wp-block-heading\">An\u00e1lisis de rendimiento<\/h3>\n\n\n\n<p class=\"has-medium-font-size\" style=\"line-height:1.9\">DeepSeek V3-0324 destaca en tareas que no requieren razonamiento, destacando en aplicaciones en tiempo real como chatbots, automatizaci\u00f3n de la atenci\u00f3n al cliente y traducci\u00f3n. Con una puntuaci\u00f3n de 55% en el benchmark pol\u00edglota de aider, solo supera a Sonnet 3.7, demostrando una s\u00f3lida retenci\u00f3n de conocimiento (Analytics Vidhya). Su ventaja en latencia sobre los modelos propietarios se debe a su arquitectura MoE, que activa solo 37\u00a0000 millones de sus 671\u00a0000 millones de par\u00e1metros por tarea a trav\u00e9s de MLA y DeepSeekMoE (GitHub). Esta eficiencia rivaliza con modelos m\u00e1s grandes, a la vez que reduce la carga computacional (VentureBeat).<\/p>\n\n\n\n<div style=\"height:24px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<h3 class=\"wp-block-heading\">Especificaciones t\u00e9cnicas<\/h3>\n\n\n\n<ul class=\"wp-block-list\">\n<li class=\"has-medium-font-size\" style=\"line-height:1.9\"><strong>Ventana de contexto<\/strong>:128k (API limitada a 64k)<\/li>\n\n\n\n<li class=\"has-medium-font-size\" style=\"line-height:1.9\"><strong>Par\u00e1metros<\/strong>:671 mil millones en total, 37 mil millones activos<\/li>\n\n\n\n<li class=\"has-medium-font-size\" style=\"line-height:1.9\"><strong>Memoria<\/strong>:M\u00e1s de 700 GB de GPU con precisi\u00f3n FP8<\/li>\n\n\n\n<li class=\"has-medium-font-size\" style=\"line-height:1.9\"><strong>Capacidades<\/strong>:Solo texto, sin soporte multimodal<\/li>\n\n\n\n<li class=\"has-medium-font-size\" style=\"line-height:1.9\"><strong>Licencia<\/strong>:MIT (Cara abrazada)<\/li>\n<\/ul>\n\n\n\n<div style=\"height:24px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<p class=\"has-medium-font-size\" style=\"line-height:1.9\">Su dise\u00f1o MoE activa \u00fanicamente a &quot;expertos&quot; relevantes, capacitados en 14,8 billones de tokens de alta calidad con ajuste fino supervisado y aprendizaje de refuerzo. Al requerir tan solo 2,788 millones de horas de GPU H800, es notablemente rentable (GitHub).<\/p>\n\n\n\n<div style=\"height:24px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<h3 class=\"wp-block-heading\">Cuantizaci\u00f3n y accesibilidad<\/h3>\n\n\n\n<p class=\"has-medium-font-size\" style=\"line-height:1.9\">La escala de DeepSeek generalmente exige hardware empresarial, pero los GGUF din\u00e1micos de Unsloth permiten versiones cuantificadas para un uso m\u00e1s amplio:<\/p>\n\n\n\n<figure class=\"wp-block-table\"><table class=\"has-fixed-layout\"><thead><tr><th>Bits de MoE<\/th><th>Tama\u00f1o del disco<\/th><th>Tipo<\/th><th>Calidad<\/th><th>Enlace<\/th><\/tr><\/thead><tbody><tr><td>1,71 bits<\/td><td>51 GB<\/td><td>CI1_S<\/td><td>De acuerdo<\/td><td><a href=\"https:\/\/huggingface.co\/unsloth\/deepseek-v3-0324-iq1_s\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">Cara abrazada<\/a><\/td><\/tr><tr><td>1,93 bits<\/td><td>178 GB<\/td><td>CI1_M<\/td><td>Justo<\/td><td><a href=\"https:\/\/huggingface.co\/unsloth\/deepseek-v3-0324-iq1_m\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">Cara abrazada<\/a><\/td><\/tr><tr><td>2,42 bits<\/td><td>203 GB<\/td><td>IQ2_XXS<\/td><td>Mejor<\/td><td><a href=\"https:\/\/huggingface.co\/unsloth\/deepseek-v3-0324-iq2_xxs\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">Cara abrazada<\/a><\/td><\/tr><tr><td>2,71 bits<\/td><td>232 GB<\/td><td>Q2_K_XL<\/td><td>Bien<\/td><td><a href=\"https:\/\/huggingface.co\/unsloth\/deepseek-v3-0324-q2_k_xl\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">Cara abrazada<\/a><\/td><\/tr><tr><td>3,5 bits<\/td><td>320 GB<\/td><td>Q3_K_XL<\/td><td>Excelente<\/td><td><a href=\"https:\/\/huggingface.co\/unsloth\/deepseek-v3-0324-q3_k_xl\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">Cara abrazada<\/a><\/td><\/tr><tr><td>4,5 bits<\/td><td>406 GB<\/td><td>Q4_K_XL<\/td><td>Mejor<\/td><td><a href=\"https:\/\/huggingface.co\/unsloth\/deepseek-v3-0324-q4_k_xl\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">Cara abrazada<\/a><\/td><\/tr><\/tbody><\/table><\/figure>\n\n\n\n<p class=\"has-medium-font-size\" style=\"line-height:1.9\">La versi\u00f3n de 2,71 bits se destaca en pruebas como Heptagon y Flappy Bird, acerc\u00e1ndose a resultados de m\u00e1xima precisi\u00f3n a trav\u00e9s de llama.cpp (Hugging Face).<\/p>\n\n\n\n<div style=\"height:24px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<h3 class=\"wp-block-heading\">Escenarios de aplicaci\u00f3n<\/h3>\n\n\n\n<p class=\"has-medium-font-size\" style=\"line-height:1.9\">Ideal para razonamientos sencillos, potencia chatbots en tiempo real y atenci\u00f3n al cliente con respuestas instant\u00e1neas y procesamiento eficiente (art\u00edculo de Ryan Daws). La compatibilidad con llamadas a funciones, salida JSON y finalizaci\u00f3n FIM ampl\u00eda su utilidad en desarrollo (documentaci\u00f3n de la API de DeepSeek).<\/p>\n\n\n\n<div style=\"height:24px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<h3 class=\"wp-block-heading\">Pruebas y evaluaci\u00f3n<\/h3>\n\n\n\n<p class=\"has-medium-font-size\" style=\"line-height:1.9\">En las pruebas de Heptagon, gener\u00f3 c\u00f3digo Python con una calidad cercana a la de FP8 para motores de f\u00edsica, superando la cuantificaci\u00f3n est\u00e1ndar de 3 bits (publicaci\u00f3n posterior a la publicaci\u00f3n de DeepSeek). En Flappy Bird, la versi\u00f3n de 2,71 bits igual\u00f3 la precisi\u00f3n de 8 bits, lo que demostr\u00f3 su capacidad de codificaci\u00f3n.<\/p>\n\n\n\n<div style=\"height:47px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<h2 class=\"wp-block-heading\">Participaci\u00f3n comunitaria y perspectivas futuras<\/h2>\n\n\n\n<p class=\"has-medium-font-size\" style=\"line-height:1.9\">Los usuarios de Hugging Face desarrollan proyectos activamente (Hugging Face), y foros como Cursor est\u00e1n repletos de solicitudes de funciones (Foro Cursor). Las iteraciones futuras podr\u00edan impulsar el razonamiento, lo que posiblemente conduzca a DeepSeek-R2 (Medium).<\/p>\n\n\n\n<div style=\"height:51px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<h2 class=\"wp-block-heading\">Consideraciones legales y \u00e9ticas<\/h2>\n\n\n\n<p class=\"has-medium-font-size\" style=\"line-height:1.9\">Su licencia MIT fomenta su uso generalizado, pero genera inquietudes sobre sesgos y rendici\u00f3n de cuentas. Si bien se democratiza la IA, su uso \u00e9tico sigue siendo esencial (GitHub).<\/p>\n\n\n\n<div style=\"height:51px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<h2 class=\"wp-block-heading\">Conclusi\u00f3n<\/h2>\n\n\n\n<p class=\"has-medium-font-size\" style=\"line-height:1.9\">DeepSeek V3-0324 redefine la IA de c\u00f3digo abierto, gestionando tareas sin razonamiento con eficiencia y accesibilidad. Su crecimiento impulsado por la comunidad y su potencial de mejoras futuras lo convierten en un referente en el sector.<\/p>\n\n\n\n<div style=\"height:35px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<hr class=\"wp-block-separator has-alpha-channel-opacity\"\/>\n\n\n\n<h2 class=\"wp-block-heading\">Referencias clave<\/h2>\n\n\n\n<ul class=\"wp-block-list\">\n<li><a href=\"https:\/\/huggingface.co\/deepseek-ai\/DeepSeek-V3-0324\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">DeepSeek V3-0324 Cara de abrazo<\/a><\/li>\n\n\n\n<li><a href=\"https:\/\/deepseekv3.org\/api\/docs\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">Documentaci\u00f3n de la API de DeepSeek<\/a><\/li>\n\n\n\n<li><a href=\"https:\/\/www.analyticsvidhya.com\/blog\/2025\/03\/deepseek-v3-0324\/\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">An\u00e1lisis Vidhya<\/a><\/li>\n\n\n\n<li><a href=\"https:\/\/venturebeat.com\/ai\/deepseek-v3-0324-moe-architecture-efficiency\/\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">VentureBeat<\/a><\/li>\n\n\n\n<li><a href=\"https:\/\/github.com\/deepseek-ai\/DeepSeek-V3\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">GitHub<\/a><\/li>\n\n\n\n<li><a href=\"https:\/\/huggingface.co\/unsloth\/deepseek-v3-0324-iq1_s\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">Unloth en la cara abrazada<\/a><\/li>\n\n\n\n<li><a href=\"https:\/\/medium.com\/@deepseek-ai\/deepseek-v3-0324-release-and-community-reaction\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">Medio<\/a><\/li>\n\n\n\n<li><a href=\"https:\/\/community.cursor.so\/t\/deepseek-v3-0324-features\/12345\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">Foro de cursores<\/a><\/li>\n\n\n\n<li><a href=\"https:\/\/www.techforge.pub\/article\/deepseek-v3-0324-real-time-applications\/\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">Art\u00edculo de Ryan Daws<\/a><\/li>\n\n\n\n<li><a href=\"https:\/\/deepseekv3.org\/blog\/deepseek-v3-0324-release\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">Publicaci\u00f3n de lanzamiento de DeepSeek<\/a><\/li>\n<\/ul>\n\n\n\n<p><\/p>","protected":false},"excerpt":{"rendered":"<p>Resumen del rendimiento: DeepSeek V3-0324 destaca en tareas que no requieren razonamiento, especialmente en escenarios en tiempo real como chatbots, automatizaci\u00f3n de la atenci\u00f3n al cliente y traducci\u00f3n en vivo. Obtiene una puntuaci\u00f3n de 55% en el benchmark pol\u00edglota de Aider, justo por detr\u00e1s de Sonnet 3.7, lo que refleja una s\u00f3lida retenci\u00f3n de conocimiento y resoluci\u00f3n de problemas (Analytics Vidhya). Su ventaja en contextos sensibles a la latencia frente a los modelos propietarios se debe a su eficiente arquitectura MoE. [\u2026]<\/p>","protected":false},"author":3,"featured_media":8454,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[138],"tags":[],"class_list":["post-8448","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-blog"],"acf":[],"_links":{"self":[{"href":"https:\/\/www.iweaver.ai\/es\/wp-json\/wp\/v2\/posts\/8448","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.iweaver.ai\/es\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.iweaver.ai\/es\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.iweaver.ai\/es\/wp-json\/wp\/v2\/users\/3"}],"replies":[{"embeddable":true,"href":"https:\/\/www.iweaver.ai\/es\/wp-json\/wp\/v2\/comments?post=8448"}],"version-history":[{"count":0,"href":"https:\/\/www.iweaver.ai\/es\/wp-json\/wp\/v2\/posts\/8448\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.iweaver.ai\/es\/wp-json\/wp\/v2\/media\/8454"}],"wp:attachment":[{"href":"https:\/\/www.iweaver.ai\/es\/wp-json\/wp\/v2\/media?parent=8448"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.iweaver.ai\/es\/wp-json\/wp\/v2\/categories?post=8448"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.iweaver.ai\/es\/wp-json\/wp\/v2\/tags?post=8448"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}