
DeepSeek-V3.2-Exp ها llegado كتكرار تجريبي يركز على الكفاءة على نطاق واسع وفي سياقات طويلة، مع إشارة واضحة إلى المجتمع: المصدر المفتوح، والنوى المنشورة، وواجهة برمجة التطبيقات الأرخص.
وبعيدًا عن الضوضاء، فإن المفتاح هو أن هذا النموذج، استنادًا إلى V3.1-Terminusأطلقت الشركة آليةً دقيقةً للانتباه المتناثر تُسمى DeepSeek Sparse Attention (DSA)، والتي تُسرّع التدريب والاستدلال مع الحفاظ على الجودة. وقد أطلقتها الشركة بالفعل في التطبيق والويب وواجهة برمجة التطبيقات، وخفضت أسعار الاستخدام بأكثر من 50%، وهي خطوة عدوانية من شأنها، بصراحة، الضغط على المنافسة.
الميزات الجديدة الرئيسية لبرنامج DeepSeek-V3.2-Exp
الابتكار النجمي هو DSA، الذي يسمح الاهتمام الانتقائي على الأجزاء ذات الصلة من السياق دون الخوض في التسلسل بأكمله. ووفقًا للشركة نفسها، فإن التأثير على الجودة ضئيل جدًا، بينما زيادة الكفاءة في السياق الطويل، يكون الأمر ملموسًا.
في حالة التوفر، يكون النموذج جاهزًا للتشغيل التطبيق والويب وواجهة برمجة التطبيقات منذ اليوم الأول، مصحوبًا بانخفاض كبير في الأسعار (أكثر من ٥٠٪) لتسهيل الاختبار والاعتماد. لمن يرغب في المقارنة، تحتفظ DeepSeek بـ نقطة نهاية مؤقتة من V3.1-Terminus حتى 15 أكتوبر 2025 الساعة 15:59 بالتوقيت العالمي المنسق.
أداء ومعايير DeepSeek-V3.2-Exp: التكافؤ مع V3.1-Terminus
لقد بحث DeepSeek عن التكافؤ مع الإصدار 3.1-Terminus في مجموعة واسعة من الاختبارات، وذلك تحديدًا لعزل تأثير تشتت الانتباه. عمليًا، يُنتج هذا مقاييس قابلة للمقارنة في الاستدلال. Coding واستخدام أدوات من نوع الوكيل.
توفر المصادر المختلفة أرقامًا تساعد في تحديد التوقعات: يتم وصف V3.2-Exp بأنه نموذج ذو 685 مليار معلمة وأداء مماثل أو مع اختلافات طفيفة حسب المجال. في الاستدلال بدون أدوات، تُستشهد بأرقام مثل 85.0. MMLU-Pro و 89.3 في AIME 2025؛ في سيناريوهات الوكيل، تظهر 40.1 في تصفح و 67.8 في تم التحقق من SWEوهذه النتائج تتوافق مع الرواية الرسمية التحقق من صحة الكفاءة بدلاً من السعي لتحقيق قفزة كبيرة في الدقة.
هناك أيضًا مقارنات جيدة: في مهام الترميز، هناك ارتفاع في 2121 في Codeforces مقارنة بعام 2046، بينما في الاختبارات الأكثر إنسانية يتم ملاحظة انخفاضات طفيفة (على سبيل المثال، 19.8 بالمقارنة مع 21.7 في آخر اختبار للبشرية). بشكل عام، يشير الجدول إلى تحقيق التوازن:تحسينات محددة وتنازلات صغيرة، مع التركيز بشكل رئيسي على السرعة.
DSA: اهتمام متفرق ودقيق، يتم سرده بوضوح
تصبح الرعاية الكلاسيكية مكلفة في ظل السياقات الواسعة؛ DSA يُقلل العمل حيث لا يُساهم إلا قليلاً. بتطبيق التباعد مع التحكم الدقيق، يُركز النموذج الحوسبة حيث يجد الإشارة بالفعل، مما يُحسّن كمون وتخفيض الاستهلاك دون تشويه الإنتاج.
وعلى مستوى الخبرة الحقيقية، يمكن ملاحظة ذلك في المهام التي تتطلب الكثير من السياق: ملخصات مستندات طويلة، وتحليلات سجلات، ووكلاء يجرون حوارات طويلة، أو خطوط أنابيب تجمع بين الاسترجاع والتوليد. هنا، كفاءة إنها ليست ترفا: بل هو الفرق بين أن يكون شيء ما قابلا للاستخدام على نطاق واسع أم لا.
توفر DeepSeek-V3.2-Exp والأسعار والمقارنات
أعلنت شركة DeepSeek أن الإصدار V3.2-Exp متاح الآن على التطبيق والويب وواجهة برمجة التطبيقاتبالإضافة إلى ذلك، فقد خفضت سعر واجهة برمجة التطبيقات (API) بأكثر من 50% اعتبارًا من الآن، سيتم اتخاذ قرار يهدف إلى توسيع نطاق التبني وتشجيعه الاختبارات المقارنة.
بالنسبة لأولئك الذين يريدون المقارنة مع النموذج السابق، يتم الاحتفاظ بـ V3.1-Terminus في نقطة النهاية مؤقتًا حتى ١٥ أكتوبر ٢٠٢٥ الساعة ١٥:٥٩ (بتوقيت غرينتش). كما تدعو الشركة إلى تقديم طلبات ردود الفعل من خلال نموذج عام، مما يعزز ديناميكية التحسين المستمر مع المجتمع.
حالة المصدر المفتوح: الأوزان والتقرير الفني والنوى
تنشر DeepSeek النموذج في Hugging Face، إلى جانب تقرير تقني يوثّق التغييرات والنتائج. هناك التزام واضح بالشفافية وتعزيز البحث التطبيقي طويل الأمد مع انخفاض التكاليف.
على مستوى النواة، هناك طريقتان: TileLang لـ القراءة والنمذجة أكثر سهولة في الوصول، وCUDA لتحقيق أقصى أداء. نوى فهرس Logit (بما في ذلك المتغيرات المقسمة إلى صفحات) موجودة في ديب جيمفي حين يتم نشر تلك التي لها اهتمام متفرق في فلاشMLAويجعل هذا الفصل من الأسهل على المجتمعات الموجهة نحو البحث والإنتاج العثور على ما يناسبها.
التنفيذ المحلي لـ DeepSeek-V3.2-Exp والعروض التوضيحية للاستدلال
يقدم DeepSeek مستودعًا لـ الاستدلال مع نسخة تجريبية مُحدثة للبدء السريع وفحص البنية. الخطوة الأولى هي تحويل أوزان Hugging Face إلى التنسيق المتوقع في النسخة التجريبية، وتحديد عدد الخبراء وتوازي النموذج.
أوامر نموذجية للتحويل التفاعلي والتوليد (اضبط EXPERTS=256 وMP على عدد وحدات معالجة الرسومات): يمكن استخدامها كما هي في بيئة مُجهزة.
استدلال القرص المضغوط تصدير الخبراء = 256 بايثون convert.py --hf-ckpt-path ${HF_CKPT_PATH} --save-path ${SAVE_PATH} --n-experts ${EXPERTS} --model-parallel ${MP} تصدير CONFIG = config_671B_v3.2.json torchrun --nproc-per-node ${MP} generate.py --ckpt-path ${SAVE_PATH} --config ${CONFIG} --interactive
بالنسبة لأولئك الذين يفضلون SGLangتتوفر صور مُجهزة وأمر تمهيد. يغطي الدعم وحدات معالجة الرسومات NVIDIA (H200) وAMD (MI350) وبعض وحدات المعالجة العصبية (NPU)، بعلامات محددة.
# H200 docker pull lmsysorg/sglang:dsv32 # MI350 docker pull lmsysorg/sglang:dsv32-rocm # NPUs docker pull lmsysorg/sglang:dsv32-a2 docker pull lmsysorg/sglang:dsv32-a3 python -m sglang.launch_server --model deepseek-ai/DeepSeek-V3.2-Exp --tp 8 --dp 8 --page-size 64
إذا كنت تفضل ذلك vLLM، يحظى بالدعم منذ اليوم الأول. يُنصح بمراجعة الوصفات الرسمية للاطلاع على أحدث المعايير و تحسينات بواسطة الأجهزة.
واجهة برمجة التطبيقات (API): نقاط النهاية والتوافق وانتهاء الصلاحية
واجهة برمجة تطبيقات ديب سيك يتبع المعايير القياسية ويتوافق مع حزم تطوير البرامج الشائعة. افتراضيًا، باستخدام عنوان URL الأساسي https://api.deepseek.com أنت تستهدف الإصدار V3.2-Exp، الذي يبسط التكامل الأولي والوصول إلى نسبة مخفضة.
لأغراض المقارنة، هناك نقطة نهاية مؤقتة لـ V3.1-Terminus: https://api.deepseek.com/v3.1_terminus_expires_on_20251015. ضع في اعتبارك تاريخ انتهاء الصلاحية والوقت (15 أكتوبر 2025، الساعة 15:59 بالتوقيت العالمي المنسق) للتخطيط المعايير.
بالإضافة إلى ذلك، هناك توافق مع النظام البيئي لـ أنثروبي.يمكنك استخدام القاعدة https://api.deepseek.com/anthropic للتفاعلات على غرار كلود، أو المتغير المرتبط بنقطة النهاية المؤقتة إذا كنت بحاجة إلى المقارنة مع النموذج السابق.
المصادقة وإدارة المفاتيح
يتم التحقق من صحة الطلبات بواسطة حامل في رأس التفويض. أنشئ مفتاحك من لوحة معلومات DeepSeek وخزّنه بأمان، على سبيل المثال، في متغيرات البيئة أو مديري الملفات. سر كمدير أسرار AWS.
تُظهر اللوحة الاستخدام والفاتورة للتحكم في الاستهلاك رموزعلى الرغم من انخفاض الأسعار، فمن المستحسن تطبيق الحد من السرعة والتدوير الدوري للمفاتيح على أجهزة الكمبيوتر، بالإضافة إلى إلغاء أي مفتاح مخترق بدون تأخير.
إكمالات الدردشة والقوالب والطلبات الأساسية
نقطة النهاية المركزية هي /الدردشة/الإكمالات، الذي يعالج الحوارات متعددة الأدوار ويحافظ على السياق بين المكالمات، وهو سيناريو مثالي لمزايا السياق الطويل في الإصدار 3.2-Exp. هناك وضعان نموذجيان: دردشة عميقة y الباحث العميق.
قد يبدو نص الطلب البسيط على هذا النحو، باستخدام JSON المهرب (يتم تمثيله هنا كـ "للتوضيح): يتضمن موجه النظام وموجه المستخدم.
{ "model": "deepseek-chat", "messages": [ { "role": "system", "content": "أنت خبير تقني." }, { "role": "user", "content": "اشرح سبب قلة الاهتمام." } ], "stream": false }
عندما تريد الحصول على إجابات في الوقت الفعلي، قم بتفعيل تيار=صحيحيجب أن تتضمن الرؤوس نوع المحتوى: application/json ورمز التفويض: Bearer ${DEEPSEEK_API_KEY}. إذا كنت تعمل باستخدام المنطق الصريح، يمكنك التحكم في السلوك باستخدام العلامة تم تمكين المنطق.
هيكل الاستجابة وتدفق SSE
تتضمن الاستجابات غير المتدفقة حقولاً مثل idالكائن، المُنشأ، النموذج، الخيارات، والاستخدام. في الخيارات، ستجد المحتوى المُولّد (الدور: "مساعد")، وفي الاستخدام، تفاصيل رموز المطالبة، وcompletion_tokens وtotal_tokens.
في وضع البث، ترسل واجهة برمجة التطبيقات الأحداث المرسلة من الخادمتصل كل قطعة كحدث بيانات بدلتا يجب عليك تجميعها. هذا هو الخيار الأمثل لـ واجهات تفاعلية أو محطات ذات مخرجات متزايدة.
استدعاء الوظيفة وإخراجها بتنسيق JSON صارم
يمكنك تحديد أدوات لذا، يُحدد النموذج متى يُستدعى دالة، على سبيل المثال، لاسترجاع البيانات أو تنفيذ الإجراءات. وهذا يتوافق تمامًا مع تدفقات الوكلاء وعمليات التكامل. الخلفية.
إذا كنت بحاجة إلى مخرجات منظمة، فاستخدم وضع JSON باستخدام response_format. هذا مفيد لاستخراج البيانات أو التحقق من صحة أوتوماتيكية في خطوط الأنابيب.
أمثلة Python مع SDK على غرار OpenAI
مع بايثون، منحنى الإدخال سلس للغاية. اضبط قاعدة API مثل DeepSeek، قم بتحديد المفتاح وطلبات الإطلاق؛ ويمكنك التبديل بين الوضع القياسي ووضع البث حسب حالة الاستخدام الخاصة بك.
استيراد openai openai.api_base = "https://api.deepseek.com" openai.api_key = "your_api_key_here" response = openai.ChatCompletion.create( model="deepseek-chat", messages=[ {"role": "system", "content": "أنت مساعد برمجة."}, {"role": "user", "content": "اكتب دالة بايثون لحساب أرقام فيبوناتشي."} ], stream=False ) print(response.choices[0].message.content) # تدفق التدفق = openai.ChatCompletion.create(model="deepseek-chat", messages=[...], stream=True) للقطعة في التدفق: إذا لم تكن chunk.choices[0].delta.content هي None: print(chunk.choices[0].delta.content, end="") # استدعاء الدالة (تعريف الأداة) tools = [ { "type": "function", "function": { "name": "get_weather", "description": "احصل على الطقس الحالي", "parameters": { "type": "object", "properties": { "location": {"type": "string"} }, "required": [ "location" ] } } ]
للحصول على إخراج JSON صارم، قم بتعيين تنسيق الاستجابة a {"type": "json_object"}. وإذا كنت ستجري حوارات طويلة، فتذكر أن تذهب تضييق السياق لإبقائك ضمن الحدود وتعظيم الكفاءة.
التكامل مع Apidog
Apidog يسرع النمذجة الأولية استدعاء: استيراد المواصفات، وحفظ متغيرات البيئة (مثل المفتاح)، وبناء عمليات POST، والاختبار الفوري. يُسهّل مُحاكي الاستجابة اختبار الحالات القصوى دون أي تكلفة إضافية. رموز.
كما أنه يقوم بإنشاء مقتطفات من التعليمات البرمجية في لغات مختلفة التعابير ويوفر عرضًا زمنيًا لتصحيح أخطاء المصادقة أو المعلمات. نظرًا لأن الإصدار V3.2-Exp يتعامل مع سياقات واسعة، فإن Apidog طريقة رائعة للتجربة مطالبات طويلة وشاهد الأداء.
ممارسات جيدة لتحقيق أقصى استفادة منها
تحديد مطالبات النظام واضح وموجز تُحدد السلوك. في المشكلات المعقدة، يُمكن أن يُساعد أسلوب الاستدلال، بدمجه مع تقنيات هيكلة التفكير المناسبة لحالتك.
إدارة السياق مع الرأس: على الرغم من أن الإصدار 3.2-Exp يسمح بالسياق الطويل (يتم الاستشهاد بحالات تصل إلى 128 كيلوبايت)، إلا أن الإفراط في استخدام التاريخ قد يؤثر سلبًا على الكفاءة. فهو يطبق اقتطاعًا ذكيًا. مخفي للاستعلامات المتكررة والدفعية حيث يكون ذلك منطقيًا.
في مجال الأمان، يقوم بتطهير المدخلات لمنع الحقن الفوري ويسجل التفاعلات التدقيق. اضبط درجة الحرارة وtop_p وفقًا لهدفك: القيم المنخفضة للحتمية، والقيم العالية للإبداع.
إجراء اختبارات A/B بين دردشة عميقة y الباحث العميق لاختيار الوضع الأمثل. وتذكر حد السرعة لتجنب المفاجآت. الفواتير.
مقارنة مع الإصدار V3.1-Terminus
يؤدي تقديم DSA إلى تحسينات في كمون والتي، في بعض السيناريوهات، تصل سرعتها إلى ثلاثة أضعاف دون التضحية بتكافؤ الجودة الشاملة. إنه تطور يركز على العلاقة الطاقة/الكفاءة أكثر من سجلات الدقة.
تعكس الزيادات الصغيرة في الترميز والانخفاضات الطفيفة في مجالات العلوم الإنسانية الضبط الدقيق للنموذج الذي، من حيث التصميم، تجريبيتسمح نقطة النهاية الزمنية V3.1 بإجراء مقارنات مباشرة تظهر مكاسب DSA على المدى الطويل.
النشر المحلي المتقدم
بالنسبة للنشرات الحساسة للخصوصية أو غير المتصلة بالإنترنت، قم بتنزيل بيزو من Hugging Face، واستخدام نصوص التحويل الرسمية هو الحل الأمثل. حدّد عدد الخبراء (مثلًا ٢٥٦) واضبط توازي النموذج بما يتناسب مع احتياجاتك. وحدات معالجة الرسومات.
يتيح العرض التوضيحي الاستدلالي إجراء الاختبار في الوضع التفاعلي، والنوى في TileLang أو سيساعدك CUDA على تحسين الأداء وفقًا للأولويات: سرعة إنشاء النماذج الأولية أو الحد الأقصى للإنتاجية في الانتاج.
النوى المفتوحة والأداء
TileLang يعطي الأولوية الوضوح ومصمم للبحث، مما يتيح لك تطبيق أفكار جديدة بسرعة. إنه مثالي لاستكشاف خيارات الرعاية. مبعثر أو تحسينات الذاكرة.
لاستغلال كل ميلي ثانية، تدخل أنوية CUDA حيز التنفيذ: فهرس logit (مع الإصدارات المقسمة إلى صفحات) موجودة ديب جيمفي حين أن أولئك الذين لديهم اهتمام متفرق يعيشون في فلاشMLAيتيح هذا التقسيم لكل فريق اختيار كومة أفضل ما يمكن فعله دون الحاجة إلى إعادة العمل.
ترخيص DeepSeek-V3.2-Exp، الموعد والاتصال
المستودع و بيزو نُشر النموذج بموجب ترخيص معهد ماساتشوستس للتكنولوجيا. وهذا يفتح الباب أمام الاستخدامات التجارية بمرونة كبيرة، مما يشجع على تبنيه. ابتكار في النظام البيئي.
للإشارة إلى V3.2-Exp في الوظائف، يوفر DeepSeek إدخال الموعد من نوع @misc بعنوان «DeepSeek-V3.2-Exp: تعزيز كفاءة السياق الطويل مع DeepSeek Sparse Attention» ومؤلفه «DeepSeek-AI» (عام ٢٠٢٥). للاستفسارات أو المشاكل، يُرجى التواصل عبر البريد الإلكتروني: service@deepseek.com.
المصادر الرسمية والروابط المفيدة حول DeepSeek-V3.2-Exp
إذا كنت تريد تنزيل النموذج، فهو موجود لديك وجه يعانقالكتاب الأبيض موجود على GitHub، إلى جانب تفاصيل التنفيذ و تقييم.
لإجراء اختبارات المقارنة بين V3.2-Exp وV3.1-Terminus، راجع الدليل الرسميوإذا كنت تريد إرسال اقتراحات، لديك قناة ردود الفعل العامة على https://feedback.deepseek.com/dsa.
مع V3.2-Exp، تعطي DeepSeek الأولوية لفكرة بسيطة: الكفاءة دون التضحية بالجودةيمهد DSA الطريق أمام النماذج التي تدعم السياقات الضخمة بتكلفة معقولة، وتوفر واجهة برمجة التطبيقات المبسطة هذه القدرات لمزيد من الفرق، كما أن انفتاح المكدس (الأوزان والنوى والوثائق) يجعل من السهل على المجتمع البحث والمقارنة وإنشاء المنتجات الحقيقية دون احتكاك.