Thumbnail image

تشغيل نموذج DeepSeek في IntelliJ لرفع إنتاجيتك البرمجية

2025-02-22 دقيقتان للقراءة

هل تعلم أنك تقدر تشغل وتستخدم أي نموذج من نماذج الذكاء الاصطناعي داخل IntelliJ؟

شركة JetBrains توفر للمبرمجين مساعدًا ذكيًا (AI Assistant) يعتمد على عدة نماذج سحابية (أسعارها هنا)، ومنها هذه النماذج:

  • GPT-4o
  • o1, o1 Mini, o3 Mini
  • Gemini 1.5 Pro, Gemini 1.5 Flash
  • Claude 3.5 Sonnet, Claude 3.5 Haiku

ولكن إذا كنت تريد تشغيل نموذج غير موجود في القائمة السابقة، نقدر نشغله محليًا بدون الاعتماد على أي خدمات سحابية. في هذه الحالة نريد تشغيل نموذج DeepSeek R1 Distill Qwen-7B داخل IntelliJ للاستفادة منه أثناء البرمجة، من توليد للكود باستخدام التعليمات، توثيق الكود، وشرحه، وغيرها.

لماذا DeepSeek R1 Distill Qwen-7B؟

هنا مقارنة بين أبرز نموذجين في كتابة الأكواد البرمجية:

المعيار DeepSeek R1 (7B) Claude 3.5 Haiku (السحابي)
LiveCodeBench (دقة توليد الأكواد) 65.9 33.8
SWE Verified (مهام تم حلها) 49.2 50.8
معالجة البيانات معالجة محلية بالكامل معالجة سحابية
التكلفة $0 $0.25/مليون رمز

المصدر: deepseek-ai/DeepSeek-R1-Distill-Qwen-7B على Hugging Face

ما المقصود بـ “SWE Verified (مهام تم حلها)"؟
هذا المعيار يقيس قدرة النماذج على حل مهام برمجية واقعية من SWE-bench، وهو اختبار يُقيّم أنظمة الذكاء الاصطناعي في إصلاح مشاكل حقيقية على GitHub لمشاريع مثل Django وscikit-learn. ويعني “تم حلها” أن الكود المكتوب بواسطة النموذج حل المشكلة تمامًا واجتاز جميع الاختبارات.
اطلع على تفاصيل SWE Bench.

يللا نبدأ الخطوات! 🚀

تشغيل DeepSeek محليًا باستخدام LM Studio

لتشغيل نموذج DeepSeek داخل IntelliJ، سنستخدم برنامج بسيط وسهل اسمه LM Studio.

الخطوة 1: تثبيت LM Studio

نحمل ونثبت برنامج LM Studio من الموقع الرسمي.

الخطوة 2: تنزيل نموذج DeepSeek

داخل LM Studio:

  • نختار نموذج DeepSeek R1 Distill Qwen-7B وقبلها يجب التأكد من إمكانيات الجهاز من حيث الذاكرة العشوائية (RAM) وسعة التخزين
  • ننزل النموذج وننتظر حتى يكتمل التنزيل.

الخطوة 3: تحميل النموذج

  • بعد اكتمال التنزيل، سيظهر النموذج في LM Studio.
  • نضغط على “Load Model” لتفعيله.

الخطوة 4: تشغيل الخادم المحلي

  • ننتقل إلى صفحة الـ “Developer” داخل LM Studio.
  • نشغل الخادم المحلي “Start Server”، وننسخ عنوان localhost URL بعد أن يتحدث.

الخطوة 5: ضبط IntelliJ لاستخدام DeepSeek

  • نفتح إعدادات IntelliJ.
  • ننتقل إلى AI Assistant > Local Models.
  • نلصق عنوان localhost URL الذي نسخناه مسبقاً من LM Studio.
  • نختبر الاتصال بالضغط على “Test Connection”.
  • نحفظ الإعدادات.

الخطوة 6: استخدام ميزات الذكاء الاصطناعي في IntelliJ

بعد الإعداد، تستطيع استخدام DeepSeek في:

  • إكمال الكود البرمجي تلقائيًا.
  • تحسين وإعادة هيكلة الكود بمساعدة الذكاء الاصطناعي.
  • اقتراحات ذكية بناءً على سياق الكود.
  • شرح الكود وتوثيقه.

المشاريع المدعومة

يعمل DeepSeek مع جميع أطر العمل المدعومة في IntelliJ، بما في ذلك:

  • Java, Kotlin, Android
  • Python, Go
  • Dart, Flutter والمزيد

ختاماً

لما تشغل DeepSeek محليًا تحصل على ذكاء اصطناعي يساعدك دون تأخير أو قيود سحابية، يللا نصلح أخطاء الكود ونسلم مميزات/خصائص تطبيقاتنا بسرعة!