
تشغيل نموذج DeepSeek في IntelliJ لرفع إنتاجيتك البرمجية
هل تعلم أنك تقدر تشغل وتستخدم أي نموذج من نماذج الذكاء الاصطناعي داخل IntelliJ؟
شركة JetBrains توفر للمبرمجين مساعدًا ذكيًا (AI Assistant) يعتمد على عدة نماذج سحابية (أسعارها هنا)، ومنها هذه النماذج:
- GPT-4o
- o1, o1 Mini, o3 Mini
- Gemini 1.5 Pro, Gemini 1.5 Flash
- Claude 3.5 Sonnet, Claude 3.5 Haiku
ولكن إذا كنت تريد تشغيل نموذج غير موجود في القائمة السابقة، نقدر نشغله محليًا بدون الاعتماد على أي خدمات سحابية. في هذه الحالة نريد تشغيل نموذج DeepSeek R1 Distill Qwen-7B داخل IntelliJ للاستفادة منه أثناء البرمجة، من توليد للكود باستخدام التعليمات، توثيق الكود، وشرحه، وغيرها.
لماذا DeepSeek R1 Distill Qwen-7B؟
هنا مقارنة بين أبرز نموذجين في كتابة الأكواد البرمجية:
المعيار | DeepSeek R1 (7B) | Claude 3.5 Haiku (السحابي) |
---|---|---|
LiveCodeBench (دقة توليد الأكواد) | 65.9 | 33.8 |
SWE Verified (مهام تم حلها) | 49.2 | 50.8 |
معالجة البيانات | معالجة محلية بالكامل | معالجة سحابية |
التكلفة | $0 | $0.25/مليون رمز |
المصدر: deepseek-ai/DeepSeek-R1-Distill-Qwen-7B على Hugging Face
ما المقصود بـ “SWE Verified (مهام تم حلها)"؟
هذا المعيار يقيس قدرة النماذج على حل مهام برمجية واقعية من SWE-bench، وهو اختبار يُقيّم أنظمة الذكاء الاصطناعي في إصلاح مشاكل حقيقية على GitHub لمشاريع مثل Django وscikit-learn. ويعني “تم حلها” أن الكود المكتوب بواسطة النموذج حل المشكلة تمامًا واجتاز جميع الاختبارات.
اطلع على تفاصيل SWE Bench.
يللا نبدأ الخطوات! 🚀
تشغيل DeepSeek محليًا باستخدام LM Studio
لتشغيل نموذج DeepSeek داخل IntelliJ، سنستخدم برنامج بسيط وسهل اسمه LM Studio.
الخطوة 1: تثبيت LM Studio
نحمل ونثبت برنامج LM Studio من الموقع الرسمي.
الخطوة 2: تنزيل نموذج DeepSeek
داخل LM Studio:
- نختار نموذج DeepSeek R1 Distill Qwen-7B وقبلها يجب التأكد من إمكانيات الجهاز من حيث الذاكرة العشوائية (RAM) وسعة التخزين
- ننزل النموذج وننتظر حتى يكتمل التنزيل.

الخطوة 3: تحميل النموذج
- بعد اكتمال التنزيل، سيظهر النموذج في LM Studio.
- نضغط على “Load Model” لتفعيله.

الخطوة 4: تشغيل الخادم المحلي
- ننتقل إلى صفحة الـ “Developer” داخل LM Studio.
- نشغل الخادم المحلي “Start Server”، وننسخ عنوان localhost URL بعد أن يتحدث.

الخطوة 5: ضبط IntelliJ لاستخدام DeepSeek
- نفتح إعدادات IntelliJ.
- ننتقل إلى AI Assistant > Local Models.
- نلصق عنوان localhost URL الذي نسخناه مسبقاً من LM Studio.
- نختبر الاتصال بالضغط على “Test Connection”.
- نحفظ الإعدادات.

الخطوة 6: استخدام ميزات الذكاء الاصطناعي في IntelliJ
بعد الإعداد، تستطيع استخدام DeepSeek في:
- إكمال الكود البرمجي تلقائيًا.
- تحسين وإعادة هيكلة الكود بمساعدة الذكاء الاصطناعي.
- اقتراحات ذكية بناءً على سياق الكود.
- شرح الكود وتوثيقه.

المشاريع المدعومة
يعمل DeepSeek مع جميع أطر العمل المدعومة في IntelliJ، بما في ذلك:
- Java, Kotlin, Android
- Python, Go
- Dart, Flutter والمزيد
ختاماً
لما تشغل DeepSeek محليًا تحصل على ذكاء اصطناعي يساعدك دون تأخير أو قيود سحابية، يللا نصلح أخطاء الكود ونسلم مميزات/خصائص تطبيقاتنا بسرعة!