
Deepseek على Raspberry Pi: إطلاق العنان لإمكانات الذكاء الاصطناعي على جهاز Edge صغير الحجم
يشارك
ديب سيك هو إطار عمل أو برنامج متقدم قائم على الذكاء الاصطناعي، مُصمم لمهام مثل اكتشاف الكائنات، والتعرف على الصور، ومعالجة اللغة الطبيعية (NLP)، أو تطبيقات التعلم الآلي الأخرى. يستخدم نماذج التعلم العميق لتحليل البيانات المعقدة وتفسيرها، مما يجعله أداة فعّالة لمختلف الصناعات ومجالات البحث. غالبًا ما يتم تحسين Deepseek لتحقيق الكفاءة، مما يُمكّنه من العمل على الأجهزة محدودة الموارد مثل Raspberry Pi.
نظرة عامة على نماذج الذكاء الاصطناعي Deepseek
نماذج Deepseek AI عبارة عن مجموعة من نماذج التعلم العميق المدربة مسبقًا أو القابلة للتخصيص مُصممة لمعالجة مجموعة متنوعة من المهام في مختلف المجالات. هذه النماذج مُحسّنة لـ الكفاءة والدقة وقابلية التوسع ، مما يجعلها مناسبة للنشر على كل من الأنظمة عالية الأداء والأجهزة ذات الموارد المحدودة مثل راسبيري باي .
✔ DeepSeek V3: يُعتبر نظامًا شاملًا وقويًا لمعالجة اللغات القابلة للتطوير. يتميز بكفاءة عالية، ويتميز في المقام الأول بقدرته على شرح المفاهيم بطريقة مفهومة وبسيطة.
✔ DeepSeek R1: متخصص في التفكير المنطقي لحل المشكلات الأكاديمية. تكمن أبرز نقاط قوته في مهاراته الممتازة في حل المشكلات، والتفكير الرياضي، والتحليل المنطقي. وهو مناسب بشكل خاص للموارد التعليمية، وأغراض البحث، والتفكير بمساعدة الذكاء الاصطناعي.
حالات الاستخدام المحتملة لتشغيل Deepseek على Raspberry Pi
• أنظمة المراقبة:
• مراقبة وتتبع الأشياء أو الأشخاص في الوقت الفعلي.
o أنظمة كشف التسلل والتنبيه.
• الروبوتات:
o التعرف على الكائنات للملاحة المستقلة.
o عمليات الالتقاط والوضع في الروبوتات الصناعية.
• أجهزة المنزل الذكي:
o التعرف على الإيماءات للأجهزة الذكية.
o أنظمة مراقبة الحيوانات الأليفة أو الأطفال.
• إدارة التجزئة والمخزون:
o التعرف على المنتج وتتبعه على الرفوف.
o أنظمة الدفع الآلي.
• التعليم والنماذج الأولية:
o تدريس مفاهيم الذكاء الاصطناعي والرؤية الحاسوبية.
o بناء مشاريع إثبات المفهوم.
التحديات والقيود
أداء وحدة المعالجة المركزية: تتمتع نماذج Raspberry Pi، حتى أحدثها مثل Raspberry Pi 4 أو 5، بقوة حسابية منخفضة نسبيًا مقارنة بوحدات المعالجة المركزية المكتبية الحديثة.
تتطلب نماذج التعلم العميق، وخاصة الكبيرة منها، قوة معالجة كبيرة لكل من التدريب والاستدلال.
عدم وجود تسريع وحدة معالجة الرسوميات: لا تحتوي معظم طُرز Raspberry Pi على وحدة معالجة رسوميات (GPU) مخصصة، كما أن وحدة معالجة الرسوميات المدمجة ليست قوية بما يكفي لتسريع مهام التعلم العميق بفعالية. هذا يحد من إمكانية تشغيل النماذج المعقدة بكفاءة.
حدود ذاكرة الوصول العشوائي (RAM): عادةً ما تكون ذاكرة الوصول العشوائي (RAM) في أجهزة Raspberry Pi محدودة (من 1 جيجابايت إلى 16 جيجابايت في أحدث الطُرز). قد تستنفد نماذج التعلم العميق، وخاصةً تلك التي تحتوي على مجموعات بيانات ضخمة أو هياكل معقدة، الذاكرة المتاحة بسرعة، مما يؤدي إلى اختناقات في الأداء أو أعطال.
في حين أنه من الممكن تشغيل مهام التعلم العميق على Raspberry Pi، يقتصر عادةً على النماذج البسيطة ومهام الاستدلال. أما بالنسبة للتطبيقات الأكثر تعقيدًا أو التي تتطلب موارد كثيفة، فغالبًا ما يلزم استخدام أجهزة أقوى أو نقل العمليات الحسابية إلى خوادم خارجية أو خدمات سحابية. إن تحسين النماذج والاستفادة من التقنيات مثل تقليم النماذج والقياس الكمي وممارسات الترميز الفعالة يمكن أن يساعد في التخفيف من بعض هذه التحديات، ولكن القيود المتأصلة في أجهزة Raspberry Pi ستظل دائمًا عاملاً.
المتطلبات الأساسية
متطلبات الأجهزة
تثبيت Deepseek على Raspberry Pi 5 8GB
تشغيل نموذج الذكاء الاصطناعي خفيف الوزن محليًا
أولاما إطار عمل مفتوح المصدر يتيح للمستخدمين تشغيل نماذج لغات كبيرة (LLMs) محليًا على أجهزتهم. يُبسّط هذا الإطار عملية تنزيل نماذج الذكاء الاصطناعي وتشغيلها والتفاعل معها دون الحاجة إلى خدمات سحابية.
يوفر Ollama وقت تشغيل L LM فعال، ويدعم النماذج الكمية لتقليل استخدام الذاكرة وتحسين الأداء على الأجهزة ذات المواصفات المنخفضة.
1. تثبيت Ollama
حاول تشغيل البرنامج النصي الرسمي لتثبيت Ollama:
curl -fsSL https://ollama.com/install.sh | sh
2. بمجرد تثبيت Ollama، قم بتنزيل طراز DeepSeek المتوافق:
سحب ollama deepseek-r1:1.5b
يقوم هذا الأمر بجلب إصدار 1.5 مليار معلمة من DeepSeek-R1، والذي يتطلب ما يقرب من 1.8 جيجابايت من مساحة التخزين.
3. تشغيل النموذج
بعد التنزيل، يمكنك بدء جلسة تفاعلية:
تشغيل ollama deepseek-r1:1.5b
ONNX و TensorFlow Lite: تشغيل DeepSeek على Raspberry Pi
نظرًا لأن نماذج DeepSeek كبيرة ومكلفة حسابيًا، فإن الأطر مثل ONNX Runtime وTensorFlow Lite (TFLite) تساعد في تحسين الاستدلال للأجهزة منخفضة الطاقة مثل Raspberry Pi.
ONNX (تبادل الشبكات العصبية المفتوحة) هو تنسيق مفتوح المصدر لنماذج الذكاء الاصطناعي. يسمح للنماذج المُدرَّبة على PyTorch وTensorFlow وأطر عمل أخرى بالعمل بكفاءة عبر منصات مختلفة.
يعد ONNX الخيار الأفضل لتشغيل DeepSeek على Raspberry Pi نظرًا لتنفيذه خفيف الوزن ودعم ARM.
TensorFlow Lite (TFLite) هو إصدار خفيف الوزن من TensorFlow مُحسّن للأجهزة المحمولة والمدمجة مثل Raspberry Pi.
يستخدم التكميم لتقليل حجم النموذج وتحسين سرعة التنفيذ على الأجهزة ذات الطاقة المنخفضة.
يعد TFLite مثاليًا لتطبيقات الذكاء الاصطناعي الحافة ولكنه يتطلب تحويل النماذج إلى تنسيق TFLite قبل التشغيل.
مثال: استخدام ONNX لتشغيل DeepSeek على Raspberry Pi
1. تثبيت وقت تشغيل ONNX
تثبيت pip على nxruntime
2. تحويل نموذج DeepSeek إلى ONNX
إذا كان لديك نموذج DeepSeek المستند إلى PyTorch ، قم بتحويله إلى ONNX:
استيراد الشعلة
استيراد torch.onnx #
تحميل نموذج DeepSeek
النموذج = torch.load("deepseek_model.pth")
نموذج.eval()
# موتر الإدخال الوهمي (تغيير الشكل بناءً على حجم إدخال النموذج)
إدخال وهمي = torch.randn(1، 3، 224، 224)
# تصدير النموذج إلى ONNX
torch.onnx.export(نموذج، إدخال وهمي، "deepseek_model.onnx"،
export_params=True، opset_version=11، do_constant_folding=True)
3. الخطوة 3: تشغيل DeepSeek ONNX
نموذج على Raspberry Pi
بمجرد التحويل، يمكنك تشغيل الاستدلال باستخدام ONNX Runtime:
استيراد onnxruntime كـ ort
استيراد numpy كـ np
# تحميل نموذج ONNX
جلسة = ort.InferenceSession("deepseek_model.onnx")
# تحضير بيانات الإدخال
بيانات الإدخال = np.random.randn(1، 3، 224، 224).astype(np.float32)
اسم الإدخال = session.get_inputs()[0].name
# تشغيل الاستدلال
الإخراج = session.run(لا شيء، {اسم الإدخال: بيانات الإدخال})
طباعة ("إخراج النموذج:"، الإخراج)
تحسين الأداء
استخدام إصدارات خفيفة الوزن من نماذج Deepseek
يقدم DeepSeek-R1 العديد من النماذج المقطرة ذات المعلمات المخفضة، مما يجعلها أكثر ملاءمة للأجهزة ذات الموارد المحدودة.
الموديلات خفيفة الوزن المتوفرة:
• DeepSeek-R1:1.5B: حوالي 1.5 مليار معلمة.
• DeepSeek-R1:7B: حوالي 7 مليار معلمة.
• DeepSeek-R1:8B: حوالي 8 مليار معلمة.
من اجل Raspberry Pi 5 ، 1.5 مليار يوصى بهذا النموذج بسبب متطلباته المنخفضة للموارد.
تحسين استخدام الذاكرة (تمكين تبديل الذاكرة)
زيادة سعة Swap إلى ٢ غيغابايت. هذا يمنع أخطاء نفاد الذاكرة (OOM) عند تشغيل DeepSeek.
sudo dphys-swapfile swapoff
sudo sed -i 's/CONF_SWAPSIZE=.*/CONF_SWAPSIZE=2048/' /etc/dphys-swapfile
إعداد sudo dphys-swapfile
sudo dphys-swapfile swapon
الاستنتاج: أفضل طريقة لتشغيل DeepSeek على Raspberry Pi
✔ نماذج DeepSeek الكاملة (V3، R1) كبيرة جدًا بحيث لا يمكن تشغيلها مباشرة.
✔ استخدم نماذج 1.5B الكمية مع ONNX أو TensorFlow Lite.
✔ استخدم مسرعات الذكاء الاصطناعي الخارجية (Google Coral، Intel NCS2) للاستدلال في الوقت الفعلي.
✔ للحصول على أفضل أداء، استخدم DeepSeek API بدلاً من التشغيل محليًا.
خاتمة
يتيح Deepseek على Raspberry Pi إمكانياتٍ مثيرةً لنشر نماذج الذكاء الاصطناعي على أجهزة صغيرة الحجم ومنخفضة الاستهلاك للطاقة. على الرغم من محدودية إمكانيات Raspberry Pi المادية، إلا أن التحسينات مثل التكميم، ووقت تشغيل ONNX، وTensorFlow Lite تسمح باستنتاجات فعّالة. بالإضافة إلى ذلك، تُسرّع مُسرّعات الذكاء الاصطناعي الخارجية مثل Google Coral TPU و Intel NCS2 يمكن أن يُحسّن الأداء بشكل أكبر. بالنسبة لأولئك الذين يتطلعون إلى تشغيل نماذج Deepseek كاملة الحجم، فإن الاستفادة من واجهات برمجة التطبيقات المستندة إلى السحابة لا يزال بديلاً عمليًا. سواء كان ذلك من أجل الروبوتات المدعومة بالذكاء الاصطناعي، أو أتمتة المنزل الذكي، أو النماذج الأولية التعليمية، يوفر Deepseek على Raspberry Pi بوابة فعالة من حيث التكلفة لعالم الذكاء الاصطناعي الحافة. 🚀