Deepseek on Raspberry Pi: Unlocking AI Potential on a Compact Edge Device

Deepseek على Raspberry Pi: إطلاق العنان لإمكانات الذكاء الاصطناعي على جهاز Edge صغير الحجم

ديب سيك هو إطار عمل أو برنامج متقدم قائم على الذكاء الاصطناعي، مُصمم لمهام مثل اكتشاف الكائنات، والتعرف على الصور، ومعالجة اللغة الطبيعية (NLP)، أو تطبيقات التعلم الآلي الأخرى. يستخدم نماذج التعلم العميق لتحليل البيانات المعقدة وتفسيرها، مما يجعله أداة فعّالة لمختلف الصناعات ومجالات البحث. غالبًا ما يتم تحسين Deepseek لتحقيق الكفاءة، مما يُمكّنه من العمل على الأجهزة محدودة الموارد مثل Raspberry Pi.

نظرة عامة على نماذج الذكاء الاصطناعي Deepseek

نماذج Deepseek AI عبارة عن مجموعة من نماذج التعلم العميق المدربة مسبقًا أو القابلة للتخصيص مُصممة لمعالجة مجموعة متنوعة من المهام في مختلف المجالات. هذه النماذج مُحسّنة لـ الكفاءة والدقة وقابلية التوسع ، مما يجعلها مناسبة للنشر على كل من الأنظمة عالية الأداء والأجهزة ذات الموارد المحدودة مثل راسبيري باي .
 DeepSeek V3: يُعتبر نظامًا شاملًا وقويًا لمعالجة اللغات القابلة للتطوير. يتميز بكفاءة عالية، ويتميز في المقام الأول بقدرته على شرح المفاهيم بطريقة مفهومة وبسيطة.
 DeepSeek R1: متخصص في التفكير المنطقي لحل المشكلات الأكاديمية. تكمن أبرز نقاط قوته في مهاراته الممتازة في حل المشكلات، والتفكير الرياضي، والتحليل المنطقي. وهو مناسب بشكل خاص للموارد التعليمية، وأغراض البحث، والتفكير بمساعدة الذكاء الاصطناعي.

حالات الاستخدام المحتملة لتشغيل Deepseek على Raspberry Pi

• أنظمة المراقبة:
• مراقبة وتتبع الأشياء أو الأشخاص في الوقت الفعلي.
o أنظمة كشف التسلل والتنبيه.
• الروبوتات:
o التعرف على الكائنات للملاحة المستقلة.
o عمليات الالتقاط والوضع في الروبوتات الصناعية.
• أجهزة المنزل الذكي:
o التعرف على الإيماءات للأجهزة الذكية.
o أنظمة مراقبة الحيوانات الأليفة أو الأطفال.
• إدارة التجزئة والمخزون:
o التعرف على المنتج وتتبعه على الرفوف.
o أنظمة الدفع الآلي.
• التعليم والنماذج الأولية:
o تدريس مفاهيم الذكاء الاصطناعي والرؤية الحاسوبية.
o بناء مشاريع إثبات المفهوم.

التحديات والقيود

أداء وحدة المعالجة المركزية: تتمتع نماذج Raspberry Pi، حتى أحدثها مثل Raspberry Pi 4 أو 5، بقوة حسابية منخفضة نسبيًا مقارنة بوحدات المعالجة المركزية المكتبية الحديثة.
تتطلب نماذج التعلم العميق، وخاصة الكبيرة منها، قوة معالجة كبيرة لكل من التدريب والاستدلال.

عدم وجود تسريع وحدة معالجة الرسوميات: لا تحتوي معظم طُرز Raspberry Pi على وحدة معالجة رسوميات (GPU) مخصصة، كما أن وحدة معالجة الرسوميات المدمجة ليست قوية بما يكفي لتسريع مهام التعلم العميق بفعالية. هذا يحد من إمكانية تشغيل النماذج المعقدة بكفاءة.

حدود ذاكرة الوصول العشوائي (RAM): عادةً ما تكون ذاكرة الوصول العشوائي (RAM) في أجهزة Raspberry Pi محدودة (من 1 جيجابايت إلى 16 جيجابايت في أحدث الطُرز). قد تستنفد نماذج التعلم العميق، وخاصةً تلك التي تحتوي على مجموعات بيانات ضخمة أو هياكل معقدة، الذاكرة المتاحة بسرعة، مما يؤدي إلى اختناقات في الأداء أو أعطال.

في حين أنه من الممكن تشغيل مهام التعلم العميق على Raspberry Pi، يقتصر عادةً على النماذج البسيطة ومهام الاستدلال. أما بالنسبة للتطبيقات الأكثر تعقيدًا أو التي تتطلب موارد كثيفة، فغالبًا ما يلزم استخدام أجهزة أقوى أو نقل العمليات الحسابية إلى خوادم خارجية أو خدمات سحابية. إن تحسين النماذج والاستفادة من التقنيات مثل تقليم النماذج والقياس الكمي وممارسات الترميز الفعالة يمكن أن يساعد في التخفيف من بعض هذه التحديات، ولكن القيود المتأصلة في أجهزة Raspberry Pi ستظل دائمًا عاملاً.

المتطلبات الأساسية

متطلبات الأجهزة

الصورة 2.png__PID:33557c4f-e14e-4ab4-9fd6-2bed4b9f59c1

تثبيت Deepseek على Raspberry Pi 5 8GB

تشغيل نموذج الذكاء الاصطناعي خفيف الوزن محليًا

الصورة 3.png__PID:316d3c59-6816-4ae6-a32a-7243af5a7e77

أولاما إطار عمل مفتوح المصدر يتيح للمستخدمين تشغيل نماذج لغات كبيرة (LLMs) محليًا على أجهزتهم. يُبسّط هذا الإطار عملية تنزيل نماذج الذكاء الاصطناعي وتشغيلها والتفاعل معها دون الحاجة إلى خدمات سحابية.

يوفر Ollama وقت تشغيل L LM فعال، ويدعم النماذج الكمية لتقليل استخدام الذاكرة وتحسين الأداء على الأجهزة ذات المواصفات المنخفضة.

1. تثبيت Ollama
حاول تشغيل البرنامج النصي الرسمي لتثبيت Ollama:
curl -fsSL https://ollama.com/install.sh | sh

الصورة 4.png__PID:897650be-c1f0-4df2-93f3-48c26bd661f1

2. بمجرد تثبيت Ollama، قم بتنزيل طراز DeepSeek المتوافق:
سحب ollama deepseek-r1:1.5b
يقوم هذا الأمر بجلب إصدار 1.5 مليار معلمة من DeepSeek-R1، والذي يتطلب ما يقرب من 1.8 جيجابايت من مساحة التخزين.

الصورة 5.png__PID:a84dd2e7-2e23-4ae5-9f59-5b0adc9ac3fc

3. تشغيل النموذج
بعد التنزيل، يمكنك بدء جلسة تفاعلية:

الصورة 7.png__PID:5fd3f3d3-9cbb-4102-87c8-eab540e040b7

تشغيل ollama deepseek-r1:1.5b

ONNX و TensorFlow Lite: تشغيل DeepSeek على Raspberry Pi

نظرًا لأن نماذج DeepSeek كبيرة ومكلفة حسابيًا، فإن الأطر مثل ONNX Runtime وTensorFlow Lite (TFLite) تساعد في تحسين الاستدلال للأجهزة منخفضة الطاقة مثل Raspberry Pi.

ONNX (تبادل الشبكات العصبية المفتوحة) هو تنسيق مفتوح المصدر لنماذج الذكاء الاصطناعي. يسمح للنماذج المُدرَّبة على PyTorch وTensorFlow وأطر عمل أخرى بالعمل بكفاءة عبر منصات مختلفة.

يعد ONNX الخيار الأفضل لتشغيل DeepSeek على Raspberry Pi نظرًا لتنفيذه خفيف الوزن ودعم ARM.

TensorFlow Lite (TFLite) هو إصدار خفيف الوزن من TensorFlow مُحسّن للأجهزة المحمولة والمدمجة مثل Raspberry Pi.
يستخدم التكميم لتقليل حجم النموذج وتحسين سرعة التنفيذ على الأجهزة ذات الطاقة المنخفضة.

يعد TFLite مثاليًا لتطبيقات الذكاء الاصطناعي الحافة ولكنه يتطلب تحويل النماذج إلى تنسيق TFLite قبل التشغيل.

مثال: استخدام ONNX لتشغيل DeepSeek على Raspberry Pi

1. تثبيت وقت تشغيل ONNX
تثبيت pip على nxruntime

2. تحويل نموذج DeepSeek إلى ONNX
إذا كان لديك نموذج DeepSeek المستند إلى PyTorch ، قم بتحويله إلى ONNX:

استيراد الشعلة
استيراد torch.onnx #
تحميل نموذج DeepSeek
النموذج = torch.load("deepseek_model.pth")
نموذج.eval()

# موتر الإدخال الوهمي (تغيير الشكل بناءً على حجم إدخال النموذج)
إدخال وهمي = torch.randn(1، 3، 224، 224)
# تصدير النموذج إلى ONNX

torch.onnx.export(نموذج، إدخال وهمي، "deepseek_model.onnx"،
export_params=True، opset_version=11، do_constant_folding=True)

3. الخطوة 3: تشغيل DeepSeek ONNX
نموذج على Raspberry Pi
بمجرد التحويل، يمكنك تشغيل الاستدلال باستخدام ONNX Runtime:
استيراد onnxruntime كـ ort
استيراد numpy كـ np
# تحميل نموذج ONNX
جلسة = ort.InferenceSession("deepseek_model.onnx")
# تحضير بيانات الإدخال
بيانات الإدخال = np.random.randn(1، 3، 224، 224).astype(np.float32)
اسم الإدخال = session.get_inputs()[0].name
# تشغيل الاستدلال
الإخراج = session.run(لا شيء، {اسم الإدخال: بيانات الإدخال})
طباعة ("إخراج النموذج:"، الإخراج)

تحسين الأداء

استخدام إصدارات خفيفة الوزن من نماذج Deepseek
يقدم DeepSeek-R1 العديد من النماذج المقطرة ذات المعلمات المخفضة، مما يجعلها أكثر ملاءمة للأجهزة ذات الموارد المحدودة.
الموديلات خفيفة الوزن المتوفرة:
 
DeepSeek-R1:1.5B: حوالي 1.5 مليار معلمة.
• DeepSeek-R1:7B: حوالي 7 مليار معلمة.
• DeepSeek-R1:8B: حوالي 8 مليار معلمة.
من اجل Raspberry Pi 5 ، 1.5 مليار يوصى بهذا النموذج بسبب متطلباته المنخفضة للموارد.
تحسين استخدام الذاكرة (تمكين تبديل الذاكرة)
زيادة سعة Swap إلى ٢ غيغابايت. هذا يمنع أخطاء نفاد الذاكرة (OOM) عند تشغيل DeepSeek.
sudo dphys-swapfile swapoff
sudo sed -i 's/CONF_SWAPSIZE=.*/CONF_SWAPSIZE=2048/' /etc/dphys-swapfile
إعداد sudo dphys-swapfile
sudo dphys-swapfile swapon

الاستنتاج: أفضل طريقة لتشغيل DeepSeek على Raspberry Pi

✔ نماذج DeepSeek الكاملة (V3، R1) كبيرة جدًا بحيث لا يمكن تشغيلها مباشرة.
✔ استخدم نماذج 1.5B الكمية مع ONNX أو TensorFlow Lite.
✔ استخدم مسرعات الذكاء الاصطناعي الخارجية (Google Coral، Intel NCS2) للاستدلال في الوقت الفعلي.
✔ للحصول على أفضل أداء، استخدم DeepSeek API بدلاً من التشغيل محليًا.

خاتمة

يتيح Deepseek على Raspberry Pi إمكانياتٍ مثيرةً لنشر نماذج الذكاء الاصطناعي على أجهزة صغيرة الحجم ومنخفضة الاستهلاك للطاقة. على الرغم من محدودية إمكانيات Raspberry Pi المادية، إلا أن التحسينات مثل التكميم، ووقت تشغيل ONNX، وTensorFlow Lite تسمح باستنتاجات فعّالة. بالإضافة إلى ذلك، تُسرّع مُسرّعات الذكاء الاصطناعي الخارجية مثل Google Coral TPU و Intel NCS2 يمكن أن يُحسّن الأداء بشكل أكبر. بالنسبة لأولئك الذين يتطلعون إلى تشغيل نماذج Deepseek كاملة الحجم، فإن الاستفادة من واجهات برمجة التطبيقات المستندة إلى السحابة لا يزال بديلاً عمليًا. سواء كان ذلك من أجل الروبوتات المدعومة بالذكاء الاصطناعي، أو أتمتة المنزل الذكي، أو النماذج الأولية التعليمية، يوفر Deepseek على Raspberry Pi بوابة فعالة من حيث التكلفة لعالم الذكاء الاصطناعي الحافة. ​​🚀

العودة إلى المدونة

اترك تعليقا

يرجى ملاحظة أنه يجب الموافقة على التعليقات قبل نشرها.

BEST SELLERS

Dyson Inc. Anker Technologies LEGO Brand Retail Fanttik Brand Retail Breo Brand Retail