الذكاء الاصطناعي على الحافة للرؤية في الوقت الفعلي: التحديات، القيود، واتجاهات البحث المستقبلية
DOI:
https://doi.org/10.26389/الكلمات المفتاحية:
الذكاء الاصطناعي الطرفي، الرؤية في الوقت الفعلي، الكمّية، التقليم، استخلاص المعرفة، وحدات NPU، المحوّلات ViT، النماذج الهجينة، كفاءة الطاقة، الكمونالملخص
يقدّم هذا المسح تركيباً منهجياً للأساليب التي تمكّن الرؤية الحاسوبية في الوقت الفعلي على عتاد الحوسبة الطرفية تحت قيود صارمة للزمن والطاقة والذاكرة. أجرينا مراجعة منهجية لـ أكثر من 150 دراسة (2018–2025) تغطي الشبكات الخفيفة من نوع CNN وViT، وتقنيات الضغط (التقليم، الكمّية INT8، واستخلاص المعرفة)، وتحسينات المترجمات وأزمنة التشغيل، وتيد العتاد (وحدات NPU/TPU/FPGA)، والتعاون طرف–سحابة. تظهر النتائج أن الكمّية INT8 تحقق عادةً زيادة 2–4× في الإنتاجية وخفضاً 2–5× في استهلاك الطاقة مقارنةً بـ FP32؛ وتحقق الشبكات المتنقلة الممثلة (مثل MobileNetV3-L) كمونات بمستوى الميلي ثانية مع دقة تنافسية على وحدات NPU؛ بينما توفّر النماذج الهجينة CNN–ViT تحسناً بنحو 15–20% في موازنة الدقة–الكمون مقارنة بالنماذج التقليدية عندما تكون دمجات المترجم فعّالة. كما نوثّق مقايضاتٍ حيث يشكّل المعالجة القبلية/اللاحقة 20–60% من الزمن الكلي، وحالاتٍ تتراجع فيها مكاسب الضغط بسبب نقص دعم بعض العمليات. إسهامنا الفريد يتمثّل في تصنيف موحّد مرتبط بخيارات النشر العملية (فئة النموذج × التحسين × العتاد) مع توصيات “متى تستخدم ماذا” للأجهزة المحمولة والمضمّنة والحدّية الصغيرة. التوصيات: تفضيل INT8 مع دعم عمليات العتاد؛ إقران النماذج الهجينة بمسارات ترجمة تدعم الدمج؛ احتساب كلفة المعالجة القبلية/اللاحقة؛ والنظر في التقسيم طرف–سحابة للأحمال الثقيلة.
المراجع
منشور
إصدار
القسم
الرخصة
الحقوق الفكرية (c) 2025 المؤسسة العربية للعلوم ونشر الأبحاث

هذا العمل مرخص بموجب Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International License.





