تطبيق نموذج YOLOv8 في الكشف عن السفن من الصور الفضائية لدعم أنظمة المراقبة البحرية في الزمن الحقيقي
DOI:
https://doi.org/10.65405/647rb152الكلمات المفتاحية:
الذكاء الاصطناعي، الرؤية الحاسوبية، YOLOv8، كشف السفن، المراقبة البحرية، الصور الفضائيةالملخص
يهدف هذا البحث إلى تقييم فعالية نموذج YOLOv8 الحديث للكشف عن السفن في الصور الفضائية عالية الدقة.
تم تدريب النموذج على مجموعة بيانات مكونة من 2500 صورة أقمار صناعية تشمل سفناً في ظروف بيئية متنوعة. قسمت البيانات بنسبة 70% للتدريب، 15% للتحقق، و15% للاختبار.
أظهرت النتائج تفوق النموذج المقترح حيث حقق متوسط دقة (mAP@0.5 ) بلغ 90.5%، ودقة كشف (Precision) 91.3%، ومعدل استدعاء (Recall) 89.7%. كما تم دمج خوارزمية تتبع ( MIL Tracker) لتحسين استمرارية المراقبة عبر تسلسل الصور، حيث قللت من حالات تبديل الهوية (ID switches ) بنسبة 35%. أظهر النموذج تفوقاً ملحوظاً في السرعة والدقة مقارنة بنماذج YOLOv5 وFaster R-CNN تحت نفس ظروف الاختبار، مما يجعله حلاً عملياً لتطبيقات المراقبة البحرية في الزمن الحقيقي.
التنزيلات
المراجع
[1] Redmon, J., et al. "You Only Look Once: Unified, Real-Time Object Detection." CVPR, 2016.
[2] Bochkovskiy, A., et al. "YOLOv4: Optimal Speed and Accuracy of Object Detection." arXiv, 2020.
[3] Zhu, X., et al. "Ship detection from satellite imagery using convolutional neural networks." IEEE Geoscience Letters, 2017.
[4] Yang, F., et al. "Deep learning approaches for ship detection in remote sensing images." Remote Sensing Journal, 2018.
[5] Liu, Q., et al. "Semi-supervised learning for maritime object detection." ISPRS Journal, 2020.
[6] Shao, Z., et al. "SeaShips: A large-scale precisely annotated dataset for ship detection." IEEE Transactions on Multimedia, 2018.
[7] Babenko, B., et al. "Visual tracking with online multiple instance learning." CVPR, 2009.
[8] Jocher, G., et al. "YOLOv8: New State-of-the-Art for Object Detection." Ultralytics, 2023.
[9] Chen, L., et al. "Deep Learning for Maritime Object Detection: A Comprehensive Survey." IEEE Access, 2024.
التنزيلات
منشور
إصدار
القسم
الرخصة
الحقوق الفكرية (c) 2025 مجلة العلوم الشاملة

هذا العمل مرخص بموجب Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International License.








