التحكم الذكي في الروبوتات المستقلة باستخدام دمج تعلم الآلة والمنطق الضبابي

المؤلفون

  • Rabea Mohamed Gomaa1 1 Department of Biomedical Equipment Engineering, Faculty of Medical Sciences and Technologies, Tripoli ، قسم هندسة المعدات الطبية، كلية العلوم والتقنيات الطبية، طرابلس المؤلف

DOI:

https://doi.org/10.65405/.v10i37.325

الكلمات المفتاحية:

الروبوتات المستقلة؛ تعلم الآلة؛ التعلم المعزز العميق؛ المنطق الضبابي؛ التحكم الهجين؛ الأنظمة الذكية؛ الملاحة؛ تحكم الروبوتات

الملخص

تواجه الروبوتات المستقلة العاملة في بيئات غير مهيكلة ضرورة اتخاذ قرارات آمنة وقابلة للتكيف على الرغم من
عدم اليقين في الإدراك ووجود عوائق ديناميكية. تعتمد أساليب التحكم التقليدية غالبًا إمّا على التعلم المعزز الخالي من
النماذج (RL) لتحسين السياسات من خلال الخبرة، أو على أنظمة المنطق الضبابي التي تدمج المعرفة الخبيرة في قواعد
لغوية قابلة للتفسير. يمكن للتعلم المعزز أن يكتسب سلوكيات معقدة، لكنه يعاني من ضعف كفاءة العينات واستكشافات غير
متوقعة، بينما توفّر أنظمة المنطق الضبابي سلوكًا قويًا قائمًا على القواعد ولكن من الصعب ضبطها في البيئات ذات
التغيرات الكبيرة . . يقترح هذا البحث مُتحكِّّمًا ذكيًا هجينًا يدمج التعلم المعزز العميق مع نظام المنطق الضبابي، بهدف الجمع
بين القدرة على التكيف القائمة على البيانات والقواعد القابلة للتفسير البشري. يقوم شبكيّة عصبية تلافيفية عميقة
(Convolutional Deep Q-Network) بتوليد تفضيلات للأفعال عالية المستوى من مدخلات المستشعرات، في حين
يصف نظام الاستدلال الضبابي إرشادات الملاحة باستخدام متغيرات لغوية. تعتمد استراتيجية التكامل في الزمن الحقيقي
على دالة القيمة المتعلَّمة لضبط أوزان القواعد الضبابية، مما ينتج عنه متحكِّّم يحافظ على السلامة ويتقارب بسرعة
. أظهرت التجارب على روبوت متنقل ذي قيادة تفاضلية في بيئة محاكاة أن المتحكِّّم الهجين يقلل من وقت الملاحة ومعدل
الاصطدام بنسبة تتراوح بين 20 ٪ و 30 ٪ مقارنة بالمتحكمات المعتمدة على المنطق الضبابي أو التعلم المعزز ك لّ على
حدة. توفّر البنية المقترحة إطارًا قابلاً للتفسير وفعّالًا حسابيًا لنشر الروبوتات المستقلة المعزَّزة بالتعلُّم

التنزيلات

تنزيل البيانات ليس متاحًا بعد.

المراجع

[1] Benbouhenni, K., & Djemili, L. (2021). Adaptive fuzzy reinforcement learning for differential drive mobile robot path tracking. International Journal of Advanced Robotic Systems, 18(4), 17298814211024735.

[2] Chen, H., Li, X., & Wang, S. (2016). Supervised fuzzy reinforcement learning for robot navigation. Applied Soft Computing, 40, 33–41.

[3] Crickmore, R. (n.d.). Fuzzy logic and fuzzy sets.

[4] Frommeyer, L., Jackson, A., Lakshminarayanan, B., Roy, A., & Doshi-Velez, F. (2025). Reinforcement learning methods for healthcare: Lessons and opportunities. Journal of Machine Learning Research, 26(68), 1–66.

[5] Goodfellow, I., Bengio, Y., & Courville, A. (2016). Deep learning. MIT Press.

[6] Haarnoja, T., Zhou, A., Hartikainen, K., Tucker, G., Ha, S., Tan, J., Kumar, V., Zhu, H., Gupta, A., Abbeel, P., & Levine, S. (2018). Soft actor–critic: Off-policy maximum entropy deep reinforcement learning with a stochastic actor. In Proceedings of the International Conference on Machine Learning (pp. 1861–1870).

[7] Jing, W., & Chi, D. (2019). Fuzzy Q-learning for obstacle avoidance of mobile robots. Neurocomputing, 350, 42–52.

[8] Karaduman, S. (2017). Fuzzy reinforcement learning-based path planning for autonomous vehicles. In Pro- ceedings of the IEEE Intelligent Transportation Systems Conference (pp. 1237–1242).

[9] Khan, A., & Igarashi, S. (2019). Hierarchical fuzzy reinforcement learning for multi-robot coordination.

Robotics and Autonomous Systems, 117, 94–104.

[10] Kober, J., Bagnell, J. A., & Peters, J. (2013). Reinforcement learning in

التنزيلات

منشور

2025-11-25

كيفية الاقتباس

التحكم الذكي في الروبوتات المستقلة باستخدام دمج تعلم الآلة والمنطق الضبابي. (2025). مجلة العلوم الشاملة, 10(37), 845-866. https://doi.org/10.65405/.v10i37.325