Intelligent Control of Autonomous Robots Using Machine Learning and Fuzzy Logic Integration
DOI:
https://doi.org/10.65405/.v10i37.325Keywords:
الروبوتات المستقلة؛ تعلم الآلة؛ التعلم المعزز العميق؛ المنطق الضبابي؛ التحكم الهجين؛ الأنظمة الذكية؛ الملاحة؛ تحكم الروبوتاتAbstract
تواجه الروبوتات المستقلة العاملة في بيئات غير مهيكلة ضرورة اتخاذ قرارات آمنة وقابلة للتكيف على الرغم من
عدم اليقين في الإدراك ووجود عوائق ديناميكية. تعتمد أساليب التحكم التقليدية غالبًا إمّا على التعلم المعزز الخالي من
النماذج (RL) لتحسين السياسات من خلال الخبرة، أو على أنظمة المنطق الضبابي التي تدمج المعرفة الخبيرة في قواعد
لغوية قابلة للتفسير. يمكن للتعلم المعزز أن يكتسب سلوكيات معقدة، لكنه يعاني من ضعف كفاءة العينات واستكشافات غير
متوقعة، بينما توفّر أنظمة المنطق الضبابي سلوكًا قويًا قائمًا على القواعد ولكن من الصعب ضبطها في البيئات ذات
التغيرات الكبيرة . . يقترح هذا البحث مُتحكِّّمًا ذكيًا هجينًا يدمج التعلم المعزز العميق مع نظام المنطق الضبابي، بهدف الجمع
بين القدرة على التكيف القائمة على البيانات والقواعد القابلة للتفسير البشري. يقوم شبكيّة عصبية تلافيفية عميقة
(Convolutional Deep Q-Network) بتوليد تفضيلات للأفعال عالية المستوى من مدخلات المستشعرات، في حين
يصف نظام الاستدلال الضبابي إرشادات الملاحة باستخدام متغيرات لغوية. تعتمد استراتيجية التكامل في الزمن الحقيقي
على دالة القيمة المتعلَّمة لضبط أوزان القواعد الضبابية، مما ينتج عنه متحكِّّم يحافظ على السلامة ويتقارب بسرعة
. أظهرت التجارب على روبوت متنقل ذي قيادة تفاضلية في بيئة محاكاة أن المتحكِّّم الهجين يقلل من وقت الملاحة ومعدل
الاصطدام بنسبة تتراوح بين 20 ٪ و 30 ٪ مقارنة بالمتحكمات المعتمدة على المنطق الضبابي أو التعلم المعزز ك لّ على
حدة. توفّر البنية المقترحة إطارًا قابلاً للتفسير وفعّالًا حسابيًا لنشر الروبوتات المستقلة المعزَّزة بالتعلُّم
Downloads
References
[1] Benbouhenni, K., & Djemili, L. (2021). Adaptive fuzzy reinforcement learning for differential drive mobile robot path tracking. International Journal of Advanced Robotic Systems, 18(4), 17298814211024735.
[2] Chen, H., Li, X., & Wang, S. (2016). Supervised fuzzy reinforcement learning for robot navigation. Applied Soft Computing, 40, 33–41.
[3] Crickmore, R. (n.d.). Fuzzy logic and fuzzy sets.
[4] Frommeyer, L., Jackson, A., Lakshminarayanan, B., Roy, A., & Doshi-Velez, F. (2025). Reinforcement learning methods for healthcare: Lessons and opportunities. Journal of Machine Learning Research, 26(68), 1–66.
[5] Goodfellow, I., Bengio, Y., & Courville, A. (2016). Deep learning. MIT Press.
[6] Haarnoja, T., Zhou, A., Hartikainen, K., Tucker, G., Ha, S., Tan, J., Kumar, V., Zhu, H., Gupta, A., Abbeel, P., & Levine, S. (2018). Soft actor–critic: Off-policy maximum entropy deep reinforcement learning with a stochastic actor. In Proceedings of the International Conference on Machine Learning (pp. 1861–1870).
[7] Jing, W., & Chi, D. (2019). Fuzzy Q-learning for obstacle avoidance of mobile robots. Neurocomputing, 350, 42–52.
[8] Karaduman, S. (2017). Fuzzy reinforcement learning-based path planning for autonomous vehicles. In Pro- ceedings of the IEEE Intelligent Transportation Systems Conference (pp. 1237–1242).
[9] Khan, A., & Igarashi, S. (2019). Hierarchical fuzzy reinforcement learning for multi-robot coordination.
Robotics and Autonomous Systems, 117, 94–104.
[10] Kober, J., Bagnell, J. A., & Peters, J. (2013). Reinforcement learning in
Downloads
Published
Issue
Section
License

This work is licensed under a Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International License.








