Intelligent Control of Autonomous Robots Using Machine Learning and Fuzzy Logic Integration

Authors

  • Rabea Mohamed Gomaa1 1 Department of Biomedical Equipment Engineering, Faculty of Medical Sciences and Technologies, Tripoli , قسم هندسة المعدات الطبية، كلية العلوم والتقنيات الطبية، طرابلس Author

DOI:

https://doi.org/10.65405/.v10i37.325

Keywords:

الروبوتات المستقلة؛ تعلم الآلة؛ التعلم المعزز العميق؛ المنطق الضبابي؛ التحكم الهجين؛ الأنظمة الذكية؛ الملاحة؛ تحكم الروبوتات

Abstract

تواجه الروبوتات المستقلة العاملة في بيئات غير مهيكلة ضرورة اتخاذ قرارات آمنة وقابلة للتكيف على الرغم من
عدم اليقين في الإدراك ووجود عوائق ديناميكية. تعتمد أساليب التحكم التقليدية غالبًا إمّا على التعلم المعزز الخالي من
النماذج (RL) لتحسين السياسات من خلال الخبرة، أو على أنظمة المنطق الضبابي التي تدمج المعرفة الخبيرة في قواعد
لغوية قابلة للتفسير. يمكن للتعلم المعزز أن يكتسب سلوكيات معقدة، لكنه يعاني من ضعف كفاءة العينات واستكشافات غير
متوقعة، بينما توفّر أنظمة المنطق الضبابي سلوكًا قويًا قائمًا على القواعد ولكن من الصعب ضبطها في البيئات ذات
التغيرات الكبيرة . . يقترح هذا البحث مُتحكِّّمًا ذكيًا هجينًا يدمج التعلم المعزز العميق مع نظام المنطق الضبابي، بهدف الجمع
بين القدرة على التكيف القائمة على البيانات والقواعد القابلة للتفسير البشري. يقوم شبكيّة عصبية تلافيفية عميقة
(Convolutional Deep Q-Network) بتوليد تفضيلات للأفعال عالية المستوى من مدخلات المستشعرات، في حين
يصف نظام الاستدلال الضبابي إرشادات الملاحة باستخدام متغيرات لغوية. تعتمد استراتيجية التكامل في الزمن الحقيقي
على دالة القيمة المتعلَّمة لضبط أوزان القواعد الضبابية، مما ينتج عنه متحكِّّم يحافظ على السلامة ويتقارب بسرعة
. أظهرت التجارب على روبوت متنقل ذي قيادة تفاضلية في بيئة محاكاة أن المتحكِّّم الهجين يقلل من وقت الملاحة ومعدل
الاصطدام بنسبة تتراوح بين 20 ٪ و 30 ٪ مقارنة بالمتحكمات المعتمدة على المنطق الضبابي أو التعلم المعزز ك لّ على
حدة. توفّر البنية المقترحة إطارًا قابلاً للتفسير وفعّالًا حسابيًا لنشر الروبوتات المستقلة المعزَّزة بالتعلُّم

Downloads

Download data is not yet available.

References

[1] Benbouhenni, K., & Djemili, L. (2021). Adaptive fuzzy reinforcement learning for differential drive mobile robot path tracking. International Journal of Advanced Robotic Systems, 18(4), 17298814211024735.

[2] Chen, H., Li, X., & Wang, S. (2016). Supervised fuzzy reinforcement learning for robot navigation. Applied Soft Computing, 40, 33–41.

[3] Crickmore, R. (n.d.). Fuzzy logic and fuzzy sets.

[4] Frommeyer, L., Jackson, A., Lakshminarayanan, B., Roy, A., & Doshi-Velez, F. (2025). Reinforcement learning methods for healthcare: Lessons and opportunities. Journal of Machine Learning Research, 26(68), 1–66.

[5] Goodfellow, I., Bengio, Y., & Courville, A. (2016). Deep learning. MIT Press.

[6] Haarnoja, T., Zhou, A., Hartikainen, K., Tucker, G., Ha, S., Tan, J., Kumar, V., Zhu, H., Gupta, A., Abbeel, P., & Levine, S. (2018). Soft actor–critic: Off-policy maximum entropy deep reinforcement learning with a stochastic actor. In Proceedings of the International Conference on Machine Learning (pp. 1861–1870).

[7] Jing, W., & Chi, D. (2019). Fuzzy Q-learning for obstacle avoidance of mobile robots. Neurocomputing, 350, 42–52.

[8] Karaduman, S. (2017). Fuzzy reinforcement learning-based path planning for autonomous vehicles. In Pro- ceedings of the IEEE Intelligent Transportation Systems Conference (pp. 1237–1242).

[9] Khan, A., & Igarashi, S. (2019). Hierarchical fuzzy reinforcement learning for multi-robot coordination.

Robotics and Autonomous Systems, 117, 94–104.

[10] Kober, J., Bagnell, J. A., & Peters, J. (2013). Reinforcement learning in

Downloads

Published

2025-11-25

How to Cite

Intelligent Control of Autonomous Robots Using Machine Learning and Fuzzy Logic Integration. (2025). Comprehensive Journal of Science, 10(37), 845-866. https://doi.org/10.65405/.v10i37.325