تفعيل الدوال الرياضية في الشبكات العصبية

المؤلفون

  • خديجة ابوبكر خشيبة المعهد العالي للتقنيات الهندسية/ طرابلس المؤلف
  • مجدي محمد بالتمر المعهد العالي للتقنيات الهندسية/ طرابلس المؤلف
  • صفية المبروك الشامس المعهد العالي للعلوم والتقنية /سوق الجمعة المؤلف

DOI:

https://doi.org/10.65405/cjos.2025.772

الكلمات المفتاحية:

الشبكات العصبية, تقريب الدوال الرياضية , نظرية التقريب الشامل, التعلم الآلي, النمذجة الرياضية

الملخص

تهدف هذه الدراسة إلى إستعراض شامل لإستخدام الشبكات العصبية الإصطناعية في تقريب الدوال الرياضية المعقدة. تغطي الدراسة الأساس النظري للشبكات العصبية، بدأ من النماذج الرياضية للعصبون الإصطناعي وأنواع دوال التفعيل المختلفة، مرورا بنظرية التقريب الشامل  ( Universal Approximation Theorem) التي وضعها كلا من Cybenko, Hornik والتي تثبت قدرة الشبكات العصبية ذات الطبقة الواحدة المخفية على تقريب أي دالة مستمرة بدقة إختيارية. كما تتناول الدراسة خوارزميات التدريب المتقدمة مثل الانتشار العكسي وخوارزمية Adam، بالإضافة إلى تقنيات التنظيم لتحسين الأداء. تشمل التطبيقات العملية تقريب الدوال الكلاسيكية مثل دالة Runge، وحل المعادلات الفيزيائية باستخدام شبكات PINNs، والتطبيقات في المجالات المالية والهندسية. تؤكد النتائج فعالية الشبكات العصبية في تحقيق دقة تصل إلى 99.5% في بعض التطبيقات، مما يجعلها أداة قوية للحوسبة العلمية والنمذجة الرياضية

التنزيلات

تنزيل البيانات ليس متاحًا بعد.

المراجع

1. Cybenko, G. (1989). Approximation by superpositions of a sigmoidal function..Mathematics of Control, Signals and Systems, 2(4), 303-314

2. Hornik, K., Stinchcombe, M., & White, H. (1989). Multilayer feedforward networks.are universal approximators. Neural Networks, 2(5), 359-366

3. Raissi, M., Perdikaris, P., & Karniadakis, G. E. (2019). Physics-informed neuralnetworks: A deep learning framework for solving forward and inverse problems involving nonlinear partial differential equations. Journal of Computational Physics, .378, 686-707

4. .Goodfellow, I., Bengio, Y., & Courville, A. (2016). Deep Learning. MIT Press

5. Kingma, D. P., & Ba, J. (2014). Adam: A method for stochastic optimization. arXiv.preprint arXiv:1412.6980

6. He, K., Zhang, X., Ren, S., & Sun, J. (2016). Deep residual learning for imagerecognition. In Proceedings of the IEEE conference on computer vision and pattern .recognition (pp. 770-778)

7. Vaswani, A., et al. (2017). Attention is all you need. Advances in neural information.processing systems, 30

8. Zoph, B., & Le, Q. V. (2016). Neural architecture search with reinforcement

9. learning..arXiv preprint arXiv:1611.015

10. Ribeiro, M. T., Singh, S., & Guestrin, C. (2016). Why should I trust you? Explainingthe predictions of any classifier. In Proceedings of the 22nd ACM SIGKDD

.international conference on knowledge discovery and data mining (pp. 1135-1144)

11. .Bellman, R. E. (1957). Dynamic programming. Princeton University Press

12. LeCun, Y., Bengio, Y., & Hinton, G. (2015). Deep learning. Nature, 521(7553), 436-.444

13. Rumelhart, D. E., Hinton, G. E., & Williams, R. J. (1986). Learning representations.by back-propagating errors. Nature, 323(6088), 533-536

التنزيلات

منشور

2025-09-30

كيفية الاقتباس

تفعيل الدوال الرياضية في الشبكات العصبية. (2025). مجلة العلوم الشاملة, 9(36), 1781-1786. https://doi.org/10.65405/cjos.2025.772

الأعمال الأكثر قراءة لنفس المؤلف/المؤلفين