Publication:
Improvement of deep reinforcement models using extreme learning machine for autonomous agents in unstructured environment

dc.contributor.affiliation#PLACEHOLDER_PARENT_METADATA_VALUE#en_US
dc.contributor.authorAldahoul, Nouaren_US
dc.contributor.supervisorZaw Zaw Htike, Ph.Den_US
dc.contributor.supervisorAmir Akramin Shafie, Ph.Den_US
dc.date.accessioned2024-10-07T03:01:29Z
dc.date.available2024-10-07T03:01:29Z
dc.date.issued2021
dc.description.abstractCreating an autonomous agent, that gets real observations such as sensory data and images from the surrounding environment and learns optimal sequential actions, has been considered as one of the main goals of Artificial General Intelligence (AGI). Deep (Hierarchical) Reinforcement Learning (HRL/DRL) can address this objective. Traditional deep reinforcement learning methods suffer from long learning and training time resulted from the need to fine-tune the weights iteratively in the network. This research investigates the previous problem by utilizing a random weights generation approach that is based on Extreme Learning Machine. This method benefits from the randomness of input weights and least square solution in output weights calculation to reduce the training time by an order of magnitude. Hierarchical ELM (H-ELM) and Local Receptive Field ELM (LRF-ELM) are recent versions of multilayer ELM to respectively learn and extract features by hierarchical learning scheme. They have outperformed other existing deep models in terms of learning time (speed). H-ELM’s architecture was found to be similar to gradient-based (GB) auto-encoder without weights fine-tuning. However, H-ELM gives higher learning speed compared to the GB autoencoder. Moreover, LRF-ELM was found as similar to Convolutional Neural Network (CNN) without weights fine-tuning. It has outperformed the traditional CNN in the term of learning time. Therefore, in this research, the proposed method, which combines RL with H-ELM or LRF-ELM, is an efficient solution to approximate the action-value function and learn an optimal policy directly from visual data (images) in a short time. In addition, this research proposed a novel method called Convolutional H-ELM (CH-ELM) which is a combination of pre-trained CNN and H-ELM. This method has outperformed either CNN or H-ELM in terms of accuracy and RMSE. The experimental results have been analyzed and evaluated in different applications such as target reaching arm, 2D maze navigation, slide puzzle game , objects sorting, and rock-paper-scissor game. The data samples have been trained and tested to investigate the robustness of the proposed systems. It was found that the proposed models can reduce the learning time by an order of magnitude in various tasks without degrading the performance. The big improvement in learning speed in the proposed method can neglect the slight drop in accuracy in few tasks compared to traditional methods. Therefore, the proposed method can balance the trade-off between learning speed and good performance. In addition, it is able to run on traditional CPUs that are available in the most of the low cost embedding systems.en_US
dc.description.abstractarabicتعد عملية ايجاد عميل ذاتي القرار قادر على رصد المشاهدات الحقيقية كبيانات الحساسات و الصور من البيئة المحيطة وتعلم سلسلة من الأفعال المثالية من أهم أهداف الذكاء العام الصنعي. استطاع التعلم المعزز الهرمي (العميق) تحقيق هذا الهدف. تعاني الطرق التقليدية للتعلم المعزز العميق من طول زمن التعلم والتدريب الناتج من الحاجة إلى توليف الأوزان بشكل متكرر في الشبكة. في هذا البحث تم دراسة هذه المشكلة بالاستفادة من مفهوم توليد الأوزان العشوائية القائم على خوارزمية ELM. هذه الطريقة تستفيد من عشوائية أوزان الدخل ومن الحل القائم على المربعات الصغرى في حساب أوزان الخرج لانقاص زمن التدريب عدد من المرات. تم الاستفادة من البنية الهرمية H-ELM و حقول الاستقبال المحلي ELM-LRFs وهما إصداران حديثان لشبكة ELM متعددة الطبقات ويتم فيهما تعلم الميزات أو استخراجها عن طريق التعلم الهرمي. هذه النماذج تفوقت على نماذج التعلم العميق الموجودة مسبقاً من خلال زمن التعلم (سرعة التعلم). إن بنية H-ELM تشبه المرمز الألي القائم على هبوط الانحدار (Gradient Descent based auto encoder ) ولكن بدون الحاجة إلى التوليف. ومع ذلك فإن البنية H-ELM تتمتع بسرعة تدريب أفضل مقارنة مع الأخير. كما تم استخدام حقول الاستقبال المحلي كبنية بديلة مشابهة للشبكات العصبونية الالتفافية CNN ولكن بدون الحاجة إلى توليف الأوزان وضبطها. وقد تم إثبات تفوقها على CNN من حيث سرعة التعلم. لذا فإن الطريقة المقترحة في هذا البحث والتي تعتمد على دمج التعلم المعزز مع H-ELM أو ELM-LRFs هي حل فعال لتقريب تابع قيم الأفعال (Action Value Function) و تعلم الاستراتيجية المثالية بشكل مباشر من المعطيات المرئية (الصور) كمدخل للنظام خلال زمن قصير. بالإضافة لما سبق تم في هذا البحث اقتراح طريقة جديدة تدعى CH-ELM و الذي تم فيه دمج الشبكة الالتفافية المدربة مسبقا مع الشبكة الهرمية العشوائية H-ELM و قد اثبت هذا النموذج تفوقه على كل من الشبكة الالتفافية CNN و شبكة H-ELM من حيث الدقة وجذر متوسط مربع الخطأ. تم في هذا البحث تحليل وتقييم النتائج التجريبية في تطبيقات مختلفة كتطبيق ذراع روبوتية يبحث عن الهدف وعميل في متاهة ثنائية البعد ولعبة البازل المتزحلق وفرز الأغراض المختلفة ولعبة حجر ورق مقص. تم تدريب وفحص عينات من البيانات للتأكد من متانة النظام المقترح. وجد أن النموذج المقترح قادر على انقاص زمن التعلم عدد من المرات في مهام مختلفة دون تراجع مستوى الأداء. إن التحسن الكبير في سرعة التعلم في الطريقة المقترحة سمح بإهمال التراجع الطفيف في الدقة في بعض المهام بالمقارنة مع الطرق التقليدية. لذلك فإن الطريقة المقترحة تستطيع موازنة المقايضة بين سرعة التعلم والاداء الجيد. بالإضافة الى أنها قابلة للتنفيذ على المعالجات التقليدية المتوفرة في معظم الأنظمة المضمنة منخفضة التكلفة.en_US
dc.description.callnumbert Q 325.6 A357I 2021en_US
dc.description.identifierThesis : Improvement of deep reinforcement models using extreme learning machine for autonomous agents in unstructured environment /by Nouar Aldahoulen_US
dc.description.identityt11100393421NouarAldahoulen_US
dc.description.kulliyahKulliyyah of Engineeringen_US
dc.description.notesThesis (Ph.D)--International Islamic University Malaysia, 2021.en_US
dc.description.physicaldescriptionxxii, 267 leaves : colour illustrations ; 30cm.en_US
dc.description.programmeDoctor of Philosophy (Engineering)en_US
dc.identifier.urihttps://studentrepo.iium.edu.my/handle/123456789/2898
dc.language.isoenen_US
dc.publisherKuala Lumpur : Kulliyyah of Engineering, International Islamic University Malaysia, 2021en_US
dc.subject.lcshReinforcement learningen_US
dc.subject.lcshArtificial intelligence -- Engineering applicationsen_US
dc.titleImprovement of deep reinforcement models using extreme learning machine for autonomous agents in unstructured environmenten_US
dc.typeDoctoral Thesisen_US
dspace.entity.typePublication

Files

Original bundle

Now showing 1 - 2 of 2
Loading...
Thumbnail Image
Name:
t11100393421NouarAldahoul_24.pdf
Size:
501.05 KB
Format:
Adobe Portable Document Format
Description:
24 pages file
Loading...
Thumbnail Image
Name:
t11100393421NouarAldahoul_SEC.pdf
Size:
4.18 MB
Format:
Adobe Portable Document Format
Description:
Full text secured file

License bundle

Now showing 1 - 1 of 1
Loading...
Thumbnail Image
Name:
license.txt
Size:
1.71 KB
Format:
Plain Text
Description:

Collections