Publication: 4D radar imaging for target detection and classification using deep-learning
cris.virtual.department | #PLACEHOLDER_PARENT_METADATA_VALUE# | |
cris.virtual.orcid | #PLACEHOLDER_PARENT_METADATA_VALUE# | |
cris.virtualsource.department | 33804a25-3ebf-43eb-b1ae-fbc5311ea87b | |
cris.virtualsource.orcid | 33804a25-3ebf-43eb-b1ae-fbc5311ea87b | |
dc.contributor.author | Liyaana Shahirah Wan Abd Aziz | |
dc.contributor.supervisor | Farah Nadia Mohd Isa | |
dc.contributor.supervisor | Faridah Abd Rahman | |
dc.contributor.supervisor | Huda Adbah Mohd Ranli | |
dc.contributor.supervisor | Norun Farihah Abdul Malek | |
dc.date.accessioned | 2025-08-14T03:18:50Z | |
dc.date.available | 2025-08-14T03:18:50Z | |
dc.date.issued | 2025 | |
dc.description.abstract | The goal of this project is to develop an object detection and classification system for road crossing areas as part of a monitoring system using 4D radar imaging with a deep-learning neural network approach. In this work, we utilised deep neural networks powered by Keras and Tensorflow to detect and classify multiple pedestrians, cars, buses, and trucks. This paper presents Retina-4F, which is a multi-chip radar imaging system with high range resolution for object detection and localization. Retina-4F, which was developed by Smart Radar System, allows the system to provide 4D real-time information about the target. Retina-4F utilises a multi-chip cascade onboard with three transmitters and four receivers in each chip. We demonstrated two road-crossing scenes to collect data for creating a point cloud dataset with a target class label to be used for training and testing a deep learning model. There are two main sensors implemented in this work: Retina-4F as a 4D radar imaging and a mono-camera. The data from both sensors is pre-processed using DBSCAN and YOLOv7. Retina-4F operates at 77 GHz, and the test was conducted in two different road areas. After conducting data measurement at two road crossing areas, the collected data is passed for preprocessing and data fusion processing. This results in a complete point cloud dataset with approximately 10,000 frames of point cloud images that can be used for neural network training and testing. The model evaluation showed satisfying performance of the deep neural network in classifying multiple targets with 97 percent of overall accuracy. The approach of sensor data fusion for multiple target classification shows good results where it manages to distinguish different types of targets: cars, pedestrians, buses, and trucks. The proposed radar point cloud classification using sensor fusion can be applied to a wide variety of complex monitoring applications. | |
dc.description.abstractarabic | الهدف من هذا المشروع هو تطوير نظام كشف وتصنيف الأشياء لمناطق عبور الطرق كجزء من نظام المراقبة باستخدام التصوير الراداري رباعي الأبعاد مع نهج الشبكة العصبية للتعلم العميق. في هذا العمل، استخدمنا شبكات عصبية عميقة مدعومة من Keras وTensorflow لاكتشاف وتصنيف العديد من المشاة والسيارات والحافلات والشاحنات. تقدم هذه الورقة نظام Retina-4F، وهو نظام تصوير راداري متعدد الشرائح يتمتع بدقة عالية المدى لاكتشاف الأجسام وتحديد موقعها. ويتيح نظام Retina-4F، الذي تم تطويره بواسطة نظام راداري ذكي، يوفر هذا النظام معلومات فورية رباعية الأبعاد حول الهدف. يستخدم Retina-4F سلسلة متعددة الشرائح مدمجة مع ثلاثة أجهزة إرسال وأربعة أجهزة استقبال في كل شريحة. لقد أظهرنا مشهدين لعبور الطريق لجمع البيانات وذلك لإنشاء مجموعة بيانات سحابية نقطية مع تسمية الفئة المستهدفة لاستخدامها في التدريب واختبار نموذج التعلم العميق. هناك مستشعران رئيسيان تم تنفيذهما في هذا العمل: Retina-4F كجهاز تصوير راداري رباعي الأبعاد وكاميرا أحادية. تتم معالجة البيانات الواردة من كلا المستشعرين مسبقًا باستخدام DBSCAN وYOLOv7. يعمل Retina-4F بتردد 77 جيجاهرتز، وتم إجراء الاختبار في منطقتين مختلفتين على الطريق. بعد إجراء قياسات البيانات في منطقتين لعبور الطرق، تم تمرير البيانات المجمعة للمعالجة المسبقة ومعالجة دمج البيانات. وينتج عن ذلك مجموعة بيانات سحابية نقطية كاملة تحتوي على ما يقرب من 10000 إطار من الصور السحابية النقطية التي يمكن استخدامها للتدريب على الشبكات العصبية واختبارها. أظهر تقييم هذا النموذج أداءً مُرضيًا للشبكة العصبية العميقة في تصنيف أهداف متعددة بنسبة 97 % من الدقة الإجمالية. يظهر نهج دمج بيانات الاستشعار لتصنيف الأهداف المتعددة نتائج جيدة عندما يتمكن من التمييز بين أنواع مختلفة من الأهداف: السيارات والمشاة والحافلات والشاحنات. يمكن تطبيق التصنيف المقترح لسحابة نقاط الرادار باستخدام دمج أجهزة الاستشعار على مجموعة واسعة من تطبيقات المراقبة المعقدة. | |
dc.description.cpsemail | cps2u@iium.edu.my | |
dc.description.degreelevel | Master | |
dc.description.email | yaanashira97@gmail.com | |
dc.description.identifier | Thesis : 4D radar imaging for target detection and classification using deep-learning / by Liyaana Shahirah binti Wan Abd Aziz | |
dc.description.identity | G2116952Liyaanashahirahwanabdaziz | |
dc.description.kulliyah | Kulliyyah of Engineering (KOE) | |
dc.description.nationality | MALAYSIA | |
dc.description.notes | Thesis (MSCIE)--International Islamic University Malaysia, 2025. | |
dc.description.physicaldescription | 1 online resource (xviii, 154 leaves) ; color illustrations. | |
dc.description.programme | Master of Science in Engineering | |
dc.identifier.uri | https://studentrepo.iium.edu.my/handle/123456789/33146 | |
dc.language.iso | en | |
dc.publisher | Kuala Lumpur : Kulliyyah of Engineering, International Islamic University Malaysia, 2025 | |
dc.rights | OWNED BY STUDENT | |
dc.title | 4D radar imaging for target detection and classification using deep-learning | |
dc.type | master thesis | |
dspace.entity.type | Publication | |
oairecerif.author.affiliation | #PLACEHOLDER_PARENT_METADATA_VALUE# |