Publication: Video-based human behaviour recognition using hybrid deep learning
cris.virtual.department | #PLACEHOLDER_PARENT_METADATA_VALUE# | |
cris.virtual.orcid | #PLACEHOLDER_PARENT_METADATA_VALUE# | |
cris.virtualsource.department | c13b7888-b426-4a33-997d-e7a3c8590b51 | |
cris.virtualsource.orcid | c13b7888-b426-4a33-997d-e7a3c8590b51 | |
dc.contributor.author | Jeddah, Mohammed Yunusa | |
dc.contributor.supervisor | Aisha Hassan Abdalla Hashim | |
dc.contributor.supervisor | Othman Omran Khalifa | |
dc.date.accessioned | 2025-05-28T02:19:33Z | |
dc.date.available | 2025-05-28T02:19:33Z | |
dc.date.issued | 2025 | |
dc.description.abstract | The increase in the need for effective surveillance in public places has led to the advancement of deep learning techniques for video-based human action recognition. Identifying anomalous human behaviour in video surveillance is essential for public safety, but existing approaches struggle with diverse real-world situations generalization. Most models employ either small datasets or focus on detecting only a few or certain anomalies, which limits their effectiveness. While others overlook the human action recognition essential model performance evaluation metric. This research addresses these gaps by developing a hybrid deep learning algorithm to improve generalization, scalability, and comprehensive human action recognition in surveillance videos. The research proposes an innovative hybrid deep learning model, IncepEffiGuard, integrating InceptionV3 and EfficientNetB7 for feature extraction, and Bidirectional LSTM (BiLSTM) for sequence modelling. Using a random search approach for hyperparameter tuning, the model was trained and evaluated on the UCF Crime dataset, employing Kaggle's computational resources. With an AUC score of 82.12%, the proposed hybrid algorithm outperformed several baseline models. This suggests better generalization and effectiveness in recognizing a range of suspicious human actions across real-world video surveillance situations. The research has achieved its objective of recognizing suspicious human actions using a hybrid deep learning algorithm. The proposed IncepEffiGuard model addresses the limitations and shortcomings of the current approaches, including poor generalisation, dataset constraints, partial anomaly recognition, and limited evaluation metrics. This model provides the basis for real-world applications, improving the safety and security of the public, and ultimately, contributing to SDG 16. | |
dc.description.abstractarabic | لقد أدى تزايد الحاجة إلى المراقبة الفعالة في الأماكن العامة إلى تقدم تقنيات التعلم العميق للتعرف على تصرفات الإنسان من خلال الفيديو. يعد تحديد السلوك البشري الشاذ في كاميرات المراقبة بالفيديو أمرًا ضروريًا للسلامة العامة، لكن الأساليب الحالية تواجه صعوبة في تعميم المواقف المختلفة في العالم الحقيقي. تستخدم معظم النماذج مجموعات بيانات صغيرة أو تركز على اكتشاف عدد قليل أو معين من الحالات الشاذة، مما يحد من فعاليتها. بينما يتجاهل البعض الآخر مقياس تقييم أداء النموذج الأساسي للتعرف على الفعل البشري. هذا البحث يعالج هذه الثغرات من خلال تطوير خوارزمية هجينة للتعلم العميق لتحسين التعميم، وقابلية التوسع والتعرف الشامل على الفعل البشري في مقاطع فيديو المراقبة. يقترح البحث نموذجًا مبتكرًا للتعلم العميق الهجين يشمل IncepEffiGuard، دمج InceptionV3 وEfficientNetB7 لاستخراج الميزات، وBidirectional LSTM (BiLSTM) لنمذجة التسلسل. ومن خلال استخدام نهج البحث العشوائي لضبط المعلمات الفائقة، تم تدريب النموذج وتقييمه على مجموعة بيانات UCF Crime، باستخدام موارد Kaggle الحسابية. ومع وجود درجة المساحة تحت المنحنى (AUC) بنسبة 82.12%، تفوقت الخوارزمية الهجينة المقترحة على العديد من النماذج الأساسية. ويشير ذلك إلى تعميم وفعالية أفضل في التعرف على مجموعة من التصرفات البشرية المشبوهة عبر مواقف المراقبة بالفيديو في العالم الحقيقي. حقق البحث هدفه المتمثل في التعرف على الأفعال البشرية المشبوهة باستخدام خوارزمية التعلم العميق الهجين. يعالج نموذج IncepEffiGuard المقترح القيود وأوجه القصور في الأساليب الحالية، بما في ذلك سوء التعميم، وقيود مجموعة البيانات، والتعرف الجزئي على الشذوذ، ومقاييس التقييم المحدودة. يوفر هذا النموذج الأساس لتطبيقات العالم الحقيقي، وتحسين سلامة وأمن الجمهور، والمساهمة في النهاية في تحقيق الهدف الـ16 من أهداف التنمية المستدامة.الكلمات الرئيسية: التعرف على العمل البشري القائم على الفيديو، التعلم العميق الهجين، تحليل فيديو المراقبة، اكتشاف الحالات الشاذة، التعلم العميق. | |
dc.description.cpsemail | cps2u@iium.edu.my | |
dc.description.email | yunusmj2@hotmail.com | |
dc.description.funder | INTERNATIONAL EDUCATIONAL SCIENTIFIC AND CULTURAL ORG | |
dc.description.identifier | Thesis : Video-based human behaviour recognition using hybrid deep learning / by Mohammed Yunusa Jeddah | |
dc.description.identity | G1917311Mohammedyunusajeddah | |
dc.description.kulliyah | Kulliyyah of Engineering (KOE) | |
dc.description.nationality | NIGERIA | |
dc.description.notes | Thesis (Ph.D)--International Islamic University Malaysia, 2025. | |
dc.description.physicaldescription | 1 online resource (xvi, 155 leaves) ; color illustrations. | |
dc.description.programme | Doctor of Philosophy in Engineering | |
dc.identifier.uri | https://studentrepo.iium.edu.my/handle/123456789/32965 | |
dc.language.iso | en | |
dc.publisher | Kuala Lumpur : Kulliyyah of Engineering, International Islamic University Malaysia, 2025 | |
dc.rights | OWNED BY STUDENT | |
dc.title | Video-based human behaviour recognition using hybrid deep learning | |
dc.type | doctoral thesis | |
dspace.entity.type | Publication | |
oairecerif.author.affiliation | #PLACEHOLDER_PARENT_METADATA_VALUE# |
Files
Original bundle
1 - 1 of 1
Loading...
- Name:
- G1917311Mohammedyunusajeddah_SEC.pdf
- Size:
- 21.78 MB
- Format:
- Adobe Portable Document Format
- Description:
- Full text.