Publication: Development of deep learning model for autism spectrum disorder diagnosis
| cris.virtual.department | #PLACEHOLDER_PARENT_METADATA_VALUE# | |
| cris.virtual.orcid | #PLACEHOLDER_PARENT_METADATA_VALUE# | |
| cris.virtualsource.department | cc78a57f-568b-4b27-9519-65359f29ae48 | |
| cris.virtualsource.orcid | cc78a57f-568b-4b27-9519-65359f29ae48 | |
| dc.contributor.author | Alam, Mohammad Shafiul | |
| dc.contributor.supervisor | Muhammad Mahbubur Rashid | |
| dc.contributor.supervisor | Sher Afgan Khan | |
| dc.contributor.supervisor | Ahmad Jazlan Haja Mohideen | |
| dc.date.accessioned | 2025-05-02T03:02:58Z | |
| dc.date.available | 2025-05-02T03:02:58Z | |
| dc.date.issued | 2025 | |
| dc.description.abstract | The study investigates the application of deep learning-based techniques for Autism Spectrum Disorder (ASD) diagnosis using facial image datasets, aiming to contribute innovative insights to scientific literature. The research focuses on developing a robust framework for ASD diagnosis utilizing Convolutional Neural Networks (CNNs) like Xception, MobileNetV2, and ResNet50V2. A key innovation lies in leveraging facial image features as potential biomarkers to distinguish between ASD and Normal Control (NC) children. This approach is supported by the capacity of deep learning to extract nuanced facial features imperceptible to human observation. The study employs transfer learning via both model-centric and data-centric approaches to analyze datasets, including the Kaggle and YTUIA datasets. Hyperparameter tuning on the Kaggle dataset with the Xception algorithm achieves optimal accuracy of 0.95, surpassing prior studies and establishing benchmark settings. Further employing the method on the YTUIA dataset enhances accuracy performance to 0.965 by ResNet50V2, encompassing a broader demographic range and enriching ASD research by YTUIA. Explainable AI reveals that Xception focuses on central facial regions for ASD diagnosis, while ResNet50V2 and MobileNetV2 rely on peripheral features. To validate findings, the study introduces the UIFID dataset, comprising 130 ASD and Normal control (NC) samples. Models trained on Kaggle and YTUIA exhibit validation accuracies ranging from 0.72 to 0.79 and 0.45 to 0.60, on UIFID respectively, emphasizing the challenge of cross-domain validation. Addressing these limitations, data-centric strategies incorporating pre-processing and augmentation achieve peak accuracies of 0.989 on Kaggle, though declining to 0.823 on UIFID, necessitating enhanced feature generalizability. Advanced deep learning methods, including active learning, federated learning, and ensemble learning, are employed to mitigate domain divergence. Active learning achieves accuracies of 0.80 and 0.773 on combined test set (accumulated from Kaggle and YTUIA) and UIFID datasets, respectively, demonstrating iterative model improvement. Federated learning achieves 0.95 accuracy on combined datasets and addresses ethical concerns, while ensemble learning surpasses all methods with 0.96 accuracy on combined datasets and 0.901 on unseen UIFID data using the Fifty Percent Priority Rule (FPPR) algorithm which enhances ensemble learning by prioritizing models based on validation accuracies. | |
| dc.description.abstractarabic | ملخص البحث تبحث الدراسة في تطبيق تقنيات التعلم العميق لتشخيص اضطراب طيف التوحد (ASD) باستخدام مجموعات بيانات صور الوجه، بهدف المساهمة في تقديم رؤى مبتكرة للأدبيات العلمية. يركز البحث على تطوير إطار قوي لتشخيص اضطراب طيف التوحد باستخدام الشبكات العصبية التلافيفية (CNNs) مثل Xception وMobileNetV2 وResNet50V2 أحد الابتكارات الرئيسية في الاستفادة من سمات صور الوجه كعلامات حيوية محتملة للتمييز بين الأطفال المصابين باضطراب طيف التوحد والأطفال العاديين. ويدعم هذا النهج قدرة التعلم العميق على استخراج سمات وجه دقيقة غير محسوسة للملاحظة البشرية. تستخدم الدراسة التعلم بالتحويل من خلال كل من النهجين المرتكزين على النموذج والمركزين على البيانات لتحليل مجموعات البيانات، بما في ذلك مجموعات بيانات Kaggle وYTUIA. يحقق ضبط المعلمات الفائقة على مجموعة بيانات Kaggle باستخدام خوارزمية Xception دقة مثالية تبلغ 0.95، متجاوزًا الدراسات السابقة وتأسيس إعدادات معيارية. يعمل استخدام الطريقة بشكل أكبر على مجموعة بيانات YTUIA على تعزيز الأداء إلى 0.965 بواسطة ResNet50V2، مما يشمل نطاقًا ديموغرافيًا أوسع ويثري أبحاث اضطراب طيف التوحد بواسطة YTUIA. يكشف الذكاء الاصطناعي القابل للتفسير أن Xception يركز على مناطق الوجه المركزية لتشخيص اضطراب طيف التوحد، بينما يعتمد ResNet50V2 وMobileNetV2 على السمات الطرفية . للتحقق من صحة النتائج، قدمت الدراسة مجموعة بيانات UIFID، التي تتألف من 130 عينة من ASD وعينات التحكم الطبيعية (NC). تُظهر النماذج المدربة على Kaggle وYTUIA دقة تحقق تتراوح من 60 إلى 45 بالمئة، 72 إلى 79 بالمئة ، على UIFID على التوالي، مما يؤكد على تحدي التحقق عبر النطاقات. لمعالجة هذه القيود، تحقق الاستراتيجيات التي تركز على البيانات والتي تتضمن المعالجة المسبقة والزيادة دقة قصوى تبلغ 0.989 على Kaggle، على الرغم من انخفاضها إلى 0.823 على UIFID، مما يستلزم تعزيز إمكانية تعميم الميزات. يتم استخدام أساليب التعلم العميق المتقدمة، بما في ذلك التعلم النشط والتعلم الفيدرالي والتعلم الجماعي، للتخفيف من تباعد النطاقات. يحقق التعلم النشط دقة 0.801 و0.773 في مجموعة الاختبار المجمعة (المتراكمة من Kaggle وYTUIA) ومجموعات بيانات UIFID، على التوالي، مما يدل على تحسن النموذج التكراري. يحقق التعلم الفيدرالي دقة بنسبة 0.95 على مجموعات البيانات المجمعة ويعالج المخاوف الأخلاقية، بينما يتفوق التعلم الجماعي على جميع الطرق بدقة 0.96 على مجموعات البيانات المجمعة و0.901 على بيانات UIFID غير المرئية باستخدام خوارزمية قاعدة الأولوية الخمسين بالمائة (FPPR) التي تعزز التعلم الجماعي من خلال إعطاء الأولوية للنماذج بناءً على دقة التحقق. | |
| dc.description.callnumber | et QA 76.87 A31D 2025 | |
| dc.description.cpsemail | cps2u@iium.edu.my | |
| dc.description.degreelevel | Doctoral | |
| dc.description.email | alam.s@live.iium.edu.my | |
| dc.description.funder | POSTGRADUATE FEE WAIVER SCHEME | |
| dc.description.identifier | Thesis : Development of deep learning model for autism spectrum disorder diagnosis / by Mohammad Shafiul Alam | |
| dc.description.identity | G2119167Mohammadshafiulalam | |
| dc.description.kulliyah | Kulliyyah of Engineering (KOE) | |
| dc.description.nationality | BANGLADESH | |
| dc.description.notes | Thesis (Ph.D)--International Islamic University Malaysia, 2025. | |
| dc.description.physicaldescription | 1 online resource (xx, 188 leaves) ; color illustrations. | |
| dc.description.programme | Doctor of Philosophy in Engineering | |
| dc.identifier.uri | https://studentrepo.iium.edu.my/handle/123456789/32900 | |
| dc.language.iso | en | |
| dc.publisher | Kuala Lumpur : Kulliyyah of Engineering, International Islamic University Malaysia, 2025 | |
| dc.rights | OWNED BY IIUM | |
| dc.subject | Facial image;Deep learning;ASD Diagnosis | |
| dc.subject.lcsh | Neural networks (Computer science) | |
| dc.subject.lcsh | Autism Spectrum Disorder -- Diagnosis | |
| dc.subject.lcsh | Autism in children -- Diagnosis | |
| dc.title | Development of deep learning model for autism spectrum disorder diagnosis | |
| dc.type | Doctoral Theses | |
| dspace.entity.type | Publication | |
| oairecerif.author.affiliation | #PLACEHOLDER_PARENT_METADATA_VALUE# |
Files
Original bundle
1 - 1 of 1
Loading...
- Name:
- G2119167Mohammadshafiulalam_SEC.pdf
- Size:
- 28.26 MB
- Format:
- Adobe Portable Document Format
- Description:
- Full text.
