Publication:
Novel pose estimation algorithm for mobile augmented reality based on inertial sensor fusion

dc.contributor.affiliation#PLACEHOLDER_PARENT_METADATA_VALUE#en_US
dc.contributor.authorAlam, Mir Suhailen_US
dc.contributor.supervisorMalik Arman Morshidi, Ph.Den_US
dc.contributor.supervisorTeddy Surya Gunawan, Ph.Den_US
dc.contributor.supervisorRashidah Funke Olanrewaju, Ph.Den_US
dc.date.accessioned2024-10-08T03:17:39Z
dc.date.available2024-10-08T03:17:39Z
dc.date.issued2022
dc.description.abstractAugmented Reality (AR) applications have become increasingly ubiquitous as it integrates virtual information such as images, 3D objects, video and more to the real world, which further enhances the real environment. AR functions as an interface by superimposing virtual world information on top of the real environment. Moreover, image registration is critical in computer vision. Image registration is widely employed in a variety of applications, including image matching, change detection, 3D reconstruction, mobile robots and more. However, the main concern in the augmented reality is the registration of virtual information, or how to stack the virtual information generated by a computer into a real environment based on its surroundings. Vision-based pose estimation in augmented reality application has been widely investigated. Though, many of the earlier techniques relied on markers, and vision-based registration on mobile devices is currently too computationally expensive and imprecise. The accuracy of vision-based pose estimation approach is degraded due to illumination changes from frame-to-frame image sequence. This may cause jitter in the estimated pose. Many researchers have investigated the pose estimation and augmentation of the 3D virtual object in the physical environment. However, certain loopholes exist in the existing system while estimating the object’s pose, making it inaccurate for Mobile Augmented Reality (MAR) applications. This study proposes to estimate the pose of an object by blending both vision-based technique and MEMS sensor (gyroscope) to minimize the jitter problem in MAR. The algorithm used for feature detection and description is Oriented-FAST Rotated-BRIEF (ORB), whereas to evaluate the homography for pose estimation, Random Sample Consensus (RANSAC) is used. We evaluated the performance of augmenting the 3D object using the both the techniques which includes vision data only and incorporating the sensor data with the vision data. After extensive experiments, the validity of the proposed method was superior to the existing vision-based pose estimation algorithms. The proposed method has proven to be successful in overcoming the problem of jitter in the existing system. The proposed algorithm was benchmarked with two other algorithms, where some shortcoming in the latter were addressed such as computational cost, however, the issues of gyroscope like drift remains limitation.en_US
dc.description.abstractarabicأصبحت تطبيقات الواقع المعزز (AR) منتشرة على نطاق واسع لأنها تدمج العناصر الافتراضية مثل الصور والأشكال ثلاثية الأبعاد والفيديو إلى العالم الحقيقي ، وبالتالي فإن الواقع المعزز يثري التفاعل مع البيئة. يعمل الواقع المعزز كواجهة ، حيث يقوم بتركيب معلومات العالم الافتراضي فوق البيئة الحقيقية. علاوة على ذلك ، يعد تسجيل الصور أمرًا بالغ الأهمية في رؤية الكمبيوتر. يتم استخدام تسجيل الصور على نطاق واسع في مجموعة متنوعة من التطبيقات ، بما في ذلك مطابقة الصور ، واكتشاف التغيير ، وإعادة البناء ثلاثي الأبعاد ، و الروبوتات المتنقلة. ومع ذلك ، فإن العقبة الرئيسية في الواقع المعزز هي تسجيل المعلومات الافتراضية ، بمعنى آخر كيفية تكديس المعلومات الافتراضية التي تم إنشاؤها بواسطة الكمبيوتر في محيط البيئة الحقيقية. تمت دراسة تقدير الوضع القائم على الرؤية في تطبيقات الواقع المعزز على نطاق واسع. على الرغم من أن العديد من التقنيات السابقة كانت تعتمد على العلامات ، إلا أن التسجيل المستند إلى الرؤية على الأجهزة المحمولة يعد حاليًا مكلفًا للغاية وغير دقيق من الناحية الحسابية. تتدهور دقة نهج تقدير الوضع القائم على الرؤية نتيجة لتغيرات الإضاءة من تسلسل صورة من إطار إلى إطار. وهذا بدوره قد يسبب توترًا في الوضع المقدر. درس العديد من الباحثين تقدير الوضع والتكبير البصري للعناصر الافتراضية ثلاثية الأبعاد في البيئة المادية. ومع ذلك ، توجد بعض الثغرات في النظام الحالي أثناء تقدير وضع الكائن ، مما يجعلها غير دقيقة في تطبيقات الواقع المعزز للجوال (MAR). تقترح هذه الدراسة تقدير وضعية المجسم عن طريق دمج مستشعر MEMS (جيروسكوب) بتقنية قائمة على الرؤية لتقليل مشكلة الاهتزاز في MAR. الخوارزمية المستخدمة لاكتشاف الميزات ووصفها هي موجَّهة - سريعة الدوران - موجز (ORB). بينما لتقييم التجانس لتقدير الوضع ، تم استخدام توافق العينة العشوائية (RANSAC). قمنا بتقييم أداء الزيادة المرئية للعنصر ثلاثي الأبعاد باستخدام كل من التقنيات القائمة على الرؤية وبعد دمج بيانات المستشعر مع بيانات الرؤية. بعد تجارب مكثفة ، أصبحت الطريقة المقترحة متفوقة على خوارزميات تقدير الوضع القائمة على الرؤية الحالية. أثبتت الطريقة المقترحة نجاحها في التغلب على مشكلة الاهتزاز في النظام الحالي. تم قياس الخوارزمية المقترحة مقابل خوارزميتين أخريين ، حيث تمت معالجة بعض أوجه .القصور في الخوارزميتين مثل التكلفة الحسابية ، ومع ذلك ، لا تزال مشاكل الجيروسكوب مثل الانجراف دون حل.en_US
dc.description.callnumbert QA 76.9 A94 A318N 2022en_US
dc.description.identifierThesis : Novel pose estimation algorithm for mobile augmented reality based on inertial sensor fusion / by Mir Suhail Alamen_US
dc.description.identityt11100384433MirSuhailAlamen_US
dc.description.kulliyahKulliyyah of Engineeringen_US
dc.description.notesThesis (MSCIE)--International Islamic University Malaysia, 2022.en_US
dc.description.physicaldescriptionxiv, 112 leaves : illustrations ; 30cm.en_US
dc.description.programmeMaster of Science (Computer and Information Engineering)en_US
dc.identifier.urihttps://studentrepo.iium.edu.my/handle/123456789/7077
dc.language.isoenen_US
dc.publisherKuala Lumpur : Kulliyyah of Engineering, International Islamic University Malaysia, 2022en_US
dc.subject.lcshAugmented realityen_US
dc.subject.lcshMobile communication systemsen_US
dc.subject.lcshThree-dimensional imaging -- Techniqueen_US
dc.subject.lcshAlgorithmen_US
dc.titleNovel pose estimation algorithm for mobile augmented reality based on inertial sensor fusionen_US
dc.typeMaster Thesisen_US
dspace.entity.typePublication

Files

Original bundle

Now showing 1 - 2 of 2
Loading...
Thumbnail Image
Name:
t11100384433MirSuhailAlam_24.pdf
Size:
553.85 KB
Format:
Adobe Portable Document Format
Description:
24 pages file
Loading...
Thumbnail Image
Name:
t11100384433MirSuhailAlam_SEC.pdf
Size:
2.46 MB
Format:
Adobe Portable Document Format
Description:
Full text secured file

License bundle

Now showing 1 - 1 of 1
Loading...
Thumbnail Image
Name:
license.txt
Size:
1.71 KB
Format:
Plain Text
Description:

Collections