Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 70 dokumen yang sesuai dengan query
cover
Farah Nazihah
"

Perawatan Metode Kanguru (PMK) terhadap Bayi Berat Lahir Rendah (BBLR) di Indonesia belum diterapkan sesuai dengan yang dianjurkan oleh WHO. Hal ini disebabkan oleh kurangnya dukungan dari pihak rumah sakit dalam memberikan pengetahuan dan keterampilan untuk melakukan PMK. Dalam Tugas Akhir ini, dikembangkan aplikasi bernama Hug-a-Baby untuk memberikan edukasi kepada Ibu dengan Bayi Berat Lahir Rendah (BBLR) dalam melakukan Perawatan Metode Kanguru (PMK). Proses pengembangan aplikasi ini menerapkan konsep agile development. Untuk merancang fitur-fitur yang sesuai dengan kebutuhan ibu pasien BBLR, dilakukan analisis kebutuhan pengguna dengan metode User Centered Design. Evaluasi rancangan fitur aplikasi dilakukan dengan usability testing. Revisi dilakukan berdasarkan hasil usability testing. Setelah rancangan desain difinalisasi, pengembangan aplikasi dilakukan berdasarkan kebutuhan pengguna yang sudah diperoleh melalui pendekatan Cross-compiler Application Development dengan React Native Expo framework. Hasil pengembangan aplikasi diuji dengan Alpha Testing sebagai bagian dari User Acceptance Testing dengan menggunakan pendekatan pembuatan studi kasus Requirement Based. Hasil pengujian User Acceptance Testing menyatakan bahwa aplikasi yang telah dikembangkan sesuai dengan kebutuhan pengembangan produk dan siap digunakan oleh pengguna.


Kangaroo Mother Care (KMC) for Low Birth Weight Babies (LBW) in Indonesia has not been implemented as recommended by WHO. This is due to the lack of support from the hospital in providing knowledge and skills to carry out PMK. In this Final Project, an application called Hug-a-Baby is developed to educate mothers with Low Birth Weight Babies (LBW) in carrying out Kangaroo Mother Care (KMC). This application development process applies the concept of agile development. To design features that suit the needs of mothers with LBW patients, user needs are analyzed using the User Centered Design method. Evaluation of the application feature design is carried out by usability testing. Revisions were made based on the results of usability testing. After the design has been finalized, the application is developed based on user needs with Cross-compiler Application Development approach using React Native Expo framework. The application is tested by Alpha Testing as part of User Acceptance Testing using a Requirement Based case study approach. The results of the User Acceptance Testing test state that the applications that have been developed are in accordance with the product requirement and ready to use by users.

"
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Tumbuan, Ahmad Irfan Luthfi
"Salah satu analisis yang dapat dilakukan untuk mendeteksi adanya gangguan perkembangan anak adalah dengan membandingkan umur skeletal dengan umur nyata dari anak. Umur skeletal dapat dicari dengan melihat umur tulang tangan. Metode penilaian umur tulang dapat dilakukan dengan pendekatan artificial intellgence. Dengan adanya AI diharapkan dapat mengotomatisasi perhitungan umur tulang berdasarkan citra X-Ray tulang tangan anak. Salah satu metode yang dapat digunakan untuk melakukan prediksi umur tulang adalah deep learning menggunakan arsitektur Convolutional Neural Network (CNN). Model CNN dapat melakukan berbagai hal, seperti segmentasi semantik, key point detection dan regresi. Hasil pengujian menunjukkan bahwa dengan menggunakan preprocessing berupa segmentasi semantik, key point detection dan transformasi z-score terhadap umur tulang berhasil mendapatkan nilai RMSE 10.076 bulan dan MAE 7.735 bulan, lebih kecil jika dibandingkan dengan human-level performance yang memiliki MAE 8.76 bulan

One method of analysis that can be done to detect growth hormone deficiency is to compare the skeletal age to the real age of the child. The skeletal age of a subject can be found by estimating the hand bone age. The estimation of hand bone age can be done using artificial intelligence approach. With the presence of AI, we can automate the estimation of bone age using X-Ray images of a child’s hand. One method that we can use to estimate bone age is deep learning using Convolutional Neural Network (CNN) architecture. CNN can do many things, such as semantic segmentation, key point detection, and regression. We found that using preprocessing such as semantic segmentation, key point detection and z-score transformation of the bone age can achieve 10.076 months RMSE and 7.735 months MAE, that is lower than the human-level performance which has 8.76 months MAE."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2022
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Inez Amandha Suci
"Online collaboration tools adalah aplikasi yang mendukung penggunanya untuk bekerja sama dengan rekan kerja atau tim dalam menyelesaikan pekerjaan dengan fungsinya antara lain dapat digunakan untuk berdiskusi & berkomunikasi, menyimpan proyek bersama, serta mengerjakan proyek secara bersama-sama. Pada Maret 2020, pandemi COVID-19 telah masuk ke Indonesia yang menyebabkan adanya kebijakan pembatasan sosial dengan salah satu kebijakannya adalah perubahan dari work from office menjadi work from home untuk beberapa perusahaan. Pada masa tersebut, penggunaan online collaboration tools untuk bekerja pun meningkat karena sebagai salah satu alternatif agar tetap bisa bekerja sama dengan tim. Penelitian ini bertujuan untuk menganalisis faktor-faktor yang memengaruhi pengguna dalam bekerja menggunakan online collaboration tools di saat masa pandemi COVID-19 telah berakhir dan untuk memprediksi apakah pengguna masih tetap melanjutkan penggunaannya. Penelitian ini mengadopsi teori technology affordance, task technology fit dan post acceptance model. Model penelitian meliputi 1) technology affordance (collaborative affordance, communication affordance, sharing resources affordance), 2) task-technoogy fit (utilization, task characteristics, perceived task technology fit), 3) post acceptance model (confirmation, perceived usefulness, satisfaction, continuance intention). Analisis data dilakukan menggunakan metode PLS-SEM dengan 404 responden valid. Hasil analisis nya menemukan bahwa faktor technology affordance, task-technology fit, confirmation, perceived usefulness, dan satisfaction membawa pengaruh terhadap intensi pengguna dalam melanjutkan penggunaan. Penelitian ini memberikan implikasi teoreties karena ada nilai keterbaruan dalam konteks online collaboration tools, serta implikasi praktis bagi pengembang aplikasi dan perusahaan tempat bekerja yang akan atau sedang menggunakan online colaboration tools.

Online Collaboration Tools is an application that supports its users to work together with colleagues or a team in completing work with its functions, being used to discuss & communicate, save projects, and work on projects together. In March 2020, the COVID-19 pandemic entered Indonesia which resulted in a social violation policy with one of the policies being a change from working from the office to working from home for several companies. At that time, the use of online collaboration tools for work also increased because it was an alternative to being able to work with the team. This study aims to analyze the factors that influence users to work using online collaboration tools when the COVID-19 pandemic has ended and to predict whether users will continue to use them. This study adopts the theory of technology affordances, task technology fit, and post acceptance model. The research model includes 1) technology affordances (collaborative affordance, communication affordance, sharing resources affordance), 2) task-technology fit (utilization, task characteristics, perceived task technology fit), 3) post-acceptance model (confirmation, perceived usefulness, satisfaction, continuance intention). Data analysis was carried out using the PLS-SEM method with 404 valid respondents. The results of the analysis found that technology affordance, task-technology fit, confirmation, perceived usefulness, and satisfaction factors influenced the user’s intention to continue using it. This research provides theoretical implications because there is a novelty value in the context of online collaboration tools, as well as practical implications for application developers and workplace companies that will or are currently using online collaboration tools."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2022
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Yudhistira Erlandinata
"Korpus relasi semantik dapat menunjang berbagai penelitian di bidang pengolahan bahasa manusia. Untuk Bahasa Indonesia, korpus relasi semantik yang berukuran besar dan berkualitas baik masih belum tersedia. Korpus relasi semantik dapat dibuat secara manual dengan melibatkan anotator dan juga dapat dihasilkan secara otomatis menggunakan algoritma rule-based atau machine learning. Penelitian ini bertujuan untuk mengevaluasiseberapa baik kualitas korpus relasi semantik Bahasa Indonesia, khususnya relasi hiponim-hipernim, apabila dibangun dengan pendekatan machine learning dan metode crowdsourcing yang menerapkan gamifikasi. Algoritma pattern-based yang sebelumnya pernah diteliti untuk Bahasa Indonesia akan digunakan untuk menghasilkan data training algoritma machine learning dan kandidat entri korpus untuk dianotasi dengan metode crowdsourcing. Kualitas korpus hasil metode crowdsourcing diukur berdasarkan tingkat persetujuan antar anotator dan diperoleh hasil yang cukup baik walaupun belum sempurna. Untuk pendekatan machine learning, beberapa model
machine learning yang diterapkan masih belum memberikan hasil optimal karena
keterbatasan resource.
Kata kunci: relasi semantik, hiponim-hipernim, crowdsourcing, gamifikasi, machine
learning, pattern-based

Semantic relations corpus is vital to support research in the field of Natural Language
Processing. Currently, there is no existing corpus of semantic relations in Indonesian
language which is enormous and high-quality. The corpus can be constructed manually
by employing human annotators or built automatically using rule-based or machine
learning algorithms. This research aims to evaluate the quality of Indonesian hyponym-
hypernym semantic relations corpus that is produced by crowdsourcing mechanism with
gamification, and to test the model for semantic relations prediction using machine
learning algorithms. The pattern-based method is applied to obtain the training data for
machine learning experiments and corpus entry candidates to be annotated using the
crowdsourcing method. The quality of the crowdsourced corpus is measured using inter-
annotator agreement. The experimental result shows that the gamification-based
crowdsourcing method is promising to produce the corpus. On the other hand, machine
learning models tested in this research have not given optimal results yet due to the
limitations of the lexical resources in Indonesian language.
"
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2021
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Mika Dabelza Abi
"Hasil rekaman kamera ponsel rentan memiliki blur terutama jika ada objek bergerak seperti rekaman bahasa isyarat. Hal tersebut membuat usaha untuk melakukan interpretasi bahasa isyarat pada rekaman kamera ponsel menjadi terhambat karena terjadi blur pada bagian tangan peraga bahasa isyarat. Penelitian ini berusaha melakukan perbaikan hasil rekaman peragaan bahasa isyarat yang direkam dengan kamera ponsel menggunakan partial deblur dan DeblurGANv2. Partial Deblur adalah metode deblur yang dikembangkan dalam penelitian ini untuk menghindari melakukan deblur pada bingkai utuh melainkan hanya melakukan deblur pada bagian bingkai yang blur karena pergerakan objek (partial) demi mengurangi waktu deblur. Partial Deblur bekerja dengan mencari partial berdasarkan pergerakan dari dua buah bingkai berdekatan dalam satu sekuens bingkai yang sama. Partial yang telah didapatkan kemudian dilakukan deblur menggunakan DeblurGANv2 dengan pretrained model. Setelah Partial Deblur selesai dikembangkan, performanya dibandingkan dengan deblur bingkai utuh menggunakan DeblurGANv2. Performa yang dibandingkan adalah peningkatan skor blur, waktu yang dibutuhkan untuk deblur, dan analisis subjektif hasil deblur kedua metode. Hasil eksperimen menunjukkan bahwa Partial Deblur berhasil mendapatkan partial yang berisi bagian bingkai yang blur karena pergerakan objek dan peningkatan skor blur bingkai dari deblur bingkai menggunakan DeblurGANv2 hampir sama dengan peningkatan skor blur partial dari Partial Deblur. Selain itu, waktu rata-rata yang dibutuhkan Partial Deblur untuk memproses suatu sekuens hanya 1/8 kali dari pada menggunakan deblur bingkai dengan DeblurGANv2. Namun, hasil analisis subjektif terhadap hasil deblur menunjukkan bahwa DeblurGANv2 yang digunakan untuk melakukan deblur partial dalam metode partial deblur dan deblur bingkai belum berhasil memperbaiki bagian yang blur karena pergerakan objek.

Video recordings of smartphone cameras are susceptible to blur, especially if exist a fast-moving object like sign language video recordings. Blurs in the area of hands of sign language demonstrator will result in inaccuracies when in the attempt of sign language interpretation using the developed smartphone app. This study tries to improve the results of the sign language demonstration recorded with a smartphone camera using Partial Deblurring and DeblurGANv2. Partial Deblurring is a deblurring method that was developed in this research to avoid doing deblur on the whole frame but only doing deblur parts of the frame that is blurry due to object movement (partial) in order to reduce time cost. Partial Deblurring works by finding partials based on the movement of two adjacent frames in the same frame sequence. Partials that have been obtained are then deblurred using DeblurGANv2 with a pretrained model. After Partial Deblurring has been developed, its performance is compared to full-frame deblurring using DeblurGANv2. The performance compared is the increase in the blur score (using variance of laplacian), time cost for deblur, and subjective analysis of the results of the deblur of the two methods. The experimental results show that Partial Deblurring managed to obtain partials that contain parts of the frame that is blurred due to object movement, and the increase of blur score in the area being deblurred is almost the same as that of full-frame deblurring. In addition, the average time required for Partial Deblurring to process a sequence of frames is only 1/8 times that of using full-frame deblurring. However, the results of the subjective analysis show that the DeblurGANv2 used to perform deblurring in the Partial Deblurring and full-frame deblurring methods has not succeeded in correcting the blurred parts where extreme movements happen."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2021
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Moh. Faisal
"Bahasa Isyarat Indonesia (BISINDO) merupakan salah satu bahasa isyarat yang banyak digunakan kaum Tuli di Indonesia karena dianggap lebih alami sehingga lebih mudah digunakan. BISINDO digunakan kaum Tuli untuk berkomunikasi dengan orang lain dalam kegiatan sehari-harinya. Namun, pada kenyataannya, masih banyak orang yang belum mengerti bahasa isyarat. Hal tersebut menjadi kendala bagi orang Tuli untuk berkomunikasi dengan orang dengar dan sebaliknya. Perkembangan teknologi yang semakin maju memberikan suatu solusi untuk masalah tersebut. Pada penelitian ini akan dikembangkan model untuk mengenali gerakan isyarat BISINDO dengan menggunakan MobileNetV2 dan Long Short-Term Memory (LSTM). MobileNetV2 digunakan pada tahap feature extraction sedangkan LSTM digunakan pada tahap klasifikasi gerakan isyarat. Dataset yang digunakan pada penelitian ini berupa video 40 kalimat yang direkam dengan menggunakan kamera smartphone dan diperagakan oleh empat orang Tuli dari Laboratorium Riset Bahasa Isyarat FIB UI (LRBI FIB UI). Terdapat tahapan preprocessing untuk mendapatkan bagian tangan dan wajah yang merupakan fitur penting untuk membedakan gerakan isyarat. Penelitian ini menghasilkan model LSTM 1-layer bidirectional sebagai model terbaik dengan akurasi tertinggi sebesar 91,53%.

Indonesian Sign Language (BISINDO) is a sign language that is widely used by deaf people in Indonesia because it is a natural language and therefore it is easier to use. BISINDO is used by deaf people to communicate in their daily activities. However, in reality, there are many people who do not understand sign language. This becomes a problem for deaf people to communicate with hearing people and vice versa. Nowadays, the development of technology is more advanced give a solution to this problem. In this research, a model will be developed to recognize BISINDO gestures using MobileNetV2 and Long Short-Term Memory (LSTM). MobileNetV2 will be used in a feature extraction stage while LSTM will be used in the gesture classification stage. The dataset used in this study is a video recording of 40 sentences recorded using a smartphone camera and it was demonstrated by four deaf people from the research laboratory of sign language FIB UI (LRBI FIB UI). There is a preprocessing stage to get the hand and facial parts which are important features for distinguishing the gesture of sign language. Then, the result of this study is a model LSTM 1-Layer Bidirectional as the best model with the highest accuracy is 91,53%."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2021
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Fathan Muhammad
"Pengenalan wajah adalah permasalahan fundamental di computer vision. Salah satu solusi permasalahan ini adalah pembelajaran metrik, yang dapat dilakukan dengan metode deterministik atau metode probabilistik. Penelitian ini bertujuan untuk menggabungkan keunggulan model deterministik Proxy Anchor dengan model probabilistik Probabilistic Face Embeddings menjadi suatu model usulan ProxyPE. Selain itu, kami juga mengusulkan kerangka alur prapemrosesan citra wajah untuk citra masukan melalui restorasi wajah dengan GFP-GAN. Dataset citra wajah yang digunakan pada penelitian ini adalah dataset Labelled Faces in the Wild. Pengujian pada model ProxyPE menunjukkan hasil evaluasi yang lebih unggul dengan MAP@R sebesar 8.28, dibandingkan dengan model Probabilistic Face Embeddings dengan MAP@R sebesar 4.58, namun belum sebaik model Proxy Anchor dengan dengan MAP@R sebesar 18.75. Selanjutnya, peningkatan kualitas citra melalui restorasi wajah dengan GFP-GAN secara umum meningkatkan kinerja model usulan. Pengenalan wajah pada ProxyPE yang didahului prapemrosesan citra wajah tersebut menunjukkan peningkatan kinerja dengan MAP@R sebesar 8.74. Secara umum, model usulan ProxyPE dapat mengenali wajah dengan lebih baik daripada Probabilistic Face Embeddings dengan dan tanpa GFP-GAN.

Face recognition is a fundamental problem in computer vision. One solution to this problem is metric learning, that can be done with deterministic methods or probabilistic methods. This research aims to combine the advantages of the deterministic Proxy Anchor model and the Probabilistic Face Embeddings model, into the proposed ProxyPE model. In addition, we also propose an image preprocessing framework for input images by restoring faces using GFP-GAN. The dataset of face images used in this research is the Labelled Faces in the Wild dataset. Evaluation on the ProxyPE model shows better results with MAP@R of 8.28, compared to the Probabilistic Face Embeddings model’s MAP@R of 4.58, but not as good as the Proxy Anchor model’s MAP@R of 18.75. Furthermore, improving image quality through face restoration with GFP-GAN generally improves our model’s performance. Face recognition on ProxyPE preceded by preprocessing face images results in a performance improvement with MAP@R of 8.74. Overall, the proposed ProxyPE model achieves better performance than Probabilistic Face Embeddings with and without GFP-GAN."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Aldo Bima Syahputra
"SHACL constraints checking merupakan proses validasi suatu RDF data graph terhadap suatu SHACL shapes graph. Pengembangan SHACL constraints checking pada umumnya menggunakan rule engine yang tertanam di dalam inti implementasinya. Penelitian ini bertujuan untuk menginvestigasi apakah program SHACL constraints checking dapat dibangun di atas rule engine yang independen. Penelitian ini dilakukan dengan melakukan implementasi pembuatan program SHACL constraints checking yang dibangun di atas rule engine Vertical Datalog (VLog). Program yang diimplementasikan pada penelitian ini dibangun menggunakan bahasa pemrograman Java serta menggunakan library Rulewerk dan Apache Jena. Berdasarkan implementasi yang telah dilakukan, program SHACL constraints checking dapat dibangun di atas rule engine VLog dengan melakukan serangkaian transformasi SHACL shapes graph dan RDF data graph menjadi rule syntax. Namun, pada penelitian ini program SHACL constraints checking yang dibangun hanya dapat memvalidasi SHACL Constraint sh:class, sh:datatype, sh:nodeKind,sh:minCount, sh:maxCount, sh:equals, sh:disjoint, sh:not, sh:and, sh:or, sh:xone, sh:node, sh:property. SHACL constraint lainnya tidak dapat diimplementasikan karena membutuhkan operasi regex dan perbandingan antar literal yang sulit untuk ditranslasi menjadi rule syntax.

SHACL constraints checking is a process to validate an RDF data graph againts a SHACL shapes graph. The development of SHACL constraints checking program usually use rule engine embedded on its own implementation. This research was aimed to investigate whether SHACL constraints checking program can be built on top of independent rule engine or not. This research will conduct the implementation of building SHACL constraints checking program on top of VLog Rule Engine. The program implemented in this research was built in Java programming language and was using Rulewerk and Apache Jena library. According to the implementation conducted in this research, SHACL constraints checking program can be built on top of VLog rule engine by transforming SHACL shapes graph and RDF data graph into rule syntax. But, the program can only validate SHACL constraint as follows: sh:class, sh:datatype, sh:nodeKind,sh:minCount, sh:maxCount, sh:equals, sh:disjoint, sh:not, sh:and, sh:or, sh:xone, sh:node, sh:property. Other SHACL constraints cannot be implemented in this research because those SHACL constraints requires regex operation and literal comparation which hard to be transformed into rule syntax."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2021
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Fadli Aulawi Al Ghiffari
"Penelitian ini bertujuan untuk membangun model dependency parser untuk bahasa Jawa menggunakan pendekatan cross-lingual transfer learning. Metode transfer learning dipilih untuk mengatasi kurangnya dataset yang tersedia untuk proses training model pada bahasa Jawa yang merupakan low-resource language. Model dibangun menggunakan arsitektur encoder-decoder, tepatnya menggunakan gabungan dari self-attention encoder dan deep biaffine decoder. Terdapat tiga skenario yang diuji yaitu model tanpa transfer learning, model dengan transfer learning, dan model dengan hierarchical transfer learning. Metode transfer learning menggunakan bahasa Indonesia, bahasa Korea, bahasa Kroasia, dan bahasa Inggris sebagai source language. Sementara metode hierarchical transfer learning menggunakan bahasa Prancis, bahasa Italia, dan bahasa Inggris sebagai source language tahap satu, serta bahasa Indonesia sebagai source language tahap dua (intermediary language). Penelitian ini juga mengujikan empat word embedding yaitu fastText, BERT Jawa, RoBERTa Jawa, dan multilingual BERT. Hasilnya metode transfer learning secara efektif mampu menaikkan performa model sebesar 10%, di mana model tanpa transfer learning yang memiliki performa awal unlabeled attachment score (UAS) sebesar 75.87% dan labeled attachment score (LAS) sebesar 69.04% mampu ditingkatkan performanya hingga mencapai 85.84% pada UAS dan 79.22% pada LAS. Skenario hierarchical transfer learning mendapatkan hasil yang lebih baik daripada transfer learning biasa, namun perbedaannya tidak cukup signifikan.

This research aims to develop a Javanese dependency parser model using a cross-lingual transfer learning approach. The transfer learning method was chosen to overcome the lack of available datasets for the model training process in Javanese, a low-resource language. The model uses an encoder-decoder architecture, precisely combining a self-attention encoder and a deep biaffine decoder. Three scenarios are experimented with: a model without transfer learning, a model with transfer learning, and a model with hierarchical transfer learning. The transfer learning process uses Indonesian, Korean, Croatian, and English as source languages. In contrast, the hierarchical transfer learning process uses French, Italian, and English as the first-stage source languages and Indonesian as the second-stage source language (intermediary language). This research also experimented with four word embedding types: fastText, Javanese BERT, Javanese RoBERTa, and multilingual BERT. The results show that the transfer learning method effectively improves the model’s performance by 10%, where the model without transfer learning has an initial unlabeled attachment score (UAS) performance of 75.87% and labeled attachment score (LAS) of 69.04% can be increased to 85.84% in UAS and 79.22% in LAS. Hierarchical transfer learning has a slightly better result than standard transfer learning, but the difference is insignificant."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Femilia Hardina Caryn
"Salah satu faktor manusia yang dapat menyebabkan kecelakaan lalu lintas adalah pengemudi yang mengantuk dan tidak fokus pada jalan yang ada di hadapannya. Tanda-tanda pengemudi yang mengantuk dapat diamati berdasarkan tiga pengukuran, yaitu uji kinerja, uji fisiologis, dan uji perilaku. Karena uji fisiologis dan kinerja cukup sulit dan mahal untuk dilaksanakan, maka uji perilaku masih menjadi pilihan yang baik untuk digunakan dalam mendeteksi rasa kantuk sejak dini. Salah satu perilaku manusia yang bisa diamati untuk mendeteksi kantuk adalah gerakan mata. Oleh karena itu, penelitian ini akan merancang suatu model untuk mendeteksi rasa kantuk pengemudi secara otomatis berdasarkan uji perilaku yang menganalisis aktivitas mata. Model yang diusulkan akan mendeteksi area mata dan kedipan berdasarkan citra wajah pengemudi menggunakan model deep learning Mask Region Convolutional Neural Network (Mask R-CNN). Kemudian, data kedipan dari masing-masing urutan gambar akan dikalkulasi menggunakan Percentage of Eyelid Closure (PERCLOS) untuk mendeteksi apakah pengemudi dalam keadaan mengantuk atau waspada. Hasil dari penelitian ini menunjukkan hasil akurasi sebesar 0,70. Selain itu, diperoleh nilai precision, recall, dan F1 score dari model Mask R-CNN yaitu 0,667 untuk precision, 0,80 untuk recall, serta 0,727 untuk F1 score.

One of the human factors that can cause traffic accidents are the drowsy drivers that do not focus on the road before them. The signs of a drowsy driver can be observed based on three measurements; performance test, physiological test, and behavioural test. Since the physiological and performance test are quite difficult and expensive to implement, the behavioural test is still a good choice to use for detecting early drowsiness. One of the human behaviours that can be observed is the eye movement. Therefore, this study will design a model for automatically detecting driver drowsiness based on a behavioural test, which analyses the eye activity. The proposed model will detect the eye area and state based on drivers’ face images using Mask Region Convolutional Neural Network (Mask R-CNN) deep learning model. Then, the blink data from each image sequence will be calculated using Percentage of Eyelid Closure (PERCLOS) to detect whether the driver is in a drowsy or alert state. The result of this research shows an accuracy score of 0,70. Besides that, the precision, recall, and F1 score are also obtained from the Mask R-CNN model, namely 0,667 for precision, 0,80 for recall, and 0,727 for F1 score."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2022
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
<<   1 2 3 4 5 6 7   >>