Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 6 dokumen yang sesuai dengan query
cover
Angela Jane Seasar Putri
Abstrak :
Proteinuria merupakan indikator adanya penyakit gagal ginjal yang ditandai dengan konsentrasi protein yang tinggi pada urine. Urine manusia dengan konsentrasi protein melebihi 0,15 g/L dianggap abnormal dan dapat diindikasikan sebagai penderita proteinuria. Secara berkolerasi, tingginya konsentrasi protein dalam urine menyebabkan pH urine semakin rendah dan specific gravity urine semakin tinggi. Beberapa tahun terakhir, dikembangkan sistem urinalisis berbasis deep learning menggunakan citra ponsel pintar. Namun, sistem ini hanya mampu memprediksi satu kadar analit urine tertentu, sesuai dengan target yang ditentukan. Pada penelitian ini, dikembangkan sistem urinalisis multi-output berbasis citra kamera ponsel pintar menggunakan model ResNet50 yang mampu melakukan pengukuran terhadap kadar protein, pH, dan specific gravity urine secara serentak. Urinalisis dilakukan dengan memanfaatkan kolorimetri pada strip uji celup urine URIT 11G. Citra strip uji dan papan warna referensi (X-Rite ColorChecker) diambil menggunakan kamera ponsel pintar, kemudian diproses menjadi bentuk barcode uji. Barcode uji digunakan sebagai input model dengan output berupa prediksi kadar analit dalam urine. Hasil penelitian ini menunjukkan bahwa model urinalisis multi-output berhasil dibangun menggunakan arsitektur CNN ResNet50 dengan akurasi sebesar 96,63% pada output klasifikasi serta mampu melakukan prediksi kadar analit secara regresi dengan performa R2 dan RMSE berturut-turut sebesar 0,9487 dan 0,0951. Performa tersebut menunjukkan bahwa sistem urinalisis multi-output berhasil dibangun dengan performa yang dapat bersaing dengan model urinalisis single-output, secara lebih efisien karena hanya menggunakan satu model ResNet50 untuk menghasilkan 6 output prediksi berbeda. ......Proteinuria is an indicator of kidney disease characterized by high protein concentration in urine. Human urine with protein concentration exceeding 0.15 g/L is considered abnormal and indicative of proteinuria. Correlatively, elevated protein concentration in urine leads to lower urine pH and higher specific gravity. In recent years, a deep learning-based urinalysis system using smartphone images has been developed. However, these systems are only capable of predicting a specific analyte level in urine according to predetermined targets. In this study, a multi-output urinalysis system based on smartphone camera images was developed using the ResNet50 model. This system is capable of simultaneously measuring protein, pH, and specific gravity levels in urine. Urinalysis was conducted using colorimetry on URIT 11G urine dipstick tests. Images of the dipstick tests and reference color board (X-Rite ColorChecker) were captured using a smartphone camera and processed into test barcodes. The test barcodes were used as inputs for the model, which generated predictions of analyte levels in urine as outputs. The results of this study demonstrate that a multi-output urinalysis model was successfully built using the ResNet50 CNN architecture. It achieved an accuracy of 96.63% in classification output and was able to predict analyte levels through regression with R2 and RMSE performances of 0.9487 and 0.0951, respectively. These performances indicate that the multi-output urinalysis system was successfully developed with competitive performance compared to single-output urinalysis models, but with greater efficiency as it only utilized one ResNet50 model to generate six different prediction outputs.
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Merlin Wijaya
Abstrak :
Penyakit glaukoma ditandai dengan hilangnya serabut saraf optik dan astrosit. Kehilangan ini dapat diperiksa dengan mengukur ketebalan neuro-retinal rim dan ukuran optic cup sehubungan dengan optic disc. Namun, penentuan glaukoma masih membutuhkan pemeriksaan mata lengkap oleh dokter mata. Beberapa metodologi otomatis berdasarkan transfer learning deep convolutional neural network untuk klasifikasi glaukoma telah dikembangkan. Untuk meningkatkan akurasi dari penelitian sebelumnya, digunakan metode transfer learning dari metode klasifikasi skin cancer. Arsitektur Inception-v3 dan ResNet50 serta pengklasifikasi serial dari kedua arsitektur tersebut dikembangkan untuk klasifikasi glaukoma otomatis menggunakan citra fundus. Selain arsitektur, variasi splitting dataset dengan metode train-test-split validation serta k-fold cross validation dibandingkan untuk mendapatkan nilai akurasi tertinggi. Berdasarkan hasil penelitian, model terbaik yang didapatkan berupa Inception-v3 dengan metode validasi train-valid-test rasio 80:20 dengan akurasi 95%, presisi 96%, sensitivitas 95%, dan skor-f1 95%. Pembagian 80:20 dipilih karena cocok dengan ukuran dataset yang digunakan. Performa model ini lebih baik dari metode yang telah ada sebelumnya, yaitu Xception dengan peningkatan akurasi sebanyak 2%. ......Glaucoma is characterized by loss of optic nerve fibers and astrocytes. This loss can be checked by measuring the thickness of the neuro-retinal rim and the size of the optic cup in relation to the optic disc. However, the determination of glaucoma still requires a complete eye examination by an ophthalmologist. Several automated methodologies based on transfer learning deep convolutional neural networks for glaucoma classification have been developed. To increase the accuracy of previous research, transfer learning method is used from the skin cancer classification method. The Inception-v3 and ResNet50 architectures also the serial classifiers of the two architectures were developed for automatic glaucoma classification using fundus images. In addition to the architecture, variations of splitting datasets using the train-test-split validation method and k-fold cross validation were compared to get the highest accuracy value. Based on the results of the study, the best model obtained was Inception-v3 with a train-valid-test ratio validation method of 80:20 with 95% accuracy, 96% precision, 95% sensitivity, and 95% f1-score. The 80:20 division was chosen because it matches the size of the dataset used. The performance of this model is better than the previous method, namely Xception with an increase in accuracy of 2%.
Depok: Fakultas Teknik Universitas Indonesia, 2021
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Endang Tri Hastuti
Abstrak :
Coronavirus Disease 2019 (COVID-19) pertama kali diidentifikasi di Wuhan, Thiongkok pada akhir Desember 2019. COVID-19 disebabkan oleh coronavirus baru yaitu The Severe Acute Respiratory Syndrome Coronavirus 2 (SARS-CoV-2). Sejak 11 Maret 2020, WHO secara resmi menyatakan pandemi COVID-19. COVID-19 ini menginfeksi saluran pernapasan manusia yaitu sel epitel alveolus paru-paru yang menyebabkan pneumonia. Dengan bantuan metode dari Deep learning yaitu Convolutional Neural Network (CNN) dapat digunakan dalam mendeteksi kasus COVID-19 melalui tanda-tanda pneumonia pada data citra Chest X-ray. Deteksi dini kasus COVID-19 sangat diperlukan sebagai langkah meminimalkan penularan dan mengurangi resiko kematian pasien. Oleh karena itu, penelitian ini membangun metode CNN transfer learning model DenseNet121, MobileNet dan ResNet50 dengan pendekatan pseudo-colouring (RGB) dalam mengklasifikasi kasus COVID-19 ke dalam tiga kelas yaitu: COVID-19 pneumonia, sehat dan viral pneumonia. Pendekatan pseudo-colouring (RGB) dilakukan pada tahap praproses dengan memanipulasi warna pada data citra Chest X-ray sebagai sarana untuk membantu meningkatkan hasil akurasi, presisi dan sensitivitas. Hasil evaluasi pada terbaik terdapat pada model DenseNet121 menunjukkan peningkatan akurasi total 99%, presisi total 99% dan sensitivitas total 99%. Pada model MobileNet menunjukkan peningkatan pada akurasi total 97%, presisi total 97% dan sensitivitas total 95% dan pada model ResNet50 menunjukkan peningkatan pada akurasi total 97%, presisi total 98% dan sensitivitas total 94%. ......Coronavirus Disease 2019 (COVID-19) was first identified in Wuhan, China at the end of December 2019. COVID-19 is caused by a new coronavirus, namely The Severe Acute Respiratory Syndrome Coronavirus 2 (SARS-CoV-2). Since March 11, 2020, WHO has officially declared a COVID-19 pandemic. This COVID-19 infects the human respiratory tract, namely the alveolar epithelial cells of the lungs which causes pneumonia. With the help of methods from Deep learning, the Convolutional Neural Network (CNN) can be used to detect cases of COVID-19 through signs of pneumonia in Chest X-ray image data. Early detection of COVID-19 cases is important to minimize transmission and reduce the risk of patient death. Therefore, this study builds the CNN transfer learning model DenseNet121, MobileNet and ResNet50 with a pseudo-coloring (RGB) approach in classifying COVID-19 cases into three classes, namely: COVID-19 pneumonia, healthy and viral pneumonia. The pseudo-coloring (RGB) approach at the preprocessing stage by manipulating the colors in the Chest X-ray image data as a means to help improve accuracy, precision and sensitivity results. The evaluation results on the DenseNet121 model showed an increase in total accuracy of 99%, total precision of 99% and total sensitivity of 99%. The MobileNet model showed an increase in total accuracy of 97% , total precision of 97% and total sensitivity of 95% and the ResNet50 model showed an increase in total accuracy of 97%, total precision of 98% and total sensitivity of 94%.
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2021
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Panggabean, Prima Ria Rumata
Abstrak :
Busuk pangkal batang merupakan penyakit utama tanaman kelapa sawit yang disebabkan oleh patogen yaitu jamur Ganoderma sp. terkhusus di Indonesia. Tindakan pengendalian dan metode pengamatan kondisi kelapa sawit yang dilakukan oleh petani secara manual masih belum efektif. Pemanfaatan teknologi drone DJI Air 2S yang dilengkapi kamera RGB (Red, Green, Blue) dapat memberikan solusi untuk pemantauan kondisi kelapa sawit yang lebih efektif menggunakan citra dari hasil perekaman. Kamera RGB masih memiliki kelemahan dalam mendeteksi penyakit kelapa sawit sehingga membutuhkan kamera tambahan dengan variasi panjang gelombang yang berbeda yaitu kamera OCN (Orange, Cyan, NIR). Citra dari hasil perekaman kamera RGB dan OCN memiliki informasi yang dapat digunakan untuk mengidentifikasi penyakit busuk pangkal batang menggunakan citra daun kelapa sawit sehingga membutuhkan metode pengolahan citra yang tepat untuk menggabungkan kedua citra. Metode image fusion dapat menggabungkan informasi dari citra RGB dan OCN sehingga menghasilkan citra baru yang memiliki enam kanal (Red, Green, Blue, Orange, Cyan, NIR). Penelitian ini berfokus untuk membangun metode image fusion (RGB dan OCN) berbasis arsitektur ResNet50 untuk mengidentifikasi penyakit kelapa sawit. Hasilnya didapatkan bahwa metode image fusion berbasis arsitektur ResNet50 dapat digunakan untuk mengidentifikasi penyakit kelapa sawit dengan sangat baik dibuktikan dengan nilai akurasi 99,70%, presisi 98,11%, dan recall 97,19%. ......Stem base rot is a major disease of oil palm caused by the pathogen Ganoderma sp. especially in Indonesia. Control measures and methods of observing the condition of oil palms carried out by farmers manually are still not effective. The use of DJI Air 2S drone technology equipped with an RGB (Red, Green, Blue) camera can provide a solution for more effective monitoring of oil palm conditions using images from recording results. RGB cameras still have weaknesses in detecting oil palm diseases so they need additional cameras with different wavelength variations, namely OCN (Orange, Cyan, NIR) cameras. Images from RGB and OCN camera recordings have information that can be used to identify stem base rot using oil palm leaf images, so an appropriate image processing method is needed to combine the two images. The image fusion method can combine information from RGB and OCN images to produce a new image that has six channels (Red, Green, Blue, Orange, Cyan, NIR). This research focuses on building an image fusion method (RGB and OCN) based on ResNet50 architecture to identify oil palm diseases. It was found that the image fusion method based on ResNet50 architecture can be used to identify oil palm diseases very well as evidenced by the accuracy value of 99.70%, precision of 98.11%, and recall of 97.19%.
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2024
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Noer Fitria Putra Setyono
Abstrak :
SIBI merupakan bahasa isyarat resmi yang digunakan di Indonesia. Penggunaan SIBI seringkali ditemukan permasalahan karena banyaknya gerakan isyarat yang harus diingat. Penelitian ini bertujuan untuk mengenali gerakan isyarat SIBI dengan cara mengekstraksi fitur tangan dan wajah yang kemudian diklasifikasikan menggunakan Bidirectional Long ShortTerm Memory (BiLSTM). Ekstraksi fitur yang digunakan dalam penelitian ini adalah Deep Convolutional Neural Network (DeepCNN) seperti ResNet50 dan MobileNetV2, di mana kedua model tersebut digunakan sebagai pembanding. Penelitian ini juga membandingkan performa dan waktu komputasi antara kedua model tersebut yang diharapkan dapat diterapkan pada smartphone nantinya, dimana model tersebut akan diimplementasikan. Hasil penelitian menunjukkan bahwa penggunaan model ResNet50-BiLSTM memiliki kinerja yang lebih baik dibandingkan dengan MobileNetV2-BiLSTM yaitu 99,89%. Namun jika akan diaplikasikan pada arsitektur mobile, MobileNetV2-BiLSTM lebih unggul karena memiliki waktu komputasi yang lebih cepat dengan performa yang tidak jauh berbeda jika dibandingkan dengan ResNet50-BiLSTM. ......SIBI is a sign language that is officially used in Indonesia. The use of SIBI is often found to be a problem because of the many gestures that have to be remembered. This study aims to recognize SIBI gestures by extracting hand and facial features which are then classified using Bidirectional Long ShortTerm Memory (BiLSTM). The feature extraction used in this research is Deep Convolutional Neural Network (DeepCNN) such as ResNet50 and MobileNetV2, where both models are used as a comparison. This study also compares the performance and computational time between the two models which is expected to be applied to smartphones later, where both models can now be implemented on smartphones. The results showed that the use of ResNet50-BiLSTM model have better performance than MobileNetV2-BiLSTM which is 99.89\%. However, if it will be applied to mobile architecture, MobileNetV2-BiLSTM is superior because it has a faster computational time with a performance that is not significantly different when compared to ResNet50-BiLSTM.
Depok: Fakultas Komputer Universitas Indonesia, 2020
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Ananda Tjakra Adisurja
Abstrak :
Kemajuan teknologi kini mengizinkan manusia untuk mengambil gambar citra termal yang memiliki kemampuan untuk menerima citra termal tanpa perlu adanya cahaya tampak. Hal ini membuat manusia dapat melihat dalam gelap akibat pancaran benda-hitam dari benda-benda yang menghasilkan panas. Dengan menggunakan algoritma Single Shot Detector, dapat dilakukan deteksi objek berupa manusia untuk membedakan laki-laki dengan perempuan. Model SSD dengan berbagai arsitektur seperti MobileNetV1, MobileNetV2 dan ResNet50 digunakan untuk menguji kemampuan deteksi objek kamera termal terhadap kemampuan deteksi objek pada kamera berwarna. Arsitektur model kamera termal dengan nilai mAP dan AR@1 dengan data pengujian terbaik adalah ResNet50 dan untuk arsitektur model deteksi objek kamera berwarna terbaik adalah MobileNet V1 .Kamera termal unggul dalam melakukan deteksi di seluruh rentang kondisi pencahayaan namun kamera berwarna hanya mampu melakukan deteksi di atas intensitas cahaya 42 lux.Kamera berwarna unggul dalam melakukan deteksi dengan nilai inferensi terbaik berada di antara 3 – 15m sedangkan kamera termal memiliki jarak efektif melakukan inferensi di antara 3 – 10m. ......The advancement in imaging technology has come to an era where cameras are now able to capture infrared images. This advancement causes cameras to be able to capture without any visible light spectrum and receive image under the dark due to the black-body radiation phenomena. In conjunction with Single Shot Detector algorithm, it is now possible to detect and clasify thermal images into classes to recognize the gender of a human being as a male or female. The architecture used in the models are MobileNetV1, MobileNetV2 and ResNet50 which are then trained using a custom dataset of thermal images and colour images. The testing dataset shows that ResNet50 is the model with the highest mAP and AR@1 score for thermal model and MobileNetV1 is the model with the highest mAP and AR@1 score for colour model. The other test with varying object distance and varying light instensity shows that thermal image detection models are able to detect object at all lighting condition while the colour image models are only able to detect object above 42 lux. Colour detection models are better at detecting objects at a longer distance from the camera from a distance of 3 – 15 m while the termal models are able to do inference effectively from a distance of 3 – 10 m.
Depok: Fakultas Teknik Universitas Indonesia, 2021
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library