Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 149793 dokumen yang sesuai dengan query
cover
Faris Zulkarnain S. Hi. Rauf
"Senjata genggam kelas pistol, shoutgun, dan rifle sering digunakan dalam kegiatan kriminal. Sering kali objek senjata-senjata tersebut yang terekam sulit terdeteksi pada keramaian, dikarenakan pengawasan masih dilakukan dengan mata telanjang. Proses deteksi senjata-senjata tersebut pada rekaman bisa dibantu dengan menggunakaan Deep Learning. Dalam hal ini penulis mengusulkan menggunakan Deep Learning untuk mendeteksi senjata dan menentukan jenis senjata api yang terdeteksi. Penelitian ini bertujuan untuk mengimplementasikan Deep Learning pada robot deteksi senjata api berenis handgun, rifle, dan shotgun. Algoritma Deep Learning yang digunakan yaitu YOLO dan EfficientDet. YOLO merupakan salah satu metode pendeteksian objek tercepat dan akurat, mengungguli algoritma pendeteksian lainnya. Namun, algoritma YOLO memerlukan arsitektur komputer yang berat. Oleh karena itu YOLOv3-tiny dan YOLOv4-tiny, versi YOLOv3 yang lebih ringan, dapat menjadi solusi untuk arsitektur yang lebih kecil. Penulis menggunakan 3 versi YOLO yaitu YOLOv3-tiny, YOLOv4-tiny, dan YOLOv7. YOLOv -tiny memiliki FPS tinggi, yang seharusnya akan menghasilkan kinerja lebih cepat. Karena YOLOv-tiny adalah versi modifikasi dari YOLO versi aslinya, maka akurasinya meningkat, dan YOLOv3 sudah mengungguli SSD dan R-CNN yang lebih cepat. Sedangkan YOLOv7 sebagai versi modifikasi terbaru dari YOLO diuji performanya lebih baik dari YOLO versi yang lainnya atau tidak. Selain itu penulis menggunakan algoritma pendeteksian lainnya yaitu EfficientDet untuk pengujian apakah YOLO mengungguli algoritma pendeteksian lainnya. Tujuan lain dari penelitian ini yaitu untuk mengetahui performa training model Deep Learning terbaik yang akan diimplementasikan pada robot deteksi senjata api yang telah dirancang. Robot yang dirancang menggunakan Single Board Computer (SBC) yaitu Raspberry Pi model 4B yang kemudian didesain hingga berbentuk robot mars rover. Studi ini menemukan bahwa model YOLOv4-tiny adalah model Deep Learning yang diaplikasikan ke robot karena hasil training model ini menggungguli dari pada hasil training model Deep Learning lainnya. Nilai parameter hasil training model YOLOv4-tiny antara lain yaitu: mAP 82%, F1 score 78%, dan Avg. loss 0.74. Dengan demikian, studi ini juga berhasil megimplementasikan Deep Learning berbasis YOLO pada robot deteksi senjata api dengan nilai confidence pendeteksian rata-rata 99%. serta berhasil mengklasifikasi kelas jenis senjata yang terdeteksi.

Pistol, shoutgun and rifle class handheld weapons are often used in criminal activities. Often the objects of these weapons that are recorded are difficult to detect in the crowd, because monitoring is still carried out with the naked eye. The process of detecting these weapons in recordings can be assisted by using Deep Learning. In this case the author proposes using Deep Learning to detect weapons and determine the type of firearm detected. This research aims to design a weapon detection and weapon type classification tool based on Deep Learning algorithms. The Deep Learning algorithms used are YOLO and EfficientDet. YOLO is one of the fastest and most accurate object detection methods, outperforming other detection algorithms. However, the YOLO algorithm requires heavy computer architecture. Therefore YOLOv3-tiny and YOLOv4-tiny, lighter versions of YOLOv3, can be a solution for smaller architectures. The author uses 3 versions of YOLO, namely YOLOv3-tiny, YOLOv4-tiny, and YOLOv7. YOLOv -tiny has a high FPS, which should result in faster performance. Because YOLOv-tiny is a modified version of the original YOLO, its accuracy is improved, and YOLOv3 already outperforms faster SSDs and R-CNN. Meanwhile, YOLOv7 as the latest modified version of YOLO is tested whether its performance is better than other versions of YOLO or not. Apart from that, the author uses another detection algorithm, namely EfficientDet, to test whether YOLO outperforms other detection algorithms. Another aim of this research is to determine the performance of the best training model that will be applied to the tool that has been designed. The tool designed using a Single Board Computer (SBC), namely the Raspberry Pi model 4B, was then designed to take the form of a Mars rover robot. This study found that the YOLOv4-tiny model is a Deep Learning model that is applied to robots because the training results of this model are superior to the training results of other Deep Learning models. The parameter values resulting from the YOLOv4-tiny model training include: mAP 82%, F1 score 78%, and Avg. loss 0.74. Thus, this study also succeeded in designing a weapon detection and weapon type classification tool based on a Deep Learning algorithm with an average detection confidence value of 99%. and succeeded in classifying the class of weapons detected."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2023
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Daniel Adi Nugroho
"Dalam rangka melakukan pengendalian alih fungsi lahan pertanian diperlukan kuantifikasi luas dan sebaran lahan sawah, dimana salah satu metode yang efisien dalam pemetaan lahan baku sawah di wilayah tropis adalah dengan melakukan proses klasifikasi lahan baku sawah menggunakan data multitemporal dari citra Synthetic Aperture Radar (SAR). Tujuan utama dari penelitian ini adalah untuk melakukan kajian spasiotemporal perubahan lahan sawah di Kabupaten Indramayu berdasarkan lahan baku sawah tahunan yang diperoleh dari hasil pemanfaatan algoritma Deep Learning, yaitu Long Short-Term Memory (LSTM) untuk melakukan klasifikasi biner sawah dan non-sawah pada data SAR multitemporal dari satelit Sentinel-1. Akurasi hasil dari klasifikasi LSTM dievaluasi terhadap hasil observasi lapangan tahun 2021 sebagai tolok ukurnya, dengan metode klasifikasi tersupervisi lainnya, yaitu Support Vector Machine dan Random Forest, sebagai pembanding. Model LSTM yang didapatkan dalam penelitian ini selanjutnya dipakai untuk melakukan proses klasifikasi data lahan baku sawah tahunan. Hasil penelitian menunjukkan bahwa algoritma LSTM memberikan akurasi klasifikasi tertinggi dibandingkan algoritma SVM dan RF. Kajian spasiotemporal tutupan lahan sawah pada kurun waktu tahun 2017 hingga 2021 menunjukkan bahwa terjadi fluktuasi luasan dan sebaran lahan sawah tiap tahun, dengan tingkat perubahan terbesar pada Kecamatan Tukdana dan Kecamatan Kandanghaur. Berdasarkan kajian literatur sekunder, penambahan lahan sawah yang terkonsentrasi di Kecamatan Tukdana diperkirakan merupakan akibat dari penjarahan lahan perkebunan tebu oleh warga, sedangkan pengurangan lahan sawah yang terkonsentrasi di Kecamatan Kandanghaur diperkirakan merupakan akibat banjir rob yang berkepanjangan.

In order to manage the conversion of agricultural land, it is necessary to quantify the area and distribution of rice fields, where one of the efficient methods in mapping raw rice fields in the tropics is to carry out the process of classifying raw rice fields using multitemporal data from Synthetic Aperture Radar (SAR) images. The main objective of this research is to conduct a spatiotemporal study of changes in paddy fields in Indramayu Regency based on annual rice field map obtained from the use of the Deep Learning algorithm, namely Long Short-Term Memory (LSTM) to perform a binary classification of rice fields and non-rice fields on the data. Multitemporal SAR from the Sentinel-1 satellite. The accuracy of the results of the LSTM classification is evaluated against the results of field observations in 2021 as a benchmark, with other supervised classification methods, namely Support Vector Machine and Random Forest, for comparison. The LSTM model obtained in this study is then used to carry out the process of classifying the annual raw land data for rice fields. The results showed that the LSTM algorithm gave the highest classification accuracy compared to the SVM and RF algorithms. The spatiotemporal study of paddy field cover in the period 2017 to 2021 shows that there are fluctuations in the area and distribution of paddy fields every year, with the largest changes in Tukdana and Kandanghaur sub-districts. Based on a secondary literature review, the addition of rice fields concentrated in Tukdana District is estimated to be the result of looting of sugarcane plantations by residents, while the reduction of rice fields concentrated in Kandanghaur District is estimated to be the result of prolonged tidal flooding."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2022
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Hartina Hiromi Satyanegara
"Serangan MitM ini memiliki dampak yang cukup besar dan dapat membuka jalan untuk serangan selanjutnya, seperti Phishing. Penelitian ini membahas tentang pendekatan metode hybrid deep learning yang dapat membantu pendeteksian serangan MitM secara efektif. Metode hybrid deep learning yang digunakan dalam penelitian ini adalah CNN-MLP dan CNN-LSTM, yaitu merupakan gabungan dari CNN, MLP, dan LSTM. Selain itu, dalam skenario eksperimennya menggunakan berbagai metode feature scaling (StandardScaler, MinMaxScaler, dan MaxAbsScaler) dan tanpa menggunakan metode feature scaling sebelum melakukan pemodelan, yang kemudian akan ditentukan metode hybrid deep learning yang terbaik untuk mendeteksi serangan MitM dengan baik. Dataset yang digunakan dalam penelitian ini yaitu Kitsune Network Attack Dataset (ARP MitM Ettercap). Hasil dari penelitian ini yaitu metode CNN-MLP dengan 10 epoch menggunakan MaxAbsScaler memiliki nilai accuracy tertinggi, yaitu 99.93%. Pada urutan kedua, CNN-MLP dengan 10 epoch menggunakan StandardScaler memiliki nilai accuracy sebesar 99.89%.

Man in the Middle (MitM) has a sizeable impact because it could make the attackers will do another attacks, such as Phishing. This research is discussing about hybrid deep learning methods-approach on detecting MitM attacks effectively. We were used 2 (two) combinations of the Deep Learning methods (CNN, MLP, and LSTM), which are CNN-MLP and CNN-LSTM. Besides that, in the experiment scenarios, we also used various Feature Scaling methods (StandardScaler, MinMaxScaler, and MaxAbsScaler) and without using any Feature Scaling methods before building the models and will determine the better hybrid Deep Learning methods for detecting MitM attack. Kitsune Network Attack Dataset (ARP MitM Ettercap) is the dataset used in this study. The results of this research proves that CNN-MLP that with 10 epoch using MaxAbsScaler has the highest accuracy rate of 99.93%. In second place, CNN-MLP with 10 epoch using StandardScaler has the accuracy rate of 99.89%."
Depok: Fakultas Teknik Universitas Indonesia, 2022
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Lunnardo Soekarno Lukias
"

Dalam kehidupan kita sehari-hari umumnya banyak barang yang kita butuhkan dan gunakan dalam rumah tangga kita. Mulai dari bahan pangan, minuman, barang untuk membersihkan rumah, barang untuk mencuci pakaian, kudapan, dan lain sebagainya, Pada masyarakat kini banyak barang keperluan sehari-hari tersebut kita beli dan jumpai di berbagai tempat mulai dari warung di dekat rumah, supermarket, toko sembako, dan lain sebagainya. Akhir-akhir ini jumlah supermarket dan minimarket mulai menjamur. Pada tahun 2021 jumlah minimarket di Indonesia mencapai 38.323 gerai yang merupakan peningkatan sebanyak 21,7% dibandingkan pada tahun 2017 yakni hanya sebanyak 31.488 gerai saja. Dengan jumlah gerai yang semakin banyak, banyak masyarakat yang semakin banyak menggunakan jasanya untuk mendapatkan barang-barang kebutuhan sehari-hari mereka. Apalagi bila barang yang dibeli juga cukup banyak sehingga akan sulit untuk mendata barang-barang apa saja yang telah dibeli. Untuk memudahkan hal tersebut, penulis mengajukan sebuah solusi untuk membuat sebuah rancangan sistem yang akan memanfaatkan teknologi Deep Learning untuk mendeteksi tulisan pada struk belanja dari hasil pembelian barang pada minimarket. Hasilnya dari pengujian yang sudah dilakukan pada penelitian ini, masing-masing model Deep Learning memiliki tingkat akurasi mAP50 99,4% dan mAP50:95 72,9% untuk YOLOv5, tingkat akurasi mAP50 99,61% dan mAP50:95 65,19% untuk Faster R-CNN, dan tingkat akurasi mAP50 61,77% dan mAP50:95 98,09% untuk RetinaNet. Dimana YOLOv5 memiliki tingkat akurasi mAP50:95 tertinggi yakni 72,9% dan Faster R-CNN memiliki tingkat akurasi mAP50 tertinggi yakni 99,61%. Dimana pada proses implementasi sistem YOLOv5 dan Faster R-CNN berhasil melakukan proses pengenalan sedangkan RetinaNet gagal untuk melakukannya.


In our daily lives, we generally need and use many items in our households. Starting from food ingredients, drinks, household cleaning items, laundry items, snacks, and so on. Nowadays, many of these daily necessities are bought and found in various places such as small shops near our homes, supermarkets, grocery stores, and so on. Recently, the number of supermarkets and minimarkets has increased. In 2021, the number of minimarkets in Indonesia reached 38,323 branches which is an increase of 21.7% compared to 2017 which was only 31,488 branches. With the increasing number of branches, many people are using their services to obtain their daily necessities. Especially when the purchased items are quite a lot so it will be difficult to record what items have been purchased. To facilitate this matter, the author proposes a solution to create a system design that will utilize Deep Learning technology to detect writing on receipts from purchasing items at minimarkets. The results of testing that have been carried out in this study show that each Deep Learning model has an mAP50 accuracy level of 99.4% and mAP50:95 72.9% for YOLOv5, an mAP50 accuracy level of 99.61% and mAP50:95 65.19% for Faster R-CNN, and an mAP50 accuracy level of 61.77% and mAP50:95 98.09% for RetinaNet. YOLOv5 has the highest mAP50:95 accuracy rate at 72.9%, while Faster R-CNN has the highest mAP50 accuracy rate at 99.61%. Where in the implementation process, YOLOv5 and Faster R-CNN systems were able to perform recognition processes while RetinaNet failed to do so."
Depok: Fakultas Teknik Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Ajeng Dwi Asti
"Ujaran kebencian dapat menyebabkan terjadinya konflik dan pembantaian di masyarakat sehingga harus segera ditangani. Indonesia memiliki lebih dari 700 bahasa daerah dengan karakteristik masing-masing. Ujaran kebencian yang ada di Indonesia juga pernah dilakukan menggunakan bahasa daerah. Media sosial Twitter paling sering digunakan dalam menyebarkan ujaran kebencian. Identifikasi target, kategori, serta level ujaran kebencian dapat membantu Polri dan Kemenkominfo dalam menentukan prioritas penanganan ujaran kebencian sehingga dapat meminimalisir dampaknya. Penelitian ini melakukan identifikasi ujaran kasar dan ujaran kebencian beserta target, kategori, dan level ujaran kebencian pada data Twitter berbahasa daerah menggunakan algoritma classical machine learning dan deep learning. Penelitian ini menggunakan data lima bahasa daerah di Indonesia dengan penutur terbanyak yaitu Jawa, Sunda, Madura, Minang, dan Musi. Pada data Bahasa Jawa performa terbaik diperoleh menggunakan algoritma Support Vector Machine (SVM) dengan transformasi data Classifier Chains (CC) serta kombinasi fitur word unigram, bigram, dan trigram dengan F1-score 70,43%. Algoritma SVM dengan transformasi data CC serta kombinasi fitur word unigram dan bigram memberikan performa terbaik pada data Bahasa Sunda dan Madura dengan masing-masing F1-score 68,79% dan 78,81%. Sementara itu, pada data Bahasa Minang dan Musi hasil terbaik diperoleh menggunakan algoritma SVM dengan transformasi data CC serta fitur word unigram dengan F1-score 83,57% dan 80,72%. Penelitian ini diharapkan dapat digunakan sebagai masukan bagi Polri dan Kemenkominfo dalam pembangunan sistem identifikasi ujaran kasar, ujaran kebencian serta target, kategori, dan level ujaran kebencian pada media sosial.

Hate speech can lead to conflict and massacres in society so it must be dealt immediately. Indonesia has more than 700 regional languages with their own characteristics. Hate speech in Indonesia has also been carried out using regional languages. Twitter is the most frequently used social media to spread hate speech. Identification of targets, categories, and levels of hate speech can help the National Police and the Ministry of Communication and Information to determine priorities for handling hate speech to minimize its impact. This study identifies abusive speech and hate speech along with the target, category, and level of hate speech on regional language Twitter data using classical machine learning and deep learning algorithms. This study uses data from five regional languages in Indonesia with the most speakers, namely Javanese, Sundanese, Madurese, Minang, and Musi. In Java language data, the best performance is obtained using the Support Vector Machine (SVM) algorithm with Classifier Chains (CC) data transformation and a combination of unigram, bigram, and trigram word features with an F1-score of 70.43%. The SVM algorithm with CC data transformation and the combination of unigram and bigram word features provides the best performance on Sundanese and Madurese data with F1-scores of 68.79% and 78.81%, respectively. Meanwhile, in Minang and Musi language data, the best results were obtained using the SVM algorithm with CC data transformation and word unigram features with F1-scores of 83.57% and 80.72%, respectively. This research is expected to be used as input for the National Police and the Ministry of Communication and Information in developing a system for identifying harsh speech, hate speech and the target, category, and level of hate speech on social media."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2022
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Muhammad Fauzi Rahmad
"Arsitektur model deep learning kini sudah semakin kompleks setiap harinya. Namun semakin besar model maka dibutuhkan kekuatan komputasi yang cukup besar juga dalam menjalankan model. Sehingga tidak semua perangkat Internet of Things (IoT) dapat menjalankan model yang begitu besar secara efisien. Untuk itu teknik model optimization sangat diperlukan. Pada penelitian kali ini penulis menggunakan metode optimasi menggunakan layer weight regularization, serta penyederhanaan arsitektur model pada hybrid deep learning model. Dataset yang digunakan pada penelitian kali ini adalah N-BaIoT. Sementara evaluasi performa model yang digunakan adalah accuracy, confussion matrix, dan detection time. Dengan tingkat accuracy yang sama, model yang diusulkan berhasil meningkatkan waktu deteksi model lebih cepat 0,8 ms dibandingkan dengan model acuan.

The deep learning model architecture is getting more complex every day. However, the larger the model, the greater the computational power is needed to run the model. So not all Internet of Things (IoT) devices can run such a large model efficiently. For this reason, model optimization techniques are needed. In this study, the author uses an optimization method using layer weight regularization, as well as simplification of the model architecture on the hybrid deep learning model. The dataset used in this research is N-BaIoT. While the evaluation of the performance of the model used is accuracy, confusion matrix, and detection time. With the same level of accuracy, the proposed model succeeded in increasing the detection time of the model by 0.8 ms faster than the reference method."
Depok: Fakultas Teknik Universitas Indonesia, 2022
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Bella Septina Ika Hartanti
"Bencana banjir merupakan salah satu peristiwa alam yang sering terjadi di dunia, termasuk Indonesia, dan terjadi ketika aliran air yang berlebihan menggenangi daratan dalam jangka waktu tertentu. Perubahan iklim, cuaca ekstrem, urbanisasi yang tidak terkendali, dan kondisi geografis yang kompleks telah berkontribusi terhadap peningkatan frekuensi dan intensitas banjir, terutama di daerah perkotaan. Analisis banjir otomatis dan deteksi citra dapat memberikan panduan dan informasi yang berguna dalam membuat keputusan untuk mengurangi dampak destruktif seperti korban jiwa dan ekonomi, salah satunya dengan melakukan segmentasi untuk membantu proses pembuatan peta kerawanan banjir. Namun, sejumlah kecil data beresolusi tinggi dan berlabel yang tersedia membuat proses segmentasi sulit untuk dilakukan. Oleh karena itu, penulis mengusulkan pendekatan semi-supervised yaitu mean teacher dengan memanfaatkan teknik deep learning. Adapun dataset yang digunakan adalah citra SAR Sentinel-1 C-band yang telah diolah sebelumnya. Hasil penelitian menunjukkan bahwa model usulan memberikan kenaikan performa yang cukup signifikan pada metrik IoU sebesar 5% terhadap baseline yang mengimplementasikan teknik pseudo-labeling.

Floods are one of the natural disaster events that occur in the world. Floods happen when excessive water flows and submerges land for a certain period of time. Climate change, extreme weather, uncontrolled urbanization, and complex geographical conditions have contributed to the increase in the frequency and intensity of floods, especially in urban areas. Automatic flood analysis and detection of imagery can provide useful guidance and information in making decisions to reduce destructive impacts such as loss of life and economy. However, the small amount of high-resolution and labeled data available makes the segmentation process difficult for flood detection. Therefore, the author proposes a semi-supervised approach, namely mean teacher by utilizing the deep learning architecture. The dataset used is the SAR image of Sentinel-1 C-band which has been processed. The results show that the proposed model provides a significant increase in performance on the IoU metric by 5% against the baseline that implements the pseudo-labeling technique."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2023
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Denanir Fadila Nasiri
"Legal reasoning merupakan metode yang digunakan untuk menerapkan aturan atau Undang-Undang terhadap fakta yang dimiliki dengan tujuan untuk memperoleh argumentasi hukum. Salah satu metode legal reasoning adalah dengan penalaran induktif, yaitu didasarkan pada kasus-kasus terdahulu. Mahkamah Agung di Indonesia melalui situs Direktori Putusan Pengadilan, yang menyediakan dokumen hasil proses pengadilan yang saat ini menampung jumlah dokumen yang sangat besar. Kumpulan dokumen tersebut dapat dimanfaatkan untuk melakukan aktivitas legal reasoning, seperti klasifikasi jenis tindak pidana (criminal offense). Pada penelitian ini, penulis mengusulkan metode deep learning untuk mengklasifikasikan jenis tindak pidana. Hal ini dapat berguna untuk memberikan efisiensi dan referensi kepada praktisi hukum maupun memudahkan masyarakat untuk memahami dasar hukum dari suatu kasus. Secara spesifik, salah satu rancangan model yang diusulkan adalah dengan penerapan model LEAM (Label Embedding Attentive Model) dengan penambahan sejumlah keyword pada label embedding. Model ini secara konsisten memberikan performa yang baik dalam eksperimen, termasuk pada imbalanced dataset dengan perolehan f1-score 68%.

Legal reasoning is a sequence of activities to identify law rules and obtain legal arguments. One of the method in legal reasoning is by using inductive reasoning, which analyzes previous decided cases. Indonesia’s Supreme Court stores the court decision documents online in a large sum. These collections can be utilized to perform legal reasoning, where in this research we focus on the classification of criminal offense. We performed pre-processing tasks including conversion of document to text and cleaning text. We then compared deep learning models, such as LSTM, BiLSTM, CNN+LSTM, and LEAM (Label Embedding Attentive Model). Instead of using only the label name in LEAM, we also carried out experiments by adding related keywords for each label. The LEAM model with additional keywords obtained the best result in an imbalanced dataset with 68% macro average f1-score."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2021
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Thomas Hadi Wijaya
"Penelitian ini berfokus pada pengaplikasian teknologi deep learning, secara khusus menggunakan Residual Network (ResNet101) dalam prediksi perencanaan dosis untuk pasien kanker paru-paru. Tiga variasi input data diproses untuk dilatih dan diuji menggunakan ResNet, dan kemudian dievaluasi untuk menentukan variasi input yang paling akurat. Tujuan utama penelitian ini adalah memahami mekanisme kerja deep learning dalam prediksi perencanaan dosis, mengevaluasi akurasi prediksi menggunakan ResNet, dan menganalisis kinerja model pada masing-masing variasi input data. Metodologi yang digunakan melibatkan penggunaan model input dan output untuk menghasilkan kurva distribusi-volume dosis (DVH) prediksi dan aktual. DVH merupakan kurva yang digunakan untuk mengukur seberapa besar dosis yang diterima dalam persentase volume pada organ tertentu. Evaluasi dilakukan menggunakan metode Mean Absolute Error (MAE) dari persentase volume prediksi dan referensi masing-masing pasien pada rentang dosis yang ditentukan yaitu 0-60 Gy dengan lebar bin sebesar 0,25 Gy. Hasil evaluasi menunjukkan bahwa variasi data input A memberikan nilai MAE sebesar 11,24% ± 10,58%, variasi data input B memberikan MAE sebesar 12,79% ± 11,27%, dan variasi data input C memberikan MAE sebesar 12,22% ± 12,13%. Hasil tersebut memperlihatkan bahwa variasi data input A memiliki tingkat akurasi terbaik dengan nilai error dan standar deviasi terendah. Evaluasi juga melibatkan penggunaan train-val loss untuk masing-masing model yang dilatih. Temuan ini menunjukkan bahwa penggunaan citra CT sebagai channel 1, gabungan ROI tanpa ROI target sebagai channel 2, dan ROI target sebagai channel 3 memberikan prediksi perencanaan dosis yang paling akurat untuk pasien kanker paru-paru.

This study focuses on the application of deep learning technology, specifically using Residual Network (ResNet101), to predict dosage planning for lung cancer patients. Three variations of input data were processed for training and testing using ResNet, and then evaluated to determine the most accurate input variation. The primary objectives of this research are to understand the mechanism of deep learning in dosage planning prediction, evaluate prediction accuracy using ResNet, and analyze model performance for each input data variation. The methodology involved using input and output models to generate predicted and actual dose-volume histogram (DVH) curves. DVH is a curve used to measure the dose received as a volume percentage in a specific organ. Evaluation was conducted using the Mean Absolute Error (MAE) method from the volume percentage prediction and reference for each patient within a dose range of 0-60 Gy with a bin width of 0,25 Gy. The evaluation results showed that input data variation A yielded an MAE of 11,24% ± 10,58%, input data variation B yielded an MAE of 12,79% ± 11,27%, and input data variation C yielded an MAE of 12,22% ± 12,13%. These results indicate that input data variation A had the best accuracy with the lowest error and standard deviation. Evaluation also included using train-val loss for each trained model. These findings suggest that using CT images as channel 1, a combination of ROIs excluding the target ROI as channel 2, and the target ROI as channel 3 provides the most accurate dosage planning prediction for lung cancer patients."
Depok: Fakultas Matematika Dan Ilmu Pengetahuan Alam Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Frendy Muhamad Rachmansyah
"Pengukuran viskositas zat cair merupakan aspek penting dalam berbagai industri. Dalam mengukur viskositas suatu cairan umumnya menggunakan viskometer bola jatuh. Namun penggunaan viskometer bola jatuh memiliki kekurangan dalam ketelitian dalam menentukan kecepatan terminal bola ketika mencapai kedalaman tertentu. Dalam penelitian ini, penulis merancang pendekatan baru yang menggabungkan teknologi pengolahan video dengan metode deep learning, khususnya algoritma You Only Look Once (YOLO), untuk mengukur viskositas zat cair secara efisien dan akurat. Pendekatan ini memungkinkan pengukuran viskositas dilakukan dengan menggunakan kamera sederhana, yang secara otomatis menganalisis pergerakan jatuhnya kelereng dalam suatu fluida. Penulis melatih model deep learning menggunakan dataset video jatuhnya bola pada suatu cairan yang diambil secara langsung menggunakan kamera smartphone, dan menunjukkan bahwa pendekatan ini mampu menghasilkan pengukuran viskositas yang akurat dengan waktu perhitungan yang lebih cepat dibandingkan menggunakan viskometer bola jatuh. Hasil percobaan menunjukkan bahwa model YOLO mampu mendeteksi 11 objek dari total 25 gambar dengan presisi 0,99 dan konsistensi tinggi (mAP50-95 sebesar 0,86). Model ini efektif dalam mendeteksi jatuhnya kelereng, dengan waktu pemrosesan per gambar yang cepat. Meskipun beberapa frame tidak terdeteksi, model menunjukkan akurasi tinggi dalam memprediksi viskositas dengan MAE sebesar 0,13, menjadikannya andal dan efisien untuk pengukuran viskositas dalam aplikasi industri dan laboratorium.

Viscosity measurement of liquid substances is an important aspect in various industries. The traditional method of measuring viscosity is by using a falling ball viscometer. However, this method has limitations in accurately determining the terminal velocity of the ball at a certain depth. In this research, the author designed a new approach that combines video processing technology with deep learning methods, specifically the You Only Look Once (YOLO) algorithm, to measure the viscosity of liquid substances efficiently and accurately. This approach allows viscosity measurement to be done using a simple camera, which automatically analyzes the movement of a marble falling in a fluid. The author trained a deep learning model using video datasets of the falling ball in a liquid captured directly using a smartphone camera, and demonstrated that this approach can produce accurate viscosity measurements with faster calculation time compared to using a falling ball viscometer. The experimental results demonstrated that the YOLO model accurately detected 11 objects out of 25 images with a precision of 0,99 and a consistent mAP50-95 score of 0,86. Applied to 7 video frames, it processed images quickly with times of 1,9 ms for preprocessing, 45,7 ms for inference, and 0,6 ms for post-processing. Despite some frames missing detections, the model achieved a high accuracy in predicting viscosity with a Mean Absolute Error (MAE) of 0,13, making it reliable for various industrial and laboratory applications."
Depok: Fakultas Matematika Dan Ilmu Pengetahuan Alam Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
<<   1 2 3 4 5 6 7 8 9 10   >>