Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 181160 dokumen yang sesuai dengan query
cover
Ajeng Dwi Asti
"Ujaran kebencian dapat menyebabkan terjadinya konflik dan pembantaian di masyarakat sehingga harus segera ditangani. Indonesia memiliki lebih dari 700 bahasa daerah dengan karakteristik masing-masing. Ujaran kebencian yang ada di Indonesia juga pernah dilakukan menggunakan bahasa daerah. Media sosial Twitter paling sering digunakan dalam menyebarkan ujaran kebencian. Identifikasi target, kategori, serta level ujaran kebencian dapat membantu Polri dan Kemenkominfo dalam menentukan prioritas penanganan ujaran kebencian sehingga dapat meminimalisir dampaknya. Penelitian ini melakukan identifikasi ujaran kasar dan ujaran kebencian beserta target, kategori, dan level ujaran kebencian pada data Twitter berbahasa daerah menggunakan algoritma classical machine learning dan deep learning. Penelitian ini menggunakan data lima bahasa daerah di Indonesia dengan penutur terbanyak yaitu Jawa, Sunda, Madura, Minang, dan Musi. Pada data Bahasa Jawa performa terbaik diperoleh menggunakan algoritma Support Vector Machine (SVM) dengan transformasi data Classifier Chains (CC) serta kombinasi fitur word unigram, bigram, dan trigram dengan F1-score 70,43%. Algoritma SVM dengan transformasi data CC serta kombinasi fitur word unigram dan bigram memberikan performa terbaik pada data Bahasa Sunda dan Madura dengan masing-masing F1-score 68,79% dan 78,81%. Sementara itu, pada data Bahasa Minang dan Musi hasil terbaik diperoleh menggunakan algoritma SVM dengan transformasi data CC serta fitur word unigram dengan F1-score 83,57% dan 80,72%. Penelitian ini diharapkan dapat digunakan sebagai masukan bagi Polri dan Kemenkominfo dalam pembangunan sistem identifikasi ujaran kasar, ujaran kebencian serta target, kategori, dan level ujaran kebencian pada media sosial.

Hate speech can lead to conflict and massacres in society so it must be dealt immediately. Indonesia has more than 700 regional languages with their own characteristics. Hate speech in Indonesia has also been carried out using regional languages. Twitter is the most frequently used social media to spread hate speech. Identification of targets, categories, and levels of hate speech can help the National Police and the Ministry of Communication and Information to determine priorities for handling hate speech to minimize its impact. This study identifies abusive speech and hate speech along with the target, category, and level of hate speech on regional language Twitter data using classical machine learning and deep learning algorithms. This study uses data from five regional languages in Indonesia with the most speakers, namely Javanese, Sundanese, Madurese, Minang, and Musi. In Java language data, the best performance is obtained using the Support Vector Machine (SVM) algorithm with Classifier Chains (CC) data transformation and a combination of unigram, bigram, and trigram word features with an F1-score of 70.43%. The SVM algorithm with CC data transformation and the combination of unigram and bigram word features provides the best performance on Sundanese and Madurese data with F1-scores of 68.79% and 78.81%, respectively. Meanwhile, in Minang and Musi language data, the best results were obtained using the SVM algorithm with CC data transformation and word unigram features with F1-scores of 83.57% and 80.72%, respectively. This research is expected to be used as input for the National Police and the Ministry of Communication and Information in developing a system for identifying harsh speech, hate speech and the target, category, and level of hate speech on social media."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2022
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Bella Septina Ika Hartanti
"Bencana banjir merupakan salah satu peristiwa alam yang sering terjadi di dunia, termasuk Indonesia, dan terjadi ketika aliran air yang berlebihan menggenangi daratan dalam jangka waktu tertentu. Perubahan iklim, cuaca ekstrem, urbanisasi yang tidak terkendali, dan kondisi geografis yang kompleks telah berkontribusi terhadap peningkatan frekuensi dan intensitas banjir, terutama di daerah perkotaan. Analisis banjir otomatis dan deteksi citra dapat memberikan panduan dan informasi yang berguna dalam membuat keputusan untuk mengurangi dampak destruktif seperti korban jiwa dan ekonomi, salah satunya dengan melakukan segmentasi untuk membantu proses pembuatan peta kerawanan banjir. Namun, sejumlah kecil data beresolusi tinggi dan berlabel yang tersedia membuat proses segmentasi sulit untuk dilakukan. Oleh karena itu, penulis mengusulkan pendekatan semi-supervised yaitu mean teacher dengan memanfaatkan teknik deep learning. Adapun dataset yang digunakan adalah citra SAR Sentinel-1 C-band yang telah diolah sebelumnya. Hasil penelitian menunjukkan bahwa model usulan memberikan kenaikan performa yang cukup signifikan pada metrik IoU sebesar 5% terhadap baseline yang mengimplementasikan teknik pseudo-labeling.

Floods are one of the natural disaster events that occur in the world. Floods happen when excessive water flows and submerges land for a certain period of time. Climate change, extreme weather, uncontrolled urbanization, and complex geographical conditions have contributed to the increase in the frequency and intensity of floods, especially in urban areas. Automatic flood analysis and detection of imagery can provide useful guidance and information in making decisions to reduce destructive impacts such as loss of life and economy. However, the small amount of high-resolution and labeled data available makes the segmentation process difficult for flood detection. Therefore, the author proposes a semi-supervised approach, namely mean teacher by utilizing the deep learning architecture. The dataset used is the SAR image of Sentinel-1 C-band which has been processed. The results show that the proposed model provides a significant increase in performance on the IoU metric by 5% against the baseline that implements the pseudo-labeling technique."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2023
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Nadya Safitri
"Pemilihan metode machine learning atau deep learning menjadi suatu permasalahan dalam klasifikasi. Hal ini didapatkan dari penelitian yang menunjukkan bahwa deep learning kinerjanya lebih baik daripada machine learning, namun terdapat penelitian bahwa kedua metode tersebut kinerjanya tidak menentu tergantung dataset yang digunakan. Oleh karena itu, penelitian ini membandingkan kinerja dari machine learning dan deep learning untuk permasalahan klasifikasi teks dan analisis sentimen terhadap dampak Covid-19 di Indonesia. Hasil penelitian ini menunjukkan bahwa kinerja pada klasifikasi teks dan analisis sentimen menggunakan metode machine learning lebih baik dibandingkan dengan deep learning. Hasil penelitian mengenai klasifikasi teks menunjukkan bahwa kinerja metode machine learning yaitu Label Powerset dan Random Forest menghasilkan akurasi 77 % sedangkan kinerja metode deep learning yaitu Long Short-Term Memory (LSTM) dan Gate Reccurent Unit (GRU) menghasilkan akurasi 48%. Hasil penelitian mengenai analisis sentimen menunjukkan bahwa kinerja metode machine learning yaitu Label Powerset dan Random Forest menghasilkan akurasi 63 % sedangkan kinerja metode deep learning yaitu Long Short-Term Memory (LSTM) dan Gate Reccurent Unit (GRU) menghasilkan akurasi 55% dan 54%. Keseimbangan jumlah label pada semua label mempengaruhi hasil dari klasifikasi. Oleh karena itu, disarankan untuk menggunakan metode untuk menyeimbangkan jumlah label yang digunakan untuk klasifikasi.

The choice of machine learning or deep learning methods becomes a problem in classification. This is obtained from research which shows that deep learning performs better than machine learning, but there is research that the two methods perform erratically depending on the dataset used. Therefore, this study compares the performance of machine learning and deep learning for text classification problems and sentiment analysis on the impact of Covid-19 in Indonesia. The results of this study indicate that the performance of text classification and sentiment analysis using machine learning methods is better than deep learning. The results of research on text classification show that the performance of machine learning methods, namely Label Power and Random Forest, produces an accuracy of 77%, while the performance of deep learning methods, namely Long Short-Term Memory (LSTM) and Gate Recurrent Unit (GRU), produces an accuracy of 48%. The results of the research on sentiment analysis show that the performance of machine learning methods, namely Label Power and Random Forest, produces an accuracy of 63%, while the performance of deep learning methods, namely Long Short-Term Memory (LSTM) and Gate Recurrent Unit (GRU), produces 55% and 54% accuracy. The balance of the number of labels on all labels affects the results of the classification. Therefore, it is advisable to use a method to balance the number of labels used for classification."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2021
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Jauzak Hussaini Windiatmaja
"Sumber informasi di jejaring berita daring adalah instrumen yang memungkinkan individu membaca berita, menerbitkan berita, dan berkomunikasi. Hal ini sudah menjadi tren dalam masyarakat yang sangat mobile. Oleh karena itu, proses verifikasi fakta suatu pemberitaan menjadi sangat penting. Dengan pertimbangan tersebut, sebuah tools berbasis web service untuk verifikasi fakta menggunakan metode deep learning dengan teknik ensemble dibangun. Penggunaan teknik ensemble pada model deep learning adalah proses beberapa model pembelajaran mesin digabungkan secara strategis untuk menyelesaikan masalah menggunakan lebih dari satu model. Untuk melatih model, dibangun sebuah dataset. Dataset berisi pasangan klaim dan label. Klaim dibangun dengan data crawling di kanal berita berbahasa Indonesia. Tiga model deep learning dibangun dan dilatih menggunakan dataset yang dibuat, dengan arsitektur jaringan dan hyperparameter yang berbeda. Setelah model dilatih menggunakan dataset, ketiga model diagregasikan untuk membentuk sebuah model baru. Untuk memastikan bahwa model agregat berfungsi lebih baik daripada model tunggal, performa model deep learning ensemble dibandingkan dengan model deep learning dasar. Hasil penelitian menunjukkan bahwa model ensemble memiliki akurasi 85,18% sedangkan model tunggal memiliki akurasi 83,9%, 83,19%, dan 81,94%. Hasil ini menunjukkan bahwa model ensemble yang dibangun meningkatkan kinerja verifikasi fakta dari tiga model tunggal. Hasil penelitian juga menunjukkan bahwa metode deep learning mengungguli performa metode machine learning lain seperti naive bayes dan random forest. Untuk memvalidasi kinerja tools yang dibangun, response time dari web service diukur. Hasil pengukuran menunjukkan rata-rata response time 6.447,9 milidetik.

Information sources on social networks are instruments that allow individuals to read news, publish news, and communicate. This is a trend in a highly mobile society. Therefore, the process of verifying facts is very important. With these considerations, we built a web service-based tool for fact verification using deep learning methods with ensemble technique. The use of ensemble techniques in deep learning models is a process in which several machine learning models are combined to solve problems. To train the model, we created a dataset. Our dataset of Indonesian news contains pairs of claims along with labels. Claims are built by crawling data on Indonesian news channels. Three deep learning models have been built and trained using the previously created dataset with different network architectures and hyperparameters. After the model is trained, three models are aggregated to form a new model. To ensure that the aggregated model performs better than the single model, the deep learning ensemble model is compared to the single models. The results showed that the ensemble model has an accuracy of 85.18% while the single models have an accuracy of 83.9%, 83.19%, and 81.94% consecutively. These results indicate that the ensemble model built improves the fact-verification performance of the three single models. The results also show that by using the same dataset, deep learning methods outperform other machine learning methods such as naive bayes and random forest. To validate the performance of the tools we created, the response time of the web service is measured. The measurement result shows an average response time of 6447.9 milliseconds."
Depok: Fakultas Teknik Universitas Indonesia, 2021
T-Pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Putu Bagus Raka Kesawa
"Kemajuan umat manusia dalam penerbangan modern sangat bergantung pada kemampuan untuk melakukan pemodelan sistem idenifikasi penerbangan dari suatu wahana pernerbangan. Pemodelan suatu sistem identifikasi penerbangan bergantung dengan tingkat kualitas dan kuantitas dari data simulasi yang digunakan untuk mendapatkan pendekatan situasi dan kondisi penerbangan aktual yang seakurat mungkin. Akurasi dan presisi dari data simulasi yang digunakan dalam pemodelan sistem penerbangan akan mempengaruhi hasil algoritma yang digunakan dalam sistem identifikasi. Dalam pencapaian kualitas data tersebut, digunakanlah perangkat lunak X-Plane yang berfungsi sebagai simulator penerbangan ultra-realistis yang menyuplai set data yang memungkinkan pembelajaran mesin dari algoritma berbasis komputer. Data pembelajaran pesawat terbang terdiri dari attitude orientasi pesawat. Data yang diperoleh dari simulator tersebut akan diproseskan menggunakan metode preprocessing, sehingga layak digunakan untuk pelatihan sistem identifikasi. Suatu algoritma artificial neural network diterapkan untuk mengidentifikasi sistem pesawat dengan mempelajari dataset yang disebutkan di atas, yang kemudian akan digunakan dalam pengembangan perancangan sistem kontrol. Algoritma artificial neural network yang dirancang dalam penelitian ini telah menunjukkan keberhasilan dalam sistem identifikasi untuk sistem penerbangan pesawat, dan siap digunakan dalam percobaan dan pengujian sistem kontrol pada pesawat.

Humanitys progress in modern aviation is very dependent on the ability to model the flight identification system of a flight vehicle. Modeling a flight identification system depends on the quality and quantity of simulation data used to get the most accurate representation of the actual flight situation and condition. The accuracy and precision of the simulation data used in the flight system modeling will affect the results of the algorithm used in the identification system. In achieving this data quality, X-Plane software is used which functions as an ultra realistic flight simulator that supplies data sets that enable machine learning from computer based algorithms. Airplane learning data consists of airplane orientation attitude. Data obtained from the simulator will be processed using the preprocessing method, so it is feasible to use for identification system training. An artificial neural network algorithm is applied to identify aircraft systems by studying the dataset mentioned above, which will then be used in the development of control system design. The artificial neural network algorithm designed in this study has shown success in the identification system for aircraft flight systems, and is ready to be used in the testing and testing of control systems on aircraft."
Depok: Fakultas Teknik Universitas Indonesia, 2020
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Lunnardo Soekarno Lukias
"

Dalam kehidupan kita sehari-hari umumnya banyak barang yang kita butuhkan dan gunakan dalam rumah tangga kita. Mulai dari bahan pangan, minuman, barang untuk membersihkan rumah, barang untuk mencuci pakaian, kudapan, dan lain sebagainya, Pada masyarakat kini banyak barang keperluan sehari-hari tersebut kita beli dan jumpai di berbagai tempat mulai dari warung di dekat rumah, supermarket, toko sembako, dan lain sebagainya. Akhir-akhir ini jumlah supermarket dan minimarket mulai menjamur. Pada tahun 2021 jumlah minimarket di Indonesia mencapai 38.323 gerai yang merupakan peningkatan sebanyak 21,7% dibandingkan pada tahun 2017 yakni hanya sebanyak 31.488 gerai saja. Dengan jumlah gerai yang semakin banyak, banyak masyarakat yang semakin banyak menggunakan jasanya untuk mendapatkan barang-barang kebutuhan sehari-hari mereka. Apalagi bila barang yang dibeli juga cukup banyak sehingga akan sulit untuk mendata barang-barang apa saja yang telah dibeli. Untuk memudahkan hal tersebut, penulis mengajukan sebuah solusi untuk membuat sebuah rancangan sistem yang akan memanfaatkan teknologi Deep Learning untuk mendeteksi tulisan pada struk belanja dari hasil pembelian barang pada minimarket. Hasilnya dari pengujian yang sudah dilakukan pada penelitian ini, masing-masing model Deep Learning memiliki tingkat akurasi mAP50 99,4% dan mAP50:95 72,9% untuk YOLOv5, tingkat akurasi mAP50 99,61% dan mAP50:95 65,19% untuk Faster R-CNN, dan tingkat akurasi mAP50 61,77% dan mAP50:95 98,09% untuk RetinaNet. Dimana YOLOv5 memiliki tingkat akurasi mAP50:95 tertinggi yakni 72,9% dan Faster R-CNN memiliki tingkat akurasi mAP50 tertinggi yakni 99,61%. Dimana pada proses implementasi sistem YOLOv5 dan Faster R-CNN berhasil melakukan proses pengenalan sedangkan RetinaNet gagal untuk melakukannya.


In our daily lives, we generally need and use many items in our households. Starting from food ingredients, drinks, household cleaning items, laundry items, snacks, and so on. Nowadays, many of these daily necessities are bought and found in various places such as small shops near our homes, supermarkets, grocery stores, and so on. Recently, the number of supermarkets and minimarkets has increased. In 2021, the number of minimarkets in Indonesia reached 38,323 branches which is an increase of 21.7% compared to 2017 which was only 31,488 branches. With the increasing number of branches, many people are using their services to obtain their daily necessities. Especially when the purchased items are quite a lot so it will be difficult to record what items have been purchased. To facilitate this matter, the author proposes a solution to create a system design that will utilize Deep Learning technology to detect writing on receipts from purchasing items at minimarkets. The results of testing that have been carried out in this study show that each Deep Learning model has an mAP50 accuracy level of 99.4% and mAP50:95 72.9% for YOLOv5, an mAP50 accuracy level of 99.61% and mAP50:95 65.19% for Faster R-CNN, and an mAP50 accuracy level of 61.77% and mAP50:95 98.09% for RetinaNet. YOLOv5 has the highest mAP50:95 accuracy rate at 72.9%, while Faster R-CNN has the highest mAP50 accuracy rate at 99.61%. Where in the implementation process, YOLOv5 and Faster R-CNN systems were able to perform recognition processes while RetinaNet failed to do so."
Depok: Fakultas Teknik Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Daniel Adi Nugroho
"Dalam rangka melakukan pengendalian alih fungsi lahan pertanian diperlukan kuantifikasi luas dan sebaran lahan sawah, dimana salah satu metode yang efisien dalam pemetaan lahan baku sawah di wilayah tropis adalah dengan melakukan proses klasifikasi lahan baku sawah menggunakan data multitemporal dari citra Synthetic Aperture Radar (SAR). Tujuan utama dari penelitian ini adalah untuk melakukan kajian spasiotemporal perubahan lahan sawah di Kabupaten Indramayu berdasarkan lahan baku sawah tahunan yang diperoleh dari hasil pemanfaatan algoritma Deep Learning, yaitu Long Short-Term Memory (LSTM) untuk melakukan klasifikasi biner sawah dan non-sawah pada data SAR multitemporal dari satelit Sentinel-1. Akurasi hasil dari klasifikasi LSTM dievaluasi terhadap hasil observasi lapangan tahun 2021 sebagai tolok ukurnya, dengan metode klasifikasi tersupervisi lainnya, yaitu Support Vector Machine dan Random Forest, sebagai pembanding. Model LSTM yang didapatkan dalam penelitian ini selanjutnya dipakai untuk melakukan proses klasifikasi data lahan baku sawah tahunan. Hasil penelitian menunjukkan bahwa algoritma LSTM memberikan akurasi klasifikasi tertinggi dibandingkan algoritma SVM dan RF. Kajian spasiotemporal tutupan lahan sawah pada kurun waktu tahun 2017 hingga 2021 menunjukkan bahwa terjadi fluktuasi luasan dan sebaran lahan sawah tiap tahun, dengan tingkat perubahan terbesar pada Kecamatan Tukdana dan Kecamatan Kandanghaur. Berdasarkan kajian literatur sekunder, penambahan lahan sawah yang terkonsentrasi di Kecamatan Tukdana diperkirakan merupakan akibat dari penjarahan lahan perkebunan tebu oleh warga, sedangkan pengurangan lahan sawah yang terkonsentrasi di Kecamatan Kandanghaur diperkirakan merupakan akibat banjir rob yang berkepanjangan.

In order to manage the conversion of agricultural land, it is necessary to quantify the area and distribution of rice fields, where one of the efficient methods in mapping raw rice fields in the tropics is to carry out the process of classifying raw rice fields using multitemporal data from Synthetic Aperture Radar (SAR) images. The main objective of this research is to conduct a spatiotemporal study of changes in paddy fields in Indramayu Regency based on annual rice field map obtained from the use of the Deep Learning algorithm, namely Long Short-Term Memory (LSTM) to perform a binary classification of rice fields and non-rice fields on the data. Multitemporal SAR from the Sentinel-1 satellite. The accuracy of the results of the LSTM classification is evaluated against the results of field observations in 2021 as a benchmark, with other supervised classification methods, namely Support Vector Machine and Random Forest, for comparison. The LSTM model obtained in this study is then used to carry out the process of classifying the annual raw land data for rice fields. The results showed that the LSTM algorithm gave the highest classification accuracy compared to the SVM and RF algorithms. The spatiotemporal study of paddy field cover in the period 2017 to 2021 shows that there are fluctuations in the area and distribution of paddy fields every year, with the largest changes in Tukdana and Kandanghaur sub-districts. Based on a secondary literature review, the addition of rice fields concentrated in Tukdana District is estimated to be the result of looting of sugarcane plantations by residents, while the reduction of rice fields concentrated in Kandanghaur District is estimated to be the result of prolonged tidal flooding."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2022
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Thomas Hadi Wijaya
"Penelitian ini berfokus pada pengaplikasian teknologi deep learning, secara khusus menggunakan Residual Network (ResNet101) dalam prediksi perencanaan dosis untuk pasien kanker paru-paru. Tiga variasi input data diproses untuk dilatih dan diuji menggunakan ResNet, dan kemudian dievaluasi untuk menentukan variasi input yang paling akurat. Tujuan utama penelitian ini adalah memahami mekanisme kerja deep learning dalam prediksi perencanaan dosis, mengevaluasi akurasi prediksi menggunakan ResNet, dan menganalisis kinerja model pada masing-masing variasi input data. Metodologi yang digunakan melibatkan penggunaan model input dan output untuk menghasilkan kurva distribusi-volume dosis (DVH) prediksi dan aktual. DVH merupakan kurva yang digunakan untuk mengukur seberapa besar dosis yang diterima dalam persentase volume pada organ tertentu. Evaluasi dilakukan menggunakan metode Mean Absolute Error (MAE) dari persentase volume prediksi dan referensi masing-masing pasien pada rentang dosis yang ditentukan yaitu 0-60 Gy dengan lebar bin sebesar 0,25 Gy. Hasil evaluasi menunjukkan bahwa variasi data input A memberikan nilai MAE sebesar 11,24% ± 10,58%, variasi data input B memberikan MAE sebesar 12,79% ± 11,27%, dan variasi data input C memberikan MAE sebesar 12,22% ± 12,13%. Hasil tersebut memperlihatkan bahwa variasi data input A memiliki tingkat akurasi terbaik dengan nilai error dan standar deviasi terendah. Evaluasi juga melibatkan penggunaan train-val loss untuk masing-masing model yang dilatih. Temuan ini menunjukkan bahwa penggunaan citra CT sebagai channel 1, gabungan ROI tanpa ROI target sebagai channel 2, dan ROI target sebagai channel 3 memberikan prediksi perencanaan dosis yang paling akurat untuk pasien kanker paru-paru.

This study focuses on the application of deep learning technology, specifically using Residual Network (ResNet101), to predict dosage planning for lung cancer patients. Three variations of input data were processed for training and testing using ResNet, and then evaluated to determine the most accurate input variation. The primary objectives of this research are to understand the mechanism of deep learning in dosage planning prediction, evaluate prediction accuracy using ResNet, and analyze model performance for each input data variation. The methodology involved using input and output models to generate predicted and actual dose-volume histogram (DVH) curves. DVH is a curve used to measure the dose received as a volume percentage in a specific organ. Evaluation was conducted using the Mean Absolute Error (MAE) method from the volume percentage prediction and reference for each patient within a dose range of 0-60 Gy with a bin width of 0,25 Gy. The evaluation results showed that input data variation A yielded an MAE of 11,24% ± 10,58%, input data variation B yielded an MAE of 12,79% ± 11,27%, and input data variation C yielded an MAE of 12,22% ± 12,13%. These results indicate that input data variation A had the best accuracy with the lowest error and standard deviation. Evaluation also included using train-val loss for each trained model. These findings suggest that using CT images as channel 1, a combination of ROIs excluding the target ROI as channel 2, and the target ROI as channel 3 provides the most accurate dosage planning prediction for lung cancer patients."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Adi Yudho Wijayanto
"Tujuan utama penggunaan peralatan Pressure Relief Device (PRD) adalah untuk memastikan keamanan bejana tekan dalam sistem bertekanan. Seiring berjalannya waktu, peralatan PRD dapat mengalami penurunan kualitas dan gagal menjalankan fungsi yang diharapkan, sehingga harus diidentifikasi sebagai mode kegagalan. Untuk memitigasi potensi risiko yang terkait dengan hal ini, direkomendasikan agar pendekatan seperti inspeksi berbasis risiko (RBI) diterapkan. Meskipun RBI telah diadopsi secara luas, metode ini bergantung pada teknik kualitatif, sehingga menyebabkan variasi yang signifikan dalam penilaian risiko peralatan. Studi ini mengusulkan metode analisis risiko baru yang menggunakan pembelajaran mesin berbasis pembelajaran mendalam untuk mengembangkan model penilaian risiko untuk peralatan PRD terkait dengan mode kegagalan failure on leakage. Pendekatan inovatif ini akan mengurangi waktu penilaian, meningkatkan akurasi, dan menurunkan biaya pemrosesan dengan memberikan hasil penghitungan yang tepat. Penelitian ini mengembangkan program prediksi risiko yang menggunakan pembelajaran mesin berbasis deep learning yang dirancang secara eksplisit untuk mode kegagalan failure on leakage pada peralatan pelepas tekanan. Dataset yang digunakan dalam proses pengembangan model mengikuti standar API 581 dan berisi 168 dataset. Berbagai parameter model digunakan, antara lain test size 20%, nilai random state 0, 150 epoch, learning rate 0,001, dan 3 layers dengan nilai dense 128, 64, dan 32. Performa model dievaluasi menggunakan validation confusion matrix, yang menunjukkan akurasi 94%.

The primary objective of deploying Pressure Relief Device (PRD) equipment is to ensure the safety of pressure vessels within a pressurized system. Over time, PRD equipment may degrade and fail to perform its intended function, which must be identified as a failure mode. To mitigate potential risks associated with this, it is recommended that an approach such as risk-based inspection (RBI) be implemented. Despite the widespread adoption of RBI, the method relies on qualitative techniques, leading to significant variations in equipment risk assessments. This study proposes a novel risk analysis method that uses deep learning-based machine learning to develop a risk assessment model for PRD equipment related to the fail-on-leakage failure mode. This innovative approach will reduce assessment times, improve accuracy, and lower processing costs by providing precise calculation results. The research develops a risk prediction program that uses deep learning-based machine learning designed explicitly for failure-on-leakage failure mode in pressure relief equipment. The dataset used in the model development process adheres to API 581 standards and comprises 168 data points. Various model parameters are employed, including a test size of 20%, a random state value of 0, 150 epochs, a learning rate of 0.001, and 3 layers with dense values of 128, 64, and 32. The model's performance is evaluated using a validation confusion matrix, which indicates an accuracy of 94%."
Depok: Fakultas Teknik Universitas Indonesia, 2024
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Muhammad Fauzi Rahmad
"Arsitektur model deep learning kini sudah semakin kompleks setiap harinya. Namun semakin besar model maka dibutuhkan kekuatan komputasi yang cukup besar juga dalam menjalankan model. Sehingga tidak semua perangkat Internet of Things (IoT) dapat menjalankan model yang begitu besar secara efisien. Untuk itu teknik model optimization sangat diperlukan. Pada penelitian kali ini penulis menggunakan metode optimasi menggunakan layer weight regularization, serta penyederhanaan arsitektur model pada hybrid deep learning model. Dataset yang digunakan pada penelitian kali ini adalah N-BaIoT. Sementara evaluasi performa model yang digunakan adalah accuracy, confussion matrix, dan detection time. Dengan tingkat accuracy yang sama, model yang diusulkan berhasil meningkatkan waktu deteksi model lebih cepat 0,8 ms dibandingkan dengan model acuan.

The deep learning model architecture is getting more complex every day. However, the larger the model, the greater the computational power is needed to run the model. So not all Internet of Things (IoT) devices can run such a large model efficiently. For this reason, model optimization techniques are needed. In this study, the author uses an optimization method using layer weight regularization, as well as simplification of the model architecture on the hybrid deep learning model. The dataset used in this research is N-BaIoT. While the evaluation of the performance of the model used is accuracy, confusion matrix, and detection time. With the same level of accuracy, the proposed model succeeded in increasing the detection time of the model by 0.8 ms faster than the reference method."
Depok: Fakultas Teknik Universitas Indonesia, 2022
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
<<   1 2 3 4 5 6 7 8 9 10   >>