Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 86 dokumen yang sesuai dengan query
cover
Naradhipa Mahardhika Setiawan Bhary
"Sebagai negara hukum, Indonesia memiliki sistem peradilan yang aktif. Setiap bulannya, terdapat sekitar 100.000 dokumen putusan yang dihasilkan oleh lembaga kehakiman di Indonesia. Volume dokumen yang banyak tersebut menimbulkan suatu tantangan bagi insan hukum di Indonesia. Guna mendukung dan mengakomodasi institusi publik dari aspek teknologi dan informasi, serta mendorong pelaksanaan keterbukaan informasi bagi masyarakat umum, maka dibutuhkan suatu metode yang dapat membantu untuk mencari dan mengumpulkan informasi penting dari suatu dokumen putusan pengadilan. Secara khusus, metode ini juga ditujukan untuk membantu para praktisi hukum untuk kepentingan penegakan hukum dan para akademisi hukum untuk kepentingan pendidikan dan pengembangan di bidang hukum. Salah satu teknik untuk mengumpulkan informasi penting dari suatu dokumen adalah Named Entity Recognition (NER). Teknik NER bekerja dengan cara menandai kata-kata yang merupakan informasi penting seperti orang, tempat, lokasi, waktu, kejadian, dan lainnya. NER dapat diterapkan untuk berbagai bidang permasalahan, seperti medis, hukum, dan pertanian. NER yang secara spesifik bekerja untuk menandai entitas hukum disebut dengan Legal Entity Recognition (LER). Penelitian sebelumnya telah menerapkan LER untuk dokumen legal berbahasa Indonesia dengan pendekatan BiLSTM dan CRF sehingga diperlukan penelitian lebih lanjut untuk mengetahui bagaimana performa model-model lain terhadap kasus tersebut. Penelitian ini menguji performa language model, yaitu model berbasis RoBERTa dan model berbasis BERT serta membandingkannya dengan deep learning model, yaitu BiLSTM dan BiLSTM-CRF sebagai model baseline penelitian sebelumnya untuk task LER bahasa indonesia. Hasil penelitian menunjukkan model berbasis RoBERTa memliki performa terbaik untuk task LER pada dataset penulis, XLM-R large dengan skor F1 sebesar 0,9295, XLM-R base dengan skor F1 sebesar 0,9281 dan Indonesian RoBERTa dengan skor F1 sebesar 0,9246.

As a rule of law country, Indonesia has an active justice system. Every month, there are around 100,000 decision documents produced by the judiciary in Indonesia. The large volume of documents poses a challenge for legal people in Indonesia. In order to support and accommodate public institutions from the aspects of technology and information, as well as encourage the implementation of information disclosure for the general public, a method is needed that can help find and collect important information from a court decision document. In particular, this method is also intended to assist legal practitioners for the benefit of law enforcement and legal academics for the benefit of education and development in the field of law. One technique for collecting important information from a document is Named Entity Recognition (NER). The NER technique works by marking words that are important information such as people, places, locations, times, events, and so on. NER can be applied to various problem areas, such as medical, legal, and agriculture. NER which specifically works to mark legal entities is called Legal Entity Recognition (LER). Previous studies have applied LER to legal documents in Indonesian using the BiLSTM and CRF approaches, so further research is needed to find out how other models perform in this case. This study examines the performance of language models, namely the RoBERTa-based model and the BERT-based model and compares them with deep learning models, namely BiLSTM and BiLSTM-CRF as the baseline models for previous studies for the Indonesian language LER task. The results showed that the RoBERTa-based model had the best performance for the LER task in the author’s dataset, XLM-R large with an F1 score of 0.9295, XLM-R base with an F1 score of 0.9281 and Indonesian RoBERTa with an F1 score of 0.9246."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Dwi Guna Mandhasiya
"Ilmu Data adalah irisan dari matematika dan statistika, komputer, serta keahlian domain. Dalam beberapa tahun terakhir inovasi pada bidang ilmu data berkembang sangat pesat, seperti Artificial Intelligence (AI) yang telah banyak membantu kehidupan manusia. Deep Learning (DL) sebagai bagian dari AI merupakan pengembangan dari salah satu model machine learning yaitu neural network. Dengan banyaknya jumlah lapisan neural network, model deep learning mampu melakukan proses ekstrasi fitur dan klasifikasi dalam satu arsitektur. Model ini telah terbukti mengungguli teknik state-of-the-art machine learning di beberapa bidang seperti pengenalan pola, suara, citra, dan klasifikasi teks. Model deep learning telah melampaui pendekatan berbasis AI dalam berbagai tugas klasifikasi teks, termasuk analisis sentimen. Data teks dapat berasal dari berbagai sumber, seperti sumber dari media sosial. Analisis sentimen atau opinion mining merupakan salah satu studi komputasi yang menganalisis opini dan emosi yang diekspresikan pada teks. Pada penelitian ini analisis peforma machine learning dilakukan pada metode deep learning berbasis representasi data BERT dengan metode CNN dan LSTM serta metode hybrid deep learning CNN-LSTM dan LSTM-CNN. Implementasi model menggunakan data komentar youtube pada video politik dengan topik terkait Pilpres 2024, kemudian evaluasi peforma dilakukan menggunakan confusion metric berupa akurasi, presisi, dan recall.

Data Science is the intersection of mathematics and statistics, computing, and a domain of expertise. In recent years innovation in the field of data science has developed very rapidly, such as Artificial Intelligence (AI) which helped a lot in human life. Deep Learning (DL) as part of AI is the development of one of the machine learning models, namely neural network. With the large number of neural network layers, deep learning models are capable of performing feature extraction and classification processes in a single architecture. This model has proven to outperform state-of-the-art machine learning techniques in areas such as pattern recognition, speech, imagery, and text classification. Deep learning models have gone beyond AI-based approaches in a variety of text classification task, including sentiment analysis. Text data can come from various sources, such as source from social media. Sentiment analysis or opinion mining is a computational study that analyze opinions and emotions expressed in text. In this research, machine learning performance analysis is carried out on a deep learning method based on BERT data representation with the CNN and LSTM and hybrid deep learning CNN-LSTM and LSTM-CNN method. The implementation of the model uses YouTube commentary data on political videos related to the 2024 Indonesia presidential election, then performance analysis is carried out using confusion metrics in the form of accuracy, precision, and recall."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2023
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Bijak Rabbani
"Diabetik retinopati adalah komplikasi dari penyakit diabetes yang dapat mengakibatkan gangguan penglihatan bahkan kebutaan. Penyakit ini menjadi tidak dapat disembuhkan jika telah melewati fase tertentu, sehingga diagnosa sedini mungkin menjadi sangat penting. Namun, diagnosa oleh dokter mata memerlukan biaya dan waktu yang cukup besar. Oleh karena itu, telah dilakukan upaya untuk meningkatkan efisiensi kerja dokter mata dengan bantuan komputer. Deep learning merupakan sebuah metode yang banyak digunakan untuk menyelesaikan masalah ini. Salah satu arsitektur deep learning yang memiliki performa terbaik adalah residual network. Metode ini memiliki kelebihan dalam menghindari masalah degradasi akurasi, sehingga memungkinkan penggunaan jaringan yang dalam. Di sisi lain, metode persistent homology juga telah banyak berkembang dan diaplikasikan pada berbagai masalah. Metode ini berfokus pada informasi topologi yang terdapat pada data. Informasi topologi ini berbeda dengan representasi data yang didapatkan dari model residual network. Penelitian ini melakukan analisis terhadap penerapan persistent homology pada kerangka kerja residual network dalam permasalahan klasifikasi diabetik retinopati. Dalam studi ini, dilakukan eksperimen berkaitan dengan informasi topologi dan proses pengolahannya. Informasi topologi ini direpresentasikan dengan betti curve atau persistence image. Sementara itu, pada proses pengolahannya dilakukan ujicoba pada kanal citra, metode normalisasi, dan layer tambahan. Hasil eksperimen yang telah dilakukan adalah penerapan persistent homology pada kerangka kerja residual network dapat meningkatkan hasil klasifikasi penyakit diabetik retinopati. Selain itu, penggunaan betti curve dari kanal merah sebuah citra sebagai representasi informasi topologi memberikan hasil terbaik dengan skor kappa 0.829 pada data test.

Diabetic retinopathy is a complication of diabetes which can result in visual disturbance and even blindness. This disease becomes incurable after reaching certain phases, thus immidiate diagnosis is highly important. However, diagnosis by a professional ophthalmologist requires a great amount of time and cost. Therefore, efforts to increase the work efficiency of ophthalmologists using computer system has been done. Deep learning is a method that widely used to solve this particular problem. Residual network is one of deep learning architecture which has the best performance. The main advantage of residual network is its ability to prevent accuracy degradation, thus enabling the model to go deeper. On the other hand, persistent homology is also rapidly developing and applied in various fields. This method focus on the topological information of the data. This information are different with the data representation that extracted by neural network model. This study analyze the incorporation of persistent homology to residual networks framework for diabetic retinopati classification. In this study, experiments regarding about topological information and its process were carried out. The topological information is represented as betti curve or persistence image. Meanwhile, the experiments are analyzing the impact of image colour channel, normalization method, and additional layer. According to the experiments, application of persistent homology on residual network framework could improve the outcome of diabetic retinopathy classification. Moreover, the application of betti curve from the red channel as a representation of topological information has the best outcome with kappa score of 0.829."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2021
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Jafar Abdurrohman
"

Sebagai negara hukum, Indonesia memiliki sistem peradilan yang aktif. Setiap bulannya, terdapat sekitar 100.000 dokumen putusan yang dihasilkan oleh lembaga kehakiman di Indonesia. Volume dokumen yang banyak tersebut menimbulkan suatu tantangan bagi insan hukum di Indonesia. Guna mendukung dan mengakomodasi institusi publik dari aspek teknologi dan informasi, serta mendorong pelaksanaan keterbukaan informasi bagi masyarakat umum, maka dibutuhkan suatu metode yang dapat membantu untuk mencari dan mengumpulkan informasi penting dari suatu dokumen putusan pengadilan. Secara khusus, metode ini juga ditujukan untuk membantu para praktisi hukum untuk kepentingan penegakan hukum dan para akademisi hukum untuk kepentingan pendidikan dan pengembangan di bidang hukum. Salah satu teknik untuk mengumpulkan informasi penting dari suatu dokumen adalah Named Entity Recognition (NER). Teknik NER bekerja dengan cara menandai kata-kata yang merupakan informasi penting seperti orang, tempat, lokasi, waktu, kejadian, dan lainnya. NER dapat diterapkan untuk berbagai bidang permasalahan, seperti medis, hukum, dan pertanian. NER yang secara spesifik bekerja untuk menandai entitas hukum disebut dengan Legal Entity Recognition (LER). Penelitian sebelumnya telah menerapkan LER untuk dokumen legal berbahasa Indonesia dengan pendekatan BiLSTM dan CRF sehingga diperlukan penelitian lebih lanjut untuk mengetahui bagaimana performa model-model lain terhadap kasus tersebut. Penelitian ini menguji performa language model, yaitu model berbasis RoBERTa dan model berbasis BERT serta membandingkannya dengan deep learning model, yaitu BiLSTM dan BiLSTM-CRF sebagai model baseline penelitian sebelumnya untuk task LER bahasa indonesia. Hasil penelitian menunjukkan model berbasis RoBERTa memliki performa terbaik untuk task LER pada dataset penulis, XLM-R large dengan skor F1 sebesar 0,9295, XLM-R base dengan skor F1 sebesar 0,9281 dan Indonesian RoBERTa dengan skor F1 sebesar 0,9246.


As a rule of law country, Indonesia has an active justice system. Every month, there are around 100,000 decision documents produced by the judiciary in Indonesia. The large volume of documents poses a challenge for legal people in Indonesia. In order to support and accommodate public institutions from the aspects of technology and information, as well as encourage the implementation of information disclosure for the general public, a method is needed that can help find and collect important information from a court decision document. In particular, this method is also intended to assist legal practitioners for the benefit of law enforcement and legal academics for the benefit of education and development in the field of law. One technique for collecting important information from a document is Named Entity Recognition (NER). The NER technique works by marking words that are important information such as people, places, locations, times, events, and so on. NER can be applied to various problem areas, such as medical, legal, and agriculture. NER which specifically works to mark legal entities is called Legal Entity Recognition (LER). Previous studies have applied LER to legal documents in Indonesian using the BiLSTM and CRF approaches, so further research is needed to find out how other models perform in this case. This study examines the performance of language models, namely the RoBERTa-based model and the BERT-based model and compares them with deep learning models, namely BiLSTM and BiLSTM-CRF as the baseline models for previous studies for the Indonesian language LER task. The results showed that the RoBERTa-based model had the best performance for the LER task in the author’s dataset, XLM-R large with an F1 score of 0.9295, XLM-R base with an F1 score of 0.9281 and Indonesian RoBERTa with an F1 score of 0.9246.

"
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Thomas Hadi Wijaya
"Penelitian ini berfokus pada pengaplikasian teknologi deep learning, secara khusus menggunakan Residual Network (ResNet101) dalam prediksi perencanaan dosis untuk pasien kanker paru-paru. Tiga variasi input data diproses untuk dilatih dan diuji menggunakan ResNet, dan kemudian dievaluasi untuk menentukan variasi input yang paling akurat. Tujuan utama penelitian ini adalah memahami mekanisme kerja deep learning dalam prediksi perencanaan dosis, mengevaluasi akurasi prediksi menggunakan ResNet, dan menganalisis kinerja model pada masing-masing variasi input data. Metodologi yang digunakan melibatkan penggunaan model input dan output untuk menghasilkan kurva distribusi-volume dosis (DVH) prediksi dan aktual. DVH merupakan kurva yang digunakan untuk mengukur seberapa besar dosis yang diterima dalam persentase volume pada organ tertentu. Evaluasi dilakukan menggunakan metode Mean Absolute Error (MAE) dari persentase volume prediksi dan referensi masing-masing pasien pada rentang dosis yang ditentukan yaitu 0-60 Gy dengan lebar bin sebesar 0,25 Gy. Hasil evaluasi menunjukkan bahwa variasi data input A memberikan nilai MAE sebesar 11,24% ± 10,58%, variasi data input B memberikan MAE sebesar 12,79% ± 11,27%, dan variasi data input C memberikan MAE sebesar 12,22% ± 12,13%. Hasil tersebut memperlihatkan bahwa variasi data input A memiliki tingkat akurasi terbaik dengan nilai error dan standar deviasi terendah. Evaluasi juga melibatkan penggunaan train-val loss untuk masing-masing model yang dilatih. Temuan ini menunjukkan bahwa penggunaan citra CT sebagai channel 1, gabungan ROI tanpa ROI target sebagai channel 2, dan ROI target sebagai channel 3 memberikan prediksi perencanaan dosis yang paling akurat untuk pasien kanker paru-paru.

This study focuses on the application of deep learning technology, specifically using Residual Network (ResNet101), to predict dosage planning for lung cancer patients. Three variations of input data were processed for training and testing using ResNet, and then evaluated to determine the most accurate input variation. The primary objectives of this research are to understand the mechanism of deep learning in dosage planning prediction, evaluate prediction accuracy using ResNet, and analyze model performance for each input data variation. The methodology involved using input and output models to generate predicted and actual dose-volume histogram (DVH) curves. DVH is a curve used to measure the dose received as a volume percentage in a specific organ. Evaluation was conducted using the Mean Absolute Error (MAE) method from the volume percentage prediction and reference for each patient within a dose range of 0-60 Gy with a bin width of 0,25 Gy. The evaluation results showed that input data variation A yielded an MAE of 11,24% ± 10,58%, input data variation B yielded an MAE of 12,79% ± 11,27%, and input data variation C yielded an MAE of 12,22% ± 12,13%. These results indicate that input data variation A had the best accuracy with the lowest error and standard deviation. Evaluation also included using train-val loss for each trained model. These findings suggest that using CT images as channel 1, a combination of ROIs excluding the target ROI as channel 2, and the target ROI as channel 3 provides the most accurate dosage planning prediction for lung cancer patients."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Putu Bagus Raka Kesawa
"Kemajuan umat manusia dalam penerbangan modern sangat bergantung pada kemampuan untuk melakukan pemodelan sistem idenifikasi penerbangan dari suatu wahana pernerbangan. Pemodelan suatu sistem identifikasi penerbangan bergantung dengan tingkat kualitas dan kuantitas dari data simulasi yang digunakan untuk mendapatkan pendekatan situasi dan kondisi penerbangan aktual yang seakurat mungkin. Akurasi dan presisi dari data simulasi yang digunakan dalam pemodelan sistem penerbangan akan mempengaruhi hasil algoritma yang digunakan dalam sistem identifikasi. Dalam pencapaian kualitas data tersebut, digunakanlah perangkat lunak X-Plane yang berfungsi sebagai simulator penerbangan ultra-realistis yang menyuplai set data yang memungkinkan pembelajaran mesin dari algoritma berbasis komputer. Data pembelajaran pesawat terbang terdiri dari attitude orientasi pesawat. Data yang diperoleh dari simulator tersebut akan diproseskan menggunakan metode preprocessing, sehingga layak digunakan untuk pelatihan sistem identifikasi. Suatu algoritma artificial neural network diterapkan untuk mengidentifikasi sistem pesawat dengan mempelajari dataset yang disebutkan di atas, yang kemudian akan digunakan dalam pengembangan perancangan sistem kontrol. Algoritma artificial neural network yang dirancang dalam penelitian ini telah menunjukkan keberhasilan dalam sistem identifikasi untuk sistem penerbangan pesawat, dan siap digunakan dalam percobaan dan pengujian sistem kontrol pada pesawat.

Humanitys progress in modern aviation is very dependent on the ability to model the flight identification system of a flight vehicle. Modeling a flight identification system depends on the quality and quantity of simulation data used to get the most accurate representation of the actual flight situation and condition. The accuracy and precision of the simulation data used in the flight system modeling will affect the results of the algorithm used in the identification system. In achieving this data quality, X-Plane software is used which functions as an ultra realistic flight simulator that supplies data sets that enable machine learning from computer based algorithms. Airplane learning data consists of airplane orientation attitude. Data obtained from the simulator will be processed using the preprocessing method, so it is feasible to use for identification system training. An artificial neural network algorithm is applied to identify aircraft systems by studying the dataset mentioned above, which will then be used in the development of control system design. The artificial neural network algorithm designed in this study has shown success in the identification system for aircraft flight systems, and is ready to be used in the testing and testing of control systems on aircraft."
Depok: Fakultas Teknik Universitas Indonesia, 2020
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Adi Yudho Wijayanto
"Tujuan utama penggunaan peralatan Pressure Relief Device (PRD) adalah untuk memastikan keamanan bejana tekan dalam sistem bertekanan. Seiring berjalannya waktu, peralatan PRD dapat mengalami penurunan kualitas dan gagal menjalankan fungsi yang diharapkan, sehingga harus diidentifikasi sebagai mode kegagalan. Untuk memitigasi potensi risiko yang terkait dengan hal ini, direkomendasikan agar pendekatan seperti inspeksi berbasis risiko (RBI) diterapkan. Meskipun RBI telah diadopsi secara luas, metode ini bergantung pada teknik kualitatif, sehingga menyebabkan variasi yang signifikan dalam penilaian risiko peralatan. Studi ini mengusulkan metode analisis risiko baru yang menggunakan pembelajaran mesin berbasis pembelajaran mendalam untuk mengembangkan model penilaian risiko untuk peralatan PRD terkait dengan mode kegagalan failure on leakage. Pendekatan inovatif ini akan mengurangi waktu penilaian, meningkatkan akurasi, dan menurunkan biaya pemrosesan dengan memberikan hasil penghitungan yang tepat. Penelitian ini mengembangkan program prediksi risiko yang menggunakan pembelajaran mesin berbasis deep learning yang dirancang secara eksplisit untuk mode kegagalan failure on leakage pada peralatan pelepas tekanan. Dataset yang digunakan dalam proses pengembangan model mengikuti standar API 581 dan berisi 168 dataset. Berbagai parameter model digunakan, antara lain test size 20%, nilai random state 0, 150 epoch, learning rate 0,001, dan 3 layers dengan nilai dense 128, 64, dan 32. Performa model dievaluasi menggunakan validation confusion matrix, yang menunjukkan akurasi 94%.

The primary objective of deploying Pressure Relief Device (PRD) equipment is to ensure the safety of pressure vessels within a pressurized system. Over time, PRD equipment may degrade and fail to perform its intended function, which must be identified as a failure mode. To mitigate potential risks associated with this, it is recommended that an approach such as risk-based inspection (RBI) be implemented. Despite the widespread adoption of RBI, the method relies on qualitative techniques, leading to significant variations in equipment risk assessments. This study proposes a novel risk analysis method that uses deep learning-based machine learning to develop a risk assessment model for PRD equipment related to the fail-on-leakage failure mode. This innovative approach will reduce assessment times, improve accuracy, and lower processing costs by providing precise calculation results. The research develops a risk prediction program that uses deep learning-based machine learning designed explicitly for failure-on-leakage failure mode in pressure relief equipment. The dataset used in the model development process adheres to API 581 standards and comprises 168 data points. Various model parameters are employed, including a test size of 20%, a random state value of 0, 150 epochs, a learning rate of 0.001, and 3 layers with dense values of 128, 64, and 32. The model's performance is evaluated using a validation confusion matrix, which indicates an accuracy of 94%."
Depok: Fakultas Teknik Universitas Indonesia, 2024
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Muhammad Hanif Fahreza
"

Aksara Pegon adalah sistem penulisan berbasis Arab yang digunakan untuk menulis bahasa Jawa, Sunda, Madura, dan Indonesia. Karena berbagai alasan, aksara ini telah diturunkan ke ranah kolektor naskah sejarah dan pesantren, sehingga perlu dilestarikan. Salah satu metode pelestarian ini adalah melalui digitalisasi; lebih tepatnya dengan mentranskripsikan isi dari naskah-naskah yang ada ke dalam bentuk teks machine encoded, dimana proses tersebut jika dilakukan secara otomatis disebut juga sebagai OCR, atau Pengenalan Karakter Optik. Sampai saat ini belum ada literatur yang dipublikasikan mengenai sistem OCR untuk aksara ini. Oleh karena itu, penelitian ini bertujuan untuk menjembatani kesenjangan tersebut dengan menyediakan OCR untuk subset tertentu dari naskah Pegon, yaitu naskah Pegon yang dicetak. Penelitian ini memperkenalkan dataset yang disintesis dan yang dianotasi untuk pengenalan teks Pegon cetak. Dataset-dataset ini kemudian digunakan untuk mengevaluasi sistem OCR Arab konvensional yang sudah ada pada domain Pegon, baik versi asli maupun yang dimodifikasi, serta sistem berbasis teknik deep learning yang lebih baru dalam literatur. Hasilnya menunjukkan bahwa teknik deep learning mengungguli teknik konvensional, di mana teknik konvensional gagal mendeteksi teks Pegon sama sekali, sementara sistem yang diusulkan, khususnya menggunakan YOLOv5 untuk segmentasi baris dan arsitektur CTC-CRNN untuk pengenalan teks baris, mencapai nilai F1 sebesar 0,94 untuk segmentasi dan CER 0,03 untuk pengenalan teks.


The Pegon script is an Arabic-based writing system intended for writing the Javanese,
Sundanese, and Indonesian languages. Due to various reasons, this script has been
relegated to the domain of historical manuscript collectors and private Islamic boarding
schools or pesantren, presenting a need for preservation. One of these methods of
preservation is through digitization; more specifically, by transcribing the content of
these existing manuscripts into machine-encoded text, the automated process of which is
referred to as OCR. There has been heretofore no published literature on OCR systems
for this specific script. Hence, this research aims to bridge that gap by providing a
foray into the OCR of a specific subset of Pegon manuscripts, namely of printed Pegon
manuscripts. This research evaluates existing and modified versions of conventional
Arabic OCR systems on the domain of Pegon, as well as the more recent deep learning
techniques in the literature, along with introducing new datasets for use in developing
with said deep learning techniques. The results show the outperformance of these deep
learning techniques over the conventional techniques and with which components of a
Pegon OCR system is proposed.

"
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Rionaldi Dwipurna Wongsoputra
"Peningkatan jumlah kendaraan beserta pelanggaran lalu lintas setiap tahunnya membuat semakin sulit bagi pihak berwenang untuk mendeteksi dan menindak pelanggaran tersebut. Salah satu pelanggaran yang menantang untuk dideteksi adalah penggunaan plat palsu pada mobil. Implementasi Intelligent Transportation System (ITS) dalam sistem lalu lintas dapat memberikan kontribusi signifikan dalam mendeteksi jenis pelanggaran ini. Beberapa studi sebelumnya telah sukses menerapkan ITS untuk mendeteksi dan mengklasifikasikan kendaraan menggunakan deep learning, memberikan solusi dalam penanganan pelanggaran lalu lintas. Penerapan teknologi ini dapat memberikan dukungan yang efektif bagi pihak berwenang dalam mengambil tindakan yang tepat. Penelitian ini bertujuan untuk mengembangkan sistem deteksi tipe mobil dan plat nomornya. Dalam pendekatan ini, model deep learning YOLO-NAS dan EfficientNet digunakan untuk mendeteksi dan mengklasifikasikan jenis mobil serta plat nomornya. Sebagai pendukung, model SRGAN digunakan untuk meningkatkan resolusi citra plat mobil. Untuk tujuan mendeteksi penggunaan plat palsu pada kendaraan, maka selanjutnya hasil dari sistem ini dapat diintegrasikan dengan database plat dan jenis kendaraan untuk mendeteksi plat yang palsu. Performa terbaik pada masing-masing model adalah 92% untuk akurasi validasi model EfficientNet dengan menggunakan layer dense sebesar 1024 dan dropout sebesar 0.2, 93% pada nilai mAP dan 1.24 pada nilai validasi loss untuk model YOLO-NAS dengan melakukan training sebanyak 30 epoch, serta nilai PSNR sebesar 19.5 dan nilai validasi loss sebesar 2.8 untuk model SRGAN dengan learning rate generator sebesar 0.001 dan learning rate discriminator sebesar 0.0001. Dibutuhkan pengembangan lebih lanjut pada model ini agar dapat dipakai secara real-time.

The increasing number of vehicles and traffic violations each year makes it increasingly challenging for authorities to detect and address these violations. One of the challenging offenses to detect is the use of fake license plates on cars. The implementation of Intelligent Transportation Systems (ITS) in traffic can significantly contribute to detecting such violations. Several studies have successfully applied ITS for vehicle detection and classification using deep learning, providing a solution for handling traffic violations. The adoption of this technology can effectively support authorities in taking appropriate actions. Based on existing literature, this research aims to develop a system for detecting the type and license plates of vehicles. In this approach, deep learning models, YOLO-NAS, and EfficientNet are used to detect and classify the type of vehicles and their license plates. As a supportive model, SRGAN is utilized to enhance the resolution of license plate images. This research is expected to contribute to improving the effectiveness of traffic violation detection, particularly concerning the use of fake plates on vehicles. Furthermore, the results from this system can be integrated with license plate and vehicle type databases to detect fake plates. The best performance of each model is 92% for the validation accuracy of the EfficientNet model using a dense layer of 1024 and a dropout of 0.2, 93% for the mAP value and 1.24 for the validation loss value for the YOLO-NAS model after training for 30 epochs, and a PSNR value of 19.5 and a validation loss value of 2.8 for the SRGAN model with a generator learning rate of 0.001 and a discriminator learning rate of 0.0001. Further development of this model is needed for real-time application."
Depok: Fakultas Teknik Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Hasnan Fiqih
"Hampir separuh dunia bergantung pada makanan yang berasal dari laut sebagai sumber protein utama. Di Pasifik Barat dan Tengah 60% dari ikan tuna ditangkap secara illegal, tidak dilaporkan, dan tidak diatur dengan regulasi dapat mengancam ekosistem laut, pasokan ikan global, dan mata pencaharian lokal. Salah satu solusi yang dapat dilakukan adalah dengan menggunakan kamera keamanan untuk menangkap gambar aktivitas kapal. Pada penelitian ini akan dibuat sistem untuk mengklasifikasi jenis ikan yang ditangkap dari gambar kamera keamanan kapal tersebut. Sistem ini menggunakan model transfer learning yang sudah dilakukan fine tuning dan dilatih menggunakan dataset yang disediakan oleh The Nature Conservancy. Dari penelitian ini didapatkan performa terbaik dengan akurasi 98.19% menggunakan model EfficientNetV2L dan optimizer Stochastic Gradient Descent (SGD) dengan learning rate 1e-4, momentum 0.9, weight decay 1e-6, dan split ratio training testing 80/20. Dengan sistem ini pengolahan data untuk menghitung jumlah penangkapan ikan berdasarkan spesies akan lebih efisien.

Almost half of the world depends on food that comes from the sea as the main source of protein. In the West and Central Pacific 60% of tuna fish are caught illegally, unreported and unregulated, threatening marine ecosystems, global fish supplies and local livelihoods. One possible solution is to use a security camera to capture images of ship activity. In this study a system will be created to classify the types of fish caught from the ship's security camera images. This system uses a transfer learning model that has been fine tuned and trained using the dataset provided by The Nature Conservancy. From this study, the best performance was obtained with an accuracy of 98.19% using the EfficientNetV2L model and the Stochastic Gradient Descent (SGD) optimizer with a learning rate of 1e-4, momentum of 0.9, weight decay of 1e-6, and split ratio training testing of 80/20. With this system, data processing to calculate the amount of fish caught by species will be more efficient.
"
Depok: Fakultas Teknik Universitas Indonesia, 2022
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
<<   1 2 3 4 5 6 7 8 9   >>