Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 110688 dokumen yang sesuai dengan query
cover
Fariz Wahyuzan Dwitilas
"

Sebagai negara hukum, Indonesia memiliki sistem peradilan yang aktif. Setiap bulannya, terdapat sekitar 100.000 dokumen putusan yang dihasilkan oleh lembaga kehakiman di Indonesia. Volume dokumen yang banyak tersebut menimbulkan suatu tantangan bagi insan hukum di Indonesia. Guna mendukung dan mengakomodasi institusi publik dari aspek teknologi dan informasi, serta mendorong pelaksanaan keterbukaan informasi bagi masyarakat umum, maka dibutuhkan suatu metode yang dapat membantu untuk mencari dan mengumpulkan informasi penting dari suatu dokumen putusan pengadilan. Secara khusus, metode ini juga ditujukan untuk membantu para praktisi hukum untuk kepentingan penegakan hukum dan para akademisi hukum untuk kepentingan pendidikan dan pengembangan di bidang hukum. Salah satu teknik untuk mengumpulkan informasi penting dari suatu dokumen adalah Named Entity Recognition (NER). Teknik NER bekerja dengan cara menandai kata-kata yang merupakan informasi penting seperti orang, tempat, lokasi, waktu, kejadian, dan lainnya. NER dapat diterapkan untuk berbagai bidang permasalahan, seperti medis, hukum, dan pertanian. NER yang secara spesifik bekerja untuk menandai entitas hukum disebut dengan Legal Entity Recognition (LER). Penelitian sebelumnya telah menerapkan LER untuk dokumen legal berbahasa Indonesia dengan pendekatan BiLSTM dan CRF sehingga diperlukan penelitian lebih lanjut untuk mengetahui bagaimana performa model-model lain terhadap kasus tersebut. Penelitian ini menguji performa language model, yaitu model berbasis RoBERTa dan model berbasis BERT serta membandingkannya dengan deep learning model, yaitu BiLSTM dan BiLSTM-CRF sebagai model baseline penelitian sebelumnya untuk task LER bahasa indonesia. Hasil penelitian menunjukkan model berbasis RoBERTa memliki performa terbaik untuk task LER pada dataset penulis, XLM-R large dengan skor F1 sebesar 0,9295, XLM-R base dengan skor F1 sebesar 0,9281 dan Indonesian RoBERTa dengan skor F1 sebesar 0,9246.


As a rule of law country, Indonesia has an active justice system. Every month, there are around 100,000 decision documents produced by the judiciary in Indonesia. The large volume of documents poses a challenge for legal people in Indonesia. In order to support and accommodate public institutions from the aspects of technology and information, as well as encourage the implementation of information disclosure for the general public, a method is needed that can help find and collect important information from a court decision document. In particular, this method is also intended to assist legal practitioners for the benefit of law enforcement and legal academics for the benefit of education and development in the field of law. One technique for collecting important information from a document is Named Entity Recognition (NER). The NER technique works by marking words that are important information such as people, places, locations, times, events, and so on. NER can be applied to various problem areas, such as medical, legal, and agriculture. NER which specifically works to mark legal entities is called Legal Entity Recognition (LER). Previous studies have applied LER to legal documents in Indonesian using the BiLSTM and CRF approaches, so further research is needed to find out how other models perform in this case. This study examines the performance of language models, namely the RoBERTa-based model and the BERT-based model and compares them with deep learning models, namely BiLSTM and BiLSTM-CRF as the baseline models for previous studies for the Indonesian language LER task. The results showed that the RoBERTa-based model had the best performance for the LER task in the author’s dataset, XLM-R large with an F1 score of 0.9295, XLM-R base with an F1 score of 0.9281 and Indonesian RoBERTa with an F1 score of 0.9246.

 

"
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Naradhipa Mahardhika Setiawan Bhary
"Sebagai negara hukum, Indonesia memiliki sistem peradilan yang aktif. Setiap bulannya, terdapat sekitar 100.000 dokumen putusan yang dihasilkan oleh lembaga kehakiman di Indonesia. Volume dokumen yang banyak tersebut menimbulkan suatu tantangan bagi insan hukum di Indonesia. Guna mendukung dan mengakomodasi institusi publik dari aspek teknologi dan informasi, serta mendorong pelaksanaan keterbukaan informasi bagi masyarakat umum, maka dibutuhkan suatu metode yang dapat membantu untuk mencari dan mengumpulkan informasi penting dari suatu dokumen putusan pengadilan. Secara khusus, metode ini juga ditujukan untuk membantu para praktisi hukum untuk kepentingan penegakan hukum dan para akademisi hukum untuk kepentingan pendidikan dan pengembangan di bidang hukum. Salah satu teknik untuk mengumpulkan informasi penting dari suatu dokumen adalah Named Entity Recognition (NER). Teknik NER bekerja dengan cara menandai kata-kata yang merupakan informasi penting seperti orang, tempat, lokasi, waktu, kejadian, dan lainnya. NER dapat diterapkan untuk berbagai bidang permasalahan, seperti medis, hukum, dan pertanian. NER yang secara spesifik bekerja untuk menandai entitas hukum disebut dengan Legal Entity Recognition (LER). Penelitian sebelumnya telah menerapkan LER untuk dokumen legal berbahasa Indonesia dengan pendekatan BiLSTM dan CRF sehingga diperlukan penelitian lebih lanjut untuk mengetahui bagaimana performa model-model lain terhadap kasus tersebut. Penelitian ini menguji performa language model, yaitu model berbasis RoBERTa dan model berbasis BERT serta membandingkannya dengan deep learning model, yaitu BiLSTM dan BiLSTM-CRF sebagai model baseline penelitian sebelumnya untuk task LER bahasa indonesia. Hasil penelitian menunjukkan model berbasis RoBERTa memliki performa terbaik untuk task LER pada dataset penulis, XLM-R large dengan skor F1 sebesar 0,9295, XLM-R base dengan skor F1 sebesar 0,9281 dan Indonesian RoBERTa dengan skor F1 sebesar 0,9246.

As a rule of law country, Indonesia has an active justice system. Every month, there are around 100,000 decision documents produced by the judiciary in Indonesia. The large volume of documents poses a challenge for legal people in Indonesia. In order to support and accommodate public institutions from the aspects of technology and information, as well as encourage the implementation of information disclosure for the general public, a method is needed that can help find and collect important information from a court decision document. In particular, this method is also intended to assist legal practitioners for the benefit of law enforcement and legal academics for the benefit of education and development in the field of law. One technique for collecting important information from a document is Named Entity Recognition (NER). The NER technique works by marking words that are important information such as people, places, locations, times, events, and so on. NER can be applied to various problem areas, such as medical, legal, and agriculture. NER which specifically works to mark legal entities is called Legal Entity Recognition (LER). Previous studies have applied LER to legal documents in Indonesian using the BiLSTM and CRF approaches, so further research is needed to find out how other models perform in this case. This study examines the performance of language models, namely the RoBERTa-based model and the BERT-based model and compares them with deep learning models, namely BiLSTM and BiLSTM-CRF as the baseline models for previous studies for the Indonesian language LER task. The results showed that the RoBERTa-based model had the best performance for the LER task in the author’s dataset, XLM-R large with an F1 score of 0.9295, XLM-R base with an F1 score of 0.9281 and Indonesian RoBERTa with an F1 score of 0.9246."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Jafar Abdurrohman
"

Sebagai negara hukum, Indonesia memiliki sistem peradilan yang aktif. Setiap bulannya, terdapat sekitar 100.000 dokumen putusan yang dihasilkan oleh lembaga kehakiman di Indonesia. Volume dokumen yang banyak tersebut menimbulkan suatu tantangan bagi insan hukum di Indonesia. Guna mendukung dan mengakomodasi institusi publik dari aspek teknologi dan informasi, serta mendorong pelaksanaan keterbukaan informasi bagi masyarakat umum, maka dibutuhkan suatu metode yang dapat membantu untuk mencari dan mengumpulkan informasi penting dari suatu dokumen putusan pengadilan. Secara khusus, metode ini juga ditujukan untuk membantu para praktisi hukum untuk kepentingan penegakan hukum dan para akademisi hukum untuk kepentingan pendidikan dan pengembangan di bidang hukum. Salah satu teknik untuk mengumpulkan informasi penting dari suatu dokumen adalah Named Entity Recognition (NER). Teknik NER bekerja dengan cara menandai kata-kata yang merupakan informasi penting seperti orang, tempat, lokasi, waktu, kejadian, dan lainnya. NER dapat diterapkan untuk berbagai bidang permasalahan, seperti medis, hukum, dan pertanian. NER yang secara spesifik bekerja untuk menandai entitas hukum disebut dengan Legal Entity Recognition (LER). Penelitian sebelumnya telah menerapkan LER untuk dokumen legal berbahasa Indonesia dengan pendekatan BiLSTM dan CRF sehingga diperlukan penelitian lebih lanjut untuk mengetahui bagaimana performa model-model lain terhadap kasus tersebut. Penelitian ini menguji performa language model, yaitu model berbasis RoBERTa dan model berbasis BERT serta membandingkannya dengan deep learning model, yaitu BiLSTM dan BiLSTM-CRF sebagai model baseline penelitian sebelumnya untuk task LER bahasa indonesia. Hasil penelitian menunjukkan model berbasis RoBERTa memliki performa terbaik untuk task LER pada dataset penulis, XLM-R large dengan skor F1 sebesar 0,9295, XLM-R base dengan skor F1 sebesar 0,9281 dan Indonesian RoBERTa dengan skor F1 sebesar 0,9246.


As a rule of law country, Indonesia has an active justice system. Every month, there are around 100,000 decision documents produced by the judiciary in Indonesia. The large volume of documents poses a challenge for legal people in Indonesia. In order to support and accommodate public institutions from the aspects of technology and information, as well as encourage the implementation of information disclosure for the general public, a method is needed that can help find and collect important information from a court decision document. In particular, this method is also intended to assist legal practitioners for the benefit of law enforcement and legal academics for the benefit of education and development in the field of law. One technique for collecting important information from a document is Named Entity Recognition (NER). The NER technique works by marking words that are important information such as people, places, locations, times, events, and so on. NER can be applied to various problem areas, such as medical, legal, and agriculture. NER which specifically works to mark legal entities is called Legal Entity Recognition (LER). Previous studies have applied LER to legal documents in Indonesian using the BiLSTM and CRF approaches, so further research is needed to find out how other models perform in this case. This study examines the performance of language models, namely the RoBERTa-based model and the BERT-based model and compares them with deep learning models, namely BiLSTM and BiLSTM-CRF as the baseline models for previous studies for the Indonesian language LER task. The results showed that the RoBERTa-based model had the best performance for the LER task in the author’s dataset, XLM-R large with an F1 score of 0.9295, XLM-R base with an F1 score of 0.9281 and Indonesian RoBERTa with an F1 score of 0.9246.

"
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Muhammad Hanif Fahreza
"

Aksara Pegon adalah sistem penulisan berbasis Arab yang digunakan untuk menulis bahasa Jawa, Sunda, Madura, dan Indonesia. Karena berbagai alasan, aksara ini telah diturunkan ke ranah kolektor naskah sejarah dan pesantren, sehingga perlu dilestarikan. Salah satu metode pelestarian ini adalah melalui digitalisasi; lebih tepatnya dengan mentranskripsikan isi dari naskah-naskah yang ada ke dalam bentuk teks machine encoded, dimana proses tersebut jika dilakukan secara otomatis disebut juga sebagai OCR, atau Pengenalan Karakter Optik. Sampai saat ini belum ada literatur yang dipublikasikan mengenai sistem OCR untuk aksara ini. Oleh karena itu, penelitian ini bertujuan untuk menjembatani kesenjangan tersebut dengan menyediakan OCR untuk subset tertentu dari naskah Pegon, yaitu naskah Pegon yang dicetak. Penelitian ini memperkenalkan dataset yang disintesis dan yang dianotasi untuk pengenalan teks Pegon cetak. Dataset-dataset ini kemudian digunakan untuk mengevaluasi sistem OCR Arab konvensional yang sudah ada pada domain Pegon, baik versi asli maupun yang dimodifikasi, serta sistem berbasis teknik deep learning yang lebih baru dalam literatur. Hasilnya menunjukkan bahwa teknik deep learning mengungguli teknik konvensional, di mana teknik konvensional gagal mendeteksi teks Pegon sama sekali, sementara sistem yang diusulkan, khususnya menggunakan YOLOv5 untuk segmentasi baris dan arsitektur CTC-CRNN untuk pengenalan teks baris, mencapai nilai F1 sebesar 0,94 untuk segmentasi dan CER 0,03 untuk pengenalan teks.


The Pegon script is an Arabic-based writing system intended for writing the Javanese,
Sundanese, and Indonesian languages. Due to various reasons, this script has been
relegated to the domain of historical manuscript collectors and private Islamic boarding
schools or pesantren, presenting a need for preservation. One of these methods of
preservation is through digitization; more specifically, by transcribing the content of
these existing manuscripts into machine-encoded text, the automated process of which is
referred to as OCR. There has been heretofore no published literature on OCR systems
for this specific script. Hence, this research aims to bridge that gap by providing a
foray into the OCR of a specific subset of Pegon manuscripts, namely of printed Pegon
manuscripts. This research evaluates existing and modified versions of conventional
Arabic OCR systems on the domain of Pegon, as well as the more recent deep learning
techniques in the literature, along with introducing new datasets for use in developing
with said deep learning techniques. The results show the outperformance of these deep
learning techniques over the conventional techniques and with which components of a
Pegon OCR system is proposed.

"
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Denanir Fadila Nasiri
"Legal reasoning merupakan metode yang digunakan untuk menerapkan aturan atau Undang-Undang terhadap fakta yang dimiliki dengan tujuan untuk memperoleh argumentasi hukum. Salah satu metode legal reasoning adalah dengan penalaran induktif, yaitu didasarkan pada kasus-kasus terdahulu. Mahkamah Agung di Indonesia melalui situs Direktori Putusan Pengadilan, yang menyediakan dokumen hasil proses pengadilan yang saat ini menampung jumlah dokumen yang sangat besar. Kumpulan dokumen tersebut dapat dimanfaatkan untuk melakukan aktivitas legal reasoning, seperti klasifikasi jenis tindak pidana (criminal offense). Pada penelitian ini, penulis mengusulkan metode deep learning untuk mengklasifikasikan jenis tindak pidana. Hal ini dapat berguna untuk memberikan efisiensi dan referensi kepada praktisi hukum maupun memudahkan masyarakat untuk memahami dasar hukum dari suatu kasus. Secara spesifik, salah satu rancangan model yang diusulkan adalah dengan penerapan model LEAM (Label Embedding Attentive Model) dengan penambahan sejumlah keyword pada label embedding. Model ini secara konsisten memberikan performa yang baik dalam eksperimen, termasuk pada imbalanced dataset dengan perolehan f1-score 68%.

Legal reasoning is a sequence of activities to identify law rules and obtain legal arguments. One of the method in legal reasoning is by using inductive reasoning, which analyzes previous decided cases. Indonesia’s Supreme Court stores the court decision documents online in a large sum. These collections can be utilized to perform legal reasoning, where in this research we focus on the classification of criminal offense. We performed pre-processing tasks including conversion of document to text and cleaning text. We then compared deep learning models, such as LSTM, BiLSTM, CNN+LSTM, and LEAM (Label Embedding Attentive Model). Instead of using only the label name in LEAM, we also carried out experiments by adding related keywords for each label. The LEAM model with additional keywords obtained the best result in an imbalanced dataset with 68% macro average f1-score."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2021
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Theresia Gowandi
"Analisis sentimen adalah salah satu bidang dari Pemrosesan Bahasa Alami yang membangun sistem untuk mengenal opini dalam teks dan mengelompokkan ke dalam sentimen positif atau negatif. Banyak peneliti telah membangun model yang menghasilkan akurasi terbaik dalam melakukan analisis sentimen. Tiga diantaranya adalah Convolutional Neural Network (CNN), Long Short-Term Memory (LSTM), dan Gated Recurrent Unit (GRU), yang merupakan bagian dari deep learning. CNN digunakan karena kemampuannya dalam mengekstrak fitur penting dalam penggalan kalimat, sedangkan LSTM dan GRU digunakan karena kemampuannya yang memiliki memori akan input yang telah diproses sebelumnya. GRU memiliki struktur yang lebih sederhana dibandingkan dengan LSTM. Ketiga model tersebut dapat digabungkan menjadi model gabungan LSTM-CNN, CNN-LSTM, GRU-CNN, dan CNN-GRU. Penelitian sebelumnya telah membuktikan bahwa model gabungan tersebut memiliki akurasi yang lebih baik dibandingkan dengan model dasar LSTM, GRU, dan CNN. Implementasi model dilakukan pada data ulasan aplikasi berbahasa Indonesia. Hasilnya, didapatkan bahwa hampir seluruh model gabungan memiliki akurasi yang lebih baik dibandingkan dengan model dasar.

Sentiment analysis is one of the fields of Natural Language Processing that builds a system to recognize and extract opinion in the form of text into positive or negative sentiment. Nowadays, many researchers have developed methods that yield the best accuracy in performing analysis sentiment. Three particular models are Convolutional Neural Network (CNN), Long Short-Term Memory (LSTM), and Gated Recurrent Unit (GRU), which are part of deep learning architectures. CNN is used because of its ability to extract important features from each sentence fragment, while LSTM and GRU are used because of their ability to have a memory of prior inputs. GRU has a simpler and more practical structure compared to LSTM. These models can be combined into combined LSTM-CNN, CNN-LSTM, GRU-CNN, and CNN-GRU model. Former researches have proved that these models have better accuracy compared to standard models. This research is focused on the performance of all the combined LSTM-CNN, CNN-LSTM, GRU-CNN, CNN-GRU models and will be compared to the standard LSTM, GRU, CNN models. Implementation of the model is performed on a collection of application review data in Indonesian text. As a result, almost all of the combined models have better accuracy than the standard models."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2021
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Ajeng Dwi Asti
"Ujaran kebencian dapat menyebabkan terjadinya konflik dan pembantaian di masyarakat sehingga harus segera ditangani. Indonesia memiliki lebih dari 700 bahasa daerah dengan karakteristik masing-masing. Ujaran kebencian yang ada di Indonesia juga pernah dilakukan menggunakan bahasa daerah. Media sosial Twitter paling sering digunakan dalam menyebarkan ujaran kebencian. Identifikasi target, kategori, serta level ujaran kebencian dapat membantu Polri dan Kemenkominfo dalam menentukan prioritas penanganan ujaran kebencian sehingga dapat meminimalisir dampaknya. Penelitian ini melakukan identifikasi ujaran kasar dan ujaran kebencian beserta target, kategori, dan level ujaran kebencian pada data Twitter berbahasa daerah menggunakan algoritma classical machine learning dan deep learning. Penelitian ini menggunakan data lima bahasa daerah di Indonesia dengan penutur terbanyak yaitu Jawa, Sunda, Madura, Minang, dan Musi. Pada data Bahasa Jawa performa terbaik diperoleh menggunakan algoritma Support Vector Machine (SVM) dengan transformasi data Classifier Chains (CC) serta kombinasi fitur word unigram, bigram, dan trigram dengan F1-score 70,43%. Algoritma SVM dengan transformasi data CC serta kombinasi fitur word unigram dan bigram memberikan performa terbaik pada data Bahasa Sunda dan Madura dengan masing-masing F1-score 68,79% dan 78,81%. Sementara itu, pada data Bahasa Minang dan Musi hasil terbaik diperoleh menggunakan algoritma SVM dengan transformasi data CC serta fitur word unigram dengan F1-score 83,57% dan 80,72%. Penelitian ini diharapkan dapat digunakan sebagai masukan bagi Polri dan Kemenkominfo dalam pembangunan sistem identifikasi ujaran kasar, ujaran kebencian serta target, kategori, dan level ujaran kebencian pada media sosial.

Hate speech can lead to conflict and massacres in society so it must be dealt immediately. Indonesia has more than 700 regional languages with their own characteristics. Hate speech in Indonesia has also been carried out using regional languages. Twitter is the most frequently used social media to spread hate speech. Identification of targets, categories, and levels of hate speech can help the National Police and the Ministry of Communication and Information to determine priorities for handling hate speech to minimize its impact. This study identifies abusive speech and hate speech along with the target, category, and level of hate speech on regional language Twitter data using classical machine learning and deep learning algorithms. This study uses data from five regional languages in Indonesia with the most speakers, namely Javanese, Sundanese, Madurese, Minang, and Musi. In Java language data, the best performance is obtained using the Support Vector Machine (SVM) algorithm with Classifier Chains (CC) data transformation and a combination of unigram, bigram, and trigram word features with an F1-score of 70.43%. The SVM algorithm with CC data transformation and the combination of unigram and bigram word features provides the best performance on Sundanese and Madurese data with F1-scores of 68.79% and 78.81%, respectively. Meanwhile, in Minang and Musi language data, the best results were obtained using the SVM algorithm with CC data transformation and word unigram features with F1-scores of 83.57% and 80.72%, respectively. This research is expected to be used as input for the National Police and the Ministry of Communication and Information in developing a system for identifying harsh speech, hate speech and the target, category, and level of hate speech on social media."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2022
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Dwi Guna Mandhasiya
"Ilmu Data adalah irisan dari matematika dan statistika, komputer, serta keahlian domain. Dalam beberapa tahun terakhir inovasi pada bidang ilmu data berkembang sangat pesat, seperti Artificial Intelligence (AI) yang telah banyak membantu kehidupan manusia. Deep Learning (DL) sebagai bagian dari AI merupakan pengembangan dari salah satu model machine learning yaitu neural network. Dengan banyaknya jumlah lapisan neural network, model deep learning mampu melakukan proses ekstrasi fitur dan klasifikasi dalam satu arsitektur. Model ini telah terbukti mengungguli teknik state-of-the-art machine learning di beberapa bidang seperti pengenalan pola, suara, citra, dan klasifikasi teks. Model deep learning telah melampaui pendekatan berbasis AI dalam berbagai tugas klasifikasi teks, termasuk analisis sentimen. Data teks dapat berasal dari berbagai sumber, seperti sumber dari media sosial. Analisis sentimen atau opinion mining merupakan salah satu studi komputasi yang menganalisis opini dan emosi yang diekspresikan pada teks. Pada penelitian ini analisis peforma machine learning dilakukan pada metode deep learning berbasis representasi data BERT dengan metode CNN dan LSTM serta metode hybrid deep learning CNN-LSTM dan LSTM-CNN. Implementasi model menggunakan data komentar youtube pada video politik dengan topik terkait Pilpres 2024, kemudian evaluasi peforma dilakukan menggunakan confusion metric berupa akurasi, presisi, dan recall.

Data Science is the intersection of mathematics and statistics, computing, and a domain of expertise. In recent years innovation in the field of data science has developed very rapidly, such as Artificial Intelligence (AI) which helped a lot in human life. Deep Learning (DL) as part of AI is the development of one of the machine learning models, namely neural network. With the large number of neural network layers, deep learning models are capable of performing feature extraction and classification processes in a single architecture. This model has proven to outperform state-of-the-art machine learning techniques in areas such as pattern recognition, speech, imagery, and text classification. Deep learning models have gone beyond AI-based approaches in a variety of text classification task, including sentiment analysis. Text data can come from various sources, such as source from social media. Sentiment analysis or opinion mining is a computational study that analyze opinions and emotions expressed in text. In this research, machine learning performance analysis is carried out on a deep learning method based on BERT data representation with the CNN and LSTM and hybrid deep learning CNN-LSTM and LSTM-CNN method. The implementation of the model uses YouTube commentary data on political videos related to the 2024 Indonesia presidential election, then performance analysis is carried out using confusion metrics in the form of accuracy, precision, and recall."
Depok: Fakultas Matematika Dan Ilmu Pengetahuan Alam Universitas Indonesia, 2023
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Bella Septina Ika Hartanti
"Bencana banjir merupakan salah satu peristiwa alam yang sering terjadi di dunia, termasuk Indonesia, dan terjadi ketika aliran air yang berlebihan menggenangi daratan dalam jangka waktu tertentu. Perubahan iklim, cuaca ekstrem, urbanisasi yang tidak terkendali, dan kondisi geografis yang kompleks telah berkontribusi terhadap peningkatan frekuensi dan intensitas banjir, terutama di daerah perkotaan. Analisis banjir otomatis dan deteksi citra dapat memberikan panduan dan informasi yang berguna dalam membuat keputusan untuk mengurangi dampak destruktif seperti korban jiwa dan ekonomi, salah satunya dengan melakukan segmentasi untuk membantu proses pembuatan peta kerawanan banjir. Namun, sejumlah kecil data beresolusi tinggi dan berlabel yang tersedia membuat proses segmentasi sulit untuk dilakukan. Oleh karena itu, penulis mengusulkan pendekatan semi-supervised yaitu mean teacher dengan memanfaatkan teknik deep learning. Adapun dataset yang digunakan adalah citra SAR Sentinel-1 C-band yang telah diolah sebelumnya. Hasil penelitian menunjukkan bahwa model usulan memberikan kenaikan performa yang cukup signifikan pada metrik IoU sebesar 5% terhadap baseline yang mengimplementasikan teknik pseudo-labeling.

Floods are one of the natural disaster events that occur in the world. Floods happen when excessive water flows and submerges land for a certain period of time. Climate change, extreme weather, uncontrolled urbanization, and complex geographical conditions have contributed to the increase in the frequency and intensity of floods, especially in urban areas. Automatic flood analysis and detection of imagery can provide useful guidance and information in making decisions to reduce destructive impacts such as loss of life and economy. However, the small amount of high-resolution and labeled data available makes the segmentation process difficult for flood detection. Therefore, the author proposes a semi-supervised approach, namely mean teacher by utilizing the deep learning architecture. The dataset used is the SAR image of Sentinel-1 C-band which has been processed. The results show that the proposed model provides a significant increase in performance on the IoU metric by 5% against the baseline that implements the pseudo-labeling technique."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2023
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Ferro Geraldi Hardian
"Deteksi objek merupakan permasalahan populer pada bidang computer vision yang bertujuan untuk mengidentifikasi dan mencari lokasi objek pada suatu citra. Performa metode-metode deteksi objek tentunya dipengaruhi oleh kualitas citra. Di sisi lain, pada kehidupan sehari-hari terdapat citra berkabut. Citra berkabut adalah citra yang diambil dalam kondisi berkabut. Kabut tersebut dapat menghamburkan sinar cahaya dan menyebabkan citra yang diambil mengalami penurunan kualitas. Dataset-dataset citra yang populer digunakan untuk deteksi objek juga biasanya mengasumsikan citra diambil pada kondisi tanpa kabut. Oleh karena itu kebanyakan metode deteksi objek pada umumnya tidak dapat berperforma dengan baik pada citra berkabut. YOLOv4 merupakan arsitektur deteksi objek state-of-the-art yang memiliki performa tinggi baik dari segi akurasi dan kecepatan. Penelitian ini bertujuan untuk menguji kapasitas YOLOv4 dengan citra yang berkabut dan juga mencari skenario pelatihan terbaik bagi YOLOv4 untuk mendeteksi objek pada citra berkabut. Skenario pelatihan yang diusulkan ada tiga, pelatihan hanya dengan citra tanpa kabut, pelatihan hanya dengan citra berkabut, dan pelatihan dengan kedua tipe citra. Pengujian dilakukan pada dataset Hazy Series dimana permasalahan utamanya adalah untuk mendeteksi satu buah objek Macbeth ColorChecker yang ada pada setiap citra. Hasil penelitian menunjukan bahwa kabut memiliki pengaruh yang besar pada model yang tidak dilatih dengan citra berkabut. Selain itu, ditunjukan bahwa model YOLOv4 yang dilatih dengan citra berkabut dan citra tanpa kabut memiliki performa terbaik, dengan akurasi 0,88 dan Intersection of Union (IOU) 0,71 untuk dataset Hazy.

Object detection is a well known problem in the computer vision field that aims to identify and locate objects in images. The performance of object detection methods is influenced by the quality of the images. However, in real world situations, it is possible to have hazy images. Hazy images are images that are taken in hazy conditions. Haze occurs because of scattering light in a medium that has micro-particles and causes the quality of the image to worsen. Well known object detection datasets also commonly assume that the images are taken in haze-free conditions. As a result, most object detection methods cannot perform well when faced with hazy images. YOLOv4 is a state-of-the-art object detection architecture that has high performance in both accuracy and speed. This research aims to test YOLOv4 capability in handling hazy images while also searching for the best training scenario for YOLOv4 to detect object in hazy images. There are three proposed training scenarios, they are training with only haze-free images, training with only hazy images and training with both. Evaluation is done on Hazy Series dataset where the main task is to detect one Macbeth ColorChecker object in each image. Research’s results indicate that haze has a big effect on models that are not trained with hazy images. They also indicate that the YOLOv4 model that is trained with both haze-free images and hazy images has the best performance, with an accuracy of 0,81 and Intersection of Union (IOU) of 0,71 for hazy images. "
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2021
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
<<   1 2 3 4 5 6 7 8 9 10   >>