Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 61951 dokumen yang sesuai dengan query
cover
Prajna Wira Basnur
"Klasifikasi dokumen adalah sebuah metode untuk menentukan suatu dokumen termasuk ke suatu kategori secara otomatis berdasarkan isi dokumen. Metode Naïve Bayes dan ontologi merupakan metode klasifikasi dokumen teks yang digunakan dalam penelitian ini. Data yang digunakan dalam penelitian ini berupa artikel berita berbahasa Indonesia dari situs http://www.kompas.com. Dalam penelitian ini menggunakan lima kategori dalam domain olahraga untuk melakukan klasifikasi dokumen, yaitu kategori bulutangkis, basket, otomotif, sepakbola, dan tenis. Klasifikasi dokumen dengan menggunakan ontologi dilakukan dengan membandingkan nilai kemiripan diantara dokumen dan sebuah node yang ada di ontologi. Sebuah dokumen diklasifikasikan ke sebuah kategori atau node, jika memiliki nilai kemiripan paling tinggi diantara semua node yang ada di ontologi. Hasil penelitian menunjukkan bahwa ontologi dapat digunakan untuk melakukan klasifikasi dokumen. Nilai recall, precision, dan f-measure untuk klasifikasi dokumen menggunakan ontologi berturut-turut adalah 97.03%, 91.63%, dan 94.02%.

Document classification is a method for determine document category automatically based on contents of document. In this research, we use Naïve Bayes and Ontology method for document classification. Mass media in Bahasa Indonesia is used as data in this research. Data is taken from http//www.kompas.com. We uses five category in sports domain for document classification that comprise with bulutangkis, basketball, automotive, soccer, and tennis category. Document classification uses ontology can be done with compare similarity value between document and a node in ontology. A document can classified to a category or node, if a document has highest similarity value between all node in ontology. In this research indicate that ontology can used for document classification. Recall, precision, and f-measure value for document classification using ontology in a row are 97.03%, 91.63%, and 94.02%."
2009
S-Pdf
UI - Skripsi Open  Universitas Indonesia Library
cover
Nofa Aulia
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2019
T51811
UI - Tesis Membership  Universitas Indonesia Library
cover
Amanda Nydia Augustizhafira
"Analisis sentimen merupakan bagian dari data mining text mining , yaitu proses memahami, mengekstrak, dan mengolah data tekstual secara otomatis untuk mendapatkan informasi. Pada penelitian ini, analisis sentimen diterapkan pada salah satu media sosial, yaitu Twitter. Analisis sentimen tergolong sebagai masalah klasifikasi yang dapat diselesaikan menggunakan salah satu metode machine learning, yaitu Neural Network. Pada machine learning, data dibagi menjadi data pelatihan dan data pengujian yang berasal dari domain yang sama.
Permasalahan utama pada penelitian ini adalah data pelatihan dan data pengujian berasal dari dua domain yang berbeda, sehingga perlu diterapkan pembelajaran lain selain machine learning. Masalah tersebut dapat diselesaikan dengan menggunakan transfer learning. Transfer learning merupakan suatu pembelajaran model yang dibangun oleh suatu data pelatihan dari suatu domain dan diuji oleh suatu data pengujian dari domain yang berbeda dari domain data pelatihan. Simulasi dalam penelitian ini menghasilkan suatu akurasi transfer learning dengan metode Neural Network yang nantinya akan diuji dengan fitur n-gram bi-gram dan tri-gram serta satu metode seleksi fitur, yaitu Extra-Trees Classifier.
Dalam penelitian ini, nilai akurasi transfer learning tertinggi didapat saat hidden layer berjumlah satu. Sebagian besar nilai akurasi tertinggi didapat saat penggunaan 250 neuron pada hidden layer. Fungsi aktivasi ReLU dan tanh menghasilkan nilai akurasi yang lebih tinggi dibandingkan fungsi aktivasi logistic sigmoid. Penggunakan metode seleksi fitur dapat meningkatkan kinerja transfer learning sehingga nilai akurasinya lebih tinggi dibandingkan simulasi tanpa penggunaan metode seleksi fitur.

Sentiment analysis is a part of data mining text mining , which is the process of understanding, extracting, and processing textual data automatically to obtain information. In this research, sentiment analysis is applied to one social media called Twitter. Sentiment analysis is categorized as a classification problem that can be solved using one of machine learning methods, namely Neural Network. In machine learning, data is divided into training data and test data from the same domain.
The main problem in this research is training data and test data come from two different domains, so it is necessary to apply other learning beside machine learning. The problem can be solved by using transfer learning. Transfer learning is a model learning constructed by a training data from a domain and tested by a test data from a different domain from the training data domain. The simulation in this research resulted in an accuracy of learning transfer with Neural Network method which will be tested using n grams bi grams and tri grams and one feature selection method called Extra Trees Classifier.
In this research, the highest value of transfer learning accuracy is obtained when one hidden layer is used. Most of the highest accuracy values are obtained from the use of 250 neurons on the hidden layer. The activation function of ReLU and tanh yield a higher accuracy value than the logical activation function sigmoid . The use of feature selection method can improve the transfer learning performance so that the accuracy value is higher than simulation without the use of feature selection method.
"
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2018
S-Pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
M. Fatkhul Amin
"Event Extraction merupakan salah satu tugas dalam sistem ekstraksi informasi yang bertujuan untuk menemukan kumpulan informasi event dari suatu dokumen. Informasi tersebut dapat berupa informasi pihak-pihak yang terlibat, tempat kejadian, waktu, dan segala informasi yang terkait dengan event. Penelitian ini bertujuan untuk melakukan proses ekstraksi event (event pertemuan) pada teks berbahasa Indonesia. Dari event pertemuan tersebut, informasi yang dicari adalah informasi pihak yang terlibat (person), tempat (location), serta waktu (time) terjadinya event. Ekstraksi dilakukan dengan menggunakan pendekatan machine learning. Sedangkan metode machine learning yang digunakan adalah association rules, decision tree, dan neural networks. Penelitian bertujuan untuk melihat perbandingan kinerja ketiga metode tersebut terhadap ekstraksi event. Uji coba dilakukan pada artikel-artikel media massa online dari Kompas, Jawa Pos, Republika, dan Sinar Harapan. Pada ekstraksi event, diketahui bahwa metode decision tree menunjukkan kinerja yang lebih baik dibandingkan metode association rules dan metode neural networks dengan F-measure mencapai 83,95%. Metode association rules menunjukkan kinerja yang lebih baik dibandingkan dengan metode neural networks dengan F-measure masing-masing sebesar 82,41% dan 81,57%."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2006
S-Pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Rionaldi Dwipurna Wongsoputra
"Peningkatan jumlah kendaraan beserta pelanggaran lalu lintas setiap tahunnya membuat semakin sulit bagi pihak berwenang untuk mendeteksi dan menindak pelanggaran tersebut. Salah satu pelanggaran yang menantang untuk dideteksi adalah penggunaan plat palsu pada mobil. Implementasi Intelligent Transportation System (ITS) dalam sistem lalu lintas dapat memberikan kontribusi signifikan dalam mendeteksi jenis pelanggaran ini. Beberapa studi sebelumnya telah sukses menerapkan ITS untuk mendeteksi dan mengklasifikasikan kendaraan menggunakan deep learning, memberikan solusi dalam penanganan pelanggaran lalu lintas. Penerapan teknologi ini dapat memberikan dukungan yang efektif bagi pihak berwenang dalam mengambil tindakan yang tepat. Penelitian ini bertujuan untuk mengembangkan sistem deteksi tipe mobil dan plat nomornya. Dalam pendekatan ini, model deep learning YOLO-NAS dan EfficientNet digunakan untuk mendeteksi dan mengklasifikasikan jenis mobil serta plat nomornya. Sebagai pendukung, model SRGAN digunakan untuk meningkatkan resolusi citra plat mobil. Untuk tujuan mendeteksi penggunaan plat palsu pada kendaraan, maka selanjutnya hasil dari sistem ini dapat diintegrasikan dengan database plat dan jenis kendaraan untuk mendeteksi plat yang palsu. Performa terbaik pada masing-masing model adalah 92% untuk akurasi validasi model EfficientNet dengan menggunakan layer dense sebesar 1024 dan dropout sebesar 0.2, 93% pada nilai mAP dan 1.24 pada nilai validasi loss untuk model YOLO-NAS dengan melakukan training sebanyak 30 epoch, serta nilai PSNR sebesar 19.5 dan nilai validasi loss sebesar 2.8 untuk model SRGAN dengan learning rate generator sebesar 0.001 dan learning rate discriminator sebesar 0.0001. Dibutuhkan pengembangan lebih lanjut pada model ini agar dapat dipakai secara real-time.

The increasing number of vehicles and traffic violations each year makes it increasingly challenging for authorities to detect and address these violations. One of the challenging offenses to detect is the use of fake license plates on cars. The implementation of Intelligent Transportation Systems (ITS) in traffic can significantly contribute to detecting such violations. Several studies have successfully applied ITS for vehicle detection and classification using deep learning, providing a solution for handling traffic violations. The adoption of this technology can effectively support authorities in taking appropriate actions. Based on existing literature, this research aims to develop a system for detecting the type and license plates of vehicles. In this approach, deep learning models, YOLO-NAS, and EfficientNet are used to detect and classify the type of vehicles and their license plates. As a supportive model, SRGAN is utilized to enhance the resolution of license plate images. This research is expected to contribute to improving the effectiveness of traffic violation detection, particularly concerning the use of fake plates on vehicles. Furthermore, the results from this system can be integrated with license plate and vehicle type databases to detect fake plates. The best performance of each model is 92% for the validation accuracy of the EfficientNet model using a dense layer of 1024 and a dropout of 0.2, 93% for the mAP value and 1.24 for the validation loss value for the YOLO-NAS model after training for 30 epochs, and a PSNR value of 19.5 and a validation loss value of 2.8 for the SRGAN model with a generator learning rate of 0.001 and a discriminator learning rate of 0.0001. Further development of this model is needed for real-time application."
Depok: Fakultas Teknik Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Naura Asyifa
"Sistem Penilaian Esai Otomatis (SIMPLE-O) merupakan teknologi deep learning yang dikembangkan oleh Departemen Teknik Elektro, Fakultas Teknik Universitas Indonesia. SIMPLE-O dikembangkan untuk menilai ujian esai Bahasa Indonesia menggunakan gabungan algoritma CNN dengan Bidirectional LSTM. Dokumen yang menjadi input untuk sistem berupa jawaban mahasiswa dan kunci jawaban dosen. Keduanya akan melalui proses pre-processing yang dilanjut menuju proses embedding dan masuk ke dalam model deep learning. Selanjutnya akan dilakukan perhitungan dengan metrik penilaian yaitu Manhattan Distance dan Cosine Similarity. Pengujian dilakukan dengan mencari hyperparameter terbaik dari enam skenario yang dijalankan. Hasil pengujian skenario akhir fase training dan testing pengukuran Manhattan Distance mendapatkan nilai rata-rata selisih sebesar 0,72 dan 15,19. Untuk pengujian akhir pengukuran Cosine Similarity didapatkan nilai sebesar 1,07 dan 15,43.

The Automated Essay Assessment System (SIMPLE-O) is a deep learning technology developed by the Department of Electrical Engineering, Faculty of Engineering, University of Indonesia. SIMPLE-O was developed to assess Indonesian essay exams using the CNN algorithm and the Bidirectional LSTM. Documents that become input for the system are student answers and lecturer answer keys. Both of them will go through a pre-processing process, leading to the embedding process and entering the deep learning model. Next, calculations will be done with assessment metrics: Manhattan Distance and Cosine Similarity. Testing is done by looking for the best hyperparameters from the six-run scenarios. The results of testing the scenario at the end of the training and testing phase of the Manhattan Distance measurement obtained an average difference of 0.72 and 15.19. For the final test of the Cosine Similarity measurement, values were obtained of 1.07 and 15.43."
Depok: Fakultas Teknik Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Naradhipa Mahardhika Setiawan Bhary
"Sebagai negara hukum, Indonesia memiliki sistem peradilan yang aktif. Setiap bulannya, terdapat sekitar 100.000 dokumen putusan yang dihasilkan oleh lembaga kehakiman di Indonesia. Volume dokumen yang banyak tersebut menimbulkan suatu tantangan bagi insan hukum di Indonesia. Guna mendukung dan mengakomodasi institusi publik dari aspek teknologi dan informasi, serta mendorong pelaksanaan keterbukaan informasi bagi masyarakat umum, maka dibutuhkan suatu metode yang dapat membantu untuk mencari dan mengumpulkan informasi penting dari suatu dokumen putusan pengadilan. Secara khusus, metode ini juga ditujukan untuk membantu para praktisi hukum untuk kepentingan penegakan hukum dan para akademisi hukum untuk kepentingan pendidikan dan pengembangan di bidang hukum. Salah satu teknik untuk mengumpulkan informasi penting dari suatu dokumen adalah Named Entity Recognition (NER). Teknik NER bekerja dengan cara menandai kata-kata yang merupakan informasi penting seperti orang, tempat, lokasi, waktu, kejadian, dan lainnya. NER dapat diterapkan untuk berbagai bidang permasalahan, seperti medis, hukum, dan pertanian. NER yang secara spesifik bekerja untuk menandai entitas hukum disebut dengan Legal Entity Recognition (LER). Penelitian sebelumnya telah menerapkan LER untuk dokumen legal berbahasa Indonesia dengan pendekatan BiLSTM dan CRF sehingga diperlukan penelitian lebih lanjut untuk mengetahui bagaimana performa model-model lain terhadap kasus tersebut. Penelitian ini menguji performa language model, yaitu model berbasis RoBERTa dan model berbasis BERT serta membandingkannya dengan deep learning model, yaitu BiLSTM dan BiLSTM-CRF sebagai model baseline penelitian sebelumnya untuk task LER bahasa indonesia. Hasil penelitian menunjukkan model berbasis RoBERTa memliki performa terbaik untuk task LER pada dataset penulis, XLM-R large dengan skor F1 sebesar 0,9295, XLM-R base dengan skor F1 sebesar 0,9281 dan Indonesian RoBERTa dengan skor F1 sebesar 0,9246.

As a rule of law country, Indonesia has an active justice system. Every month, there are around 100,000 decision documents produced by the judiciary in Indonesia. The large volume of documents poses a challenge for legal people in Indonesia. In order to support and accommodate public institutions from the aspects of technology and information, as well as encourage the implementation of information disclosure for the general public, a method is needed that can help find and collect important information from a court decision document. In particular, this method is also intended to assist legal practitioners for the benefit of law enforcement and legal academics for the benefit of education and development in the field of law. One technique for collecting important information from a document is Named Entity Recognition (NER). The NER technique works by marking words that are important information such as people, places, locations, times, events, and so on. NER can be applied to various problem areas, such as medical, legal, and agriculture. NER which specifically works to mark legal entities is called Legal Entity Recognition (LER). Previous studies have applied LER to legal documents in Indonesian using the BiLSTM and CRF approaches, so further research is needed to find out how other models perform in this case. This study examines the performance of language models, namely the RoBERTa-based model and the BERT-based model and compares them with deep learning models, namely BiLSTM and BiLSTM-CRF as the baseline models for previous studies for the Indonesian language LER task. The results showed that the RoBERTa-based model had the best performance for the LER task in the author’s dataset, XLM-R large with an F1 score of 0.9295, XLM-R base with an F1 score of 0.9281 and Indonesian RoBERTa with an F1 score of 0.9246."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Jafar Abdurrohman
"

Sebagai negara hukum, Indonesia memiliki sistem peradilan yang aktif. Setiap bulannya, terdapat sekitar 100.000 dokumen putusan yang dihasilkan oleh lembaga kehakiman di Indonesia. Volume dokumen yang banyak tersebut menimbulkan suatu tantangan bagi insan hukum di Indonesia. Guna mendukung dan mengakomodasi institusi publik dari aspek teknologi dan informasi, serta mendorong pelaksanaan keterbukaan informasi bagi masyarakat umum, maka dibutuhkan suatu metode yang dapat membantu untuk mencari dan mengumpulkan informasi penting dari suatu dokumen putusan pengadilan. Secara khusus, metode ini juga ditujukan untuk membantu para praktisi hukum untuk kepentingan penegakan hukum dan para akademisi hukum untuk kepentingan pendidikan dan pengembangan di bidang hukum. Salah satu teknik untuk mengumpulkan informasi penting dari suatu dokumen adalah Named Entity Recognition (NER). Teknik NER bekerja dengan cara menandai kata-kata yang merupakan informasi penting seperti orang, tempat, lokasi, waktu, kejadian, dan lainnya. NER dapat diterapkan untuk berbagai bidang permasalahan, seperti medis, hukum, dan pertanian. NER yang secara spesifik bekerja untuk menandai entitas hukum disebut dengan Legal Entity Recognition (LER). Penelitian sebelumnya telah menerapkan LER untuk dokumen legal berbahasa Indonesia dengan pendekatan BiLSTM dan CRF sehingga diperlukan penelitian lebih lanjut untuk mengetahui bagaimana performa model-model lain terhadap kasus tersebut. Penelitian ini menguji performa language model, yaitu model berbasis RoBERTa dan model berbasis BERT serta membandingkannya dengan deep learning model, yaitu BiLSTM dan BiLSTM-CRF sebagai model baseline penelitian sebelumnya untuk task LER bahasa indonesia. Hasil penelitian menunjukkan model berbasis RoBERTa memliki performa terbaik untuk task LER pada dataset penulis, XLM-R large dengan skor F1 sebesar 0,9295, XLM-R base dengan skor F1 sebesar 0,9281 dan Indonesian RoBERTa dengan skor F1 sebesar 0,9246.


As a rule of law country, Indonesia has an active justice system. Every month, there are around 100,000 decision documents produced by the judiciary in Indonesia. The large volume of documents poses a challenge for legal people in Indonesia. In order to support and accommodate public institutions from the aspects of technology and information, as well as encourage the implementation of information disclosure for the general public, a method is needed that can help find and collect important information from a court decision document. In particular, this method is also intended to assist legal practitioners for the benefit of law enforcement and legal academics for the benefit of education and development in the field of law. One technique for collecting important information from a document is Named Entity Recognition (NER). The NER technique works by marking words that are important information such as people, places, locations, times, events, and so on. NER can be applied to various problem areas, such as medical, legal, and agriculture. NER which specifically works to mark legal entities is called Legal Entity Recognition (LER). Previous studies have applied LER to legal documents in Indonesian using the BiLSTM and CRF approaches, so further research is needed to find out how other models perform in this case. This study examines the performance of language models, namely the RoBERTa-based model and the BERT-based model and compares them with deep learning models, namely BiLSTM and BiLSTM-CRF as the baseline models for previous studies for the Indonesian language LER task. The results showed that the RoBERTa-based model had the best performance for the LER task in the author’s dataset, XLM-R large with an F1 score of 0.9295, XLM-R base with an F1 score of 0.9281 and Indonesian RoBERTa with an F1 score of 0.9246.

"
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Tri Kushartadi
"Teknologi Dense Wavelength Division Multiplexing (DWDM) telah mengalami perkembangan pesat, di mana beberapa vendor telah meningkatkan kapasitas per frekuensi hingga mencapai 1 Tbps (Tera Bit Per Second). Dalam tesis ini, penelitian dilakukan untuk menentukan pola data yang digunakan oleh engineer guna mencapai hasil yang optimal dengan menggunakan kecerdasan buatan. Penelitian ini berfokus pada simulasi jaringan DWDM di Microsoft di Amerika Utara, yang melibatkan beberapa repeater dan mempertimbangkan berbagai faktor yang terjadi dalam jaringan tersebut. Dengan menggunakan data hasil performansi lapangan, ditemukan data yang paling optimal untuk jaringan DWDM tersebut. Dengan mencapai kinerja Q-Factor yang baik, diperoleh juga margin pada jaringan berdasarkan perhitungan kabel optiknya. Estimasi kinerja Q-Factor dapat diperoleh melalui fungsi regresi linear yang bergantung pada perangkat yang dilalui dalam jaringan, seperti Transponder, EDFA, dan media transmisi berupa serat optik. Data hasil pengukuran merupakan data perubahan daya transmisi pada sisi penguat, yang menyebabkan perubahan daya per kanal pada setiap transponder di sisi penerima. Setiap perubahan nilai kinerja Q-Factor pada setiap kanal dianalisis polanya menggunakan machine learning. Data tersebut akan dilakukan proses pelatihan berulang kali guna meminimalkan kesalahan dan mencapai kinerja Q-Factor yang lebih baik. Secara keseluruhan, hasil yang dicapai dalam tesis ini membentuk dasar bagi skema pemodelan kinerja Q-Factor yang akurat serta mendapatkan nilai Q-Factor yang optimal. Hasil penelitian ini memberikan wawasan tentang penggunaan machine learning di masa depan dalam perencanaan jaringan optik DWDM.

This research investigates the development of Dense
Wavelength Division Multiplexing (DWDM) technology in
conjunction with 6G technology to meet the growing demands for
high-speed data transmission. Vendors have significantly
increased the capacity per channel enabling speeds of up to 1 Tera Bit Per Second. The Q-Factor is one of the indicators that
determines the quality of the optical system. Q-Factor plays a
crucial role in evaluating these technological advancements. In
actual practice, engineers need to conduct manual field tests to
obtain the Q-factor value. Engineers must calibrate the equipment
manually onsite. This procedure is time consuming and inefficient. Machine learning can be used to calculate and forecast the Qfactor quickly and automatically. This study designs a machine learning algorithm to forecast the Q-factor value based on the equipment parameters in the field. This study evaluates 4 machine learning algorithms. The data used is obtained from the Microsoft optical network in North America. The Decision tree model archives the best results with an impressive accuracy of 99.5% and low mean squared error (MSE) of 0,00104. The proposed algorithm achieved better results than the previous research.
"
Depok: Fakultas Teknik Universitas Indonesia, 2023
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Pohan, Nur Wulan Adhani
"Banyaknya konferensi menyulitkan peneliti memilih konferensi berkualitas. Kemungkinan peneliti tertipu dengan konferensi predator merupakan ancaman nyata yang perlu diperhatikan. Penilaian konferensi umumnya menggunakan pakar yang membutuhkan waktu dan biaya yang tinggi. Penelitian ini fokus untuk menganalisis jika h-indeks, impact factor, jumlah dokumen, dan SJR dapat menghasilkan penilaian kualitas yang sesuai dengan penilaian manual pakar dari beberapa situs penilaian konferensi serta membandingkan hasil performanya dengan penilaian jurnal. Data yang digunakan dikumpulkan dari empat sumber situs web yang mengkalkulasi kualitas konferensi luar negeri, yaitu CORE, ERA/QUALIS, AMiner, dan ScimagoJR. Data untuk penilaian jurnal didapatkan dari Guide2Research. Variabel yang digunakan untuk penilaian adalah h-indeks, jumlah dokumen, impact factor, dan SJR. Penelitian ini menggunakan metode K-Nearest Neighbor (KNN), Support Vector Machine (SVM), Naïve Bayes, dan Decision Tree (DT). KNN menghasilkan nilai akurasi tertinggi sebesar 72,22% dan f1 score senilai 63,06% menggunakan data Qualis dengan faktor h-indeks, IF, dan SJR.

The number of conferences makes it difficult for researchers to choose quality conferences. The possibility of researchers being fooled by predatory conferences is a real threat that deserves attention. Conference assessments generally use experts who require time and money to evaluate the conferences. This study focuses on analyzing whether h-index, impact factor, number of documents, and SJR can produce quality assessments in accordance with expert manual assessments from several conference assessment sites and compare the resulting performance with journal assessments. The data used were collected from four website sources that calculate the quality of overseas conferences, namely CORE, ERA/QUALIS, AMiner, and ScimagoJR. Data for journal assessments were obtained from Guide2Research. The variables used for the assessment are h-index, number of documents, impact factor, and SJR. This research used K-Nearest Neighbor (KNN), Support Vector Machine (SVM), Naïve Bayes, and Decision Tree (DT). KNN produced the highest accuracy value of 72.22% and the f1 score of 63.06% using Qualis data with the h-index, IF, and SJR factors."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2021
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
<<   1 2 3 4 5 6 7 8 9 10   >>