Ditemukan 15876 dokumen yang sesuai dengan query
Nelson, Kay Yarborough
McGraw-Hill: Berkeley: McGraw-Hill , 1987
001.642 NEL u
Buku Teks SO Universitas Indonesia Library
Husni Susanto
Jakarta : Elex Media Komputindo, 1990
001.642 HUS m
Buku Teks SO Universitas Indonesia Library
Cambridge, UK: Lotus Development, 1986
001.64 LOT
Buku Teks SO Universitas Indonesia Library
Z. Iwan Suryadi
Jakarta: Elex Media Komputindo, 1989
005.36 IWA a
Buku Teks SO Universitas Indonesia Library
Ilma Alpha Mannix
"Penelitian ini bertujuan untuk menguji efektivitas pre-trained language model BERT pada tugas pencarian dosen pakar. Bidirectional Encoder Representations from Transformers (BERT) merupakan salah satu state-of-the-art model saat ini yang menerapkan contextual word representation (contextual embedding). Dataset yang digunakan pada penelitian ini terdiri dari data pakar dan bukti kepakaran. Data pakar merupakan data dosen Fakultas Ilmu Komputer Universitas Indonesia (Fasilkom UI). Data bukti kepakaran merupakan data abstrak digital tugas akhir mahasiswa Fasilkom UI. Model yang diusulkan pada penelitian ini terdiri dari tiga variasi BERT, yaitu IndoBERT (Indonesian BERT), mBERT (Multilingual BERT), dan SciBERT (Scientific BERT) yang akan dibandingkan dengan model baseline menggunakan word2vec. Terdapat dua pendekatan yang dilakukan untuk mendapatkan urutan dosen pakar pada variasi model BERT, yaitu pendekatan feature-based dan fine-tuning. Penelitian ini menunjukkan bahwa model IndoBERT dengan pendekatan feature-based memberikan hasil yang lebih baik dibandingkan baseline dengan peningkatan 6% untuk metrik MRR hingga 9% untuk metrik NDCG@10. Pendekatan fine-tuning juga memberikan hasil yang lebih baik pada model IndoBERT dibandingkan baseline dengan peningkatan 10% untuk metrik MRR hingga 18% untuk metrik P@5. Diantara kedua pendekatan tersebut, dibuktikan bahwa pendekatan fine-tuning memberikan hasil yang lebih baik dibandingkan dengan pendekatan feature-based dengan peningkatan 1% untuk metrik P@10 hingga 5% untuk metrik MRR. Penelitian ini menunjukkan bahwa penggunaan pre-trained language model BERT memberikan hasil yang lebih baik dibandingkan baseline word2vec dalam tugas pencarian dosen pakar.
This study aims to test the effectiveness of the pre-trained language model BERT on the task of expert finding. Bidirectional Encoder Representations from Transformers (BERT) is one of the current state-of-the-art models that applies contextual word representation (contextual embedding). The dataset used in this study consists of expert data and expertise evidence. The expert data is composed of faculty members from the Faculty of Computer Science, University of Indonesia (Fasilkom UI). The expertise evidence data consists of digital abstracts by Fasilkom UI students. The proposed model in this research consists of three variations of BERT, namely IndoBERT (Indonesian BERT), mBERT (Multilingual BERT), and SciBERT (Scientific BERT), which will be compared to a baseline model using word2vec. Two approaches were employed to obtain the ranking of expert faculty members using the BERT variations, namely the feature-based approach and fine-tuning. The results of this study shows that the IndoBERT model with the feature-based approach outperforms the baseline, with an improvement of 6% for the MRR metric and up to 9% for the NDCG@10 metric. The fine-tuning approach also yields better results for the IndoBERT model compared to the baseline, with an improvement of 10% for the MRR metric and up to 18% for the P@5 metric. Among these two approaches, it is proven that the fine-tuning approach performs better than the feature-based approach, with an improvement of 1% for the P@10 metric and up to 5% for the MRR metric. This research shows that the use of the pre-trained language model BERT provides better results compared to the baseline word2vec in the task of expert finding."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership Universitas Indonesia Library
Farhan Prayuda Putra
"Skripsi ini membahas rancangan dan pengembangan sistem penilaian esai otomatis untuk ujian Bahasa Jepang dengan bentuk isian singkat/esai. Sistem dirancang dengan model hybrid MLP (Multilayer Perceptron) dengan Particle Swarm Optimization. Sistem ditulis dalam bahasa pemrograman Python. Penilaian otomatis dilakukan dengan membandingkan jawaban mahasiswa dan jawaban dosen berdasarkan jarak kemiripan menggunakan Manhattan Distance. Model Hybrid MLP akan digunakan untuk menghasilkan vektor jawaban agar dapat dibandingkan dan dinilai. Dari variasi model yang diuji, variasi yang terbukti memiliki performa terbaik adalah variasi dengan model MLP yang dilatih secara backpropagation dengan optimizer Adam dengan learning rate sebesar 0.000001, fungsi loss categorical-crossentropy, dan dilatih selama 50 epoch. Model mendapatkan tingkat persentase eror sebesar 21.85% untuk rata-rata nilai prediksi dibandingkan dengan nilai yang diberikan oleh dosen.
This thesis discusses and explore the designs and development of Automatic Essay Grading System using combination of Multilayer Perceptron with Particle Swarm Optimization. The program is being developed with Python programming language. The system compares the matrix vector of the student’s answer with the key answer using Manhattan Distance. Out of all the variations that are tested, the model that is proven to be the most stable is the MLP model that are trained with Backpropagation with loss function crosscategorical-crossentropy and Adam optimizer with learning rate of 0.000001. The model achieves an error percentage of 21.85% for the average grade predicted compared to the actual grade."
Depok: Fakultas Teknik Universitas Indonesia, 2021
S-pdf
UI - Skripsi Membership Universitas Indonesia Library
Suryari Purnama
"Tugas akhir ini menyajikan permasalahan dalam inventori yang diselesaikan secara simulasi. Simulasi yang digunakan adalah simulasi Inventori Monte Carlo. Dan untuk perhitungannya diselesaikan dengan bantuan program Lotus Makro 1-2-3. Pemilihan program Lotus Makro 1-2-3 amat mendukung penyeselesaian simulasi ini karena banyak fasi1itas-fasilitas dari Lotus 1-2-3 yang sesuai untuk simulasi ini. Dan sebagai studi kasus akan ditampilkan permasalahan inventori di PT. UKI."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 1991
S-pdf
UI - Skripsi Membership Universitas Indonesia Library
Tokyo: Institute of Oriental Philosophy, 2015
294.385 LOT
Buku Teks Universitas Indonesia Library
Z. Iwan Suryadi
Jakarta: Elex Media Komputindo, 1991
005.13 SUR a
Buku Teks SO Universitas Indonesia Library
LeBlond, Geoffrey T.
Jakarta : Erlangga, 1986
005.369 LEB ut
Buku Teks Universitas Indonesia Library