Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 61803 dokumen yang sesuai dengan query
cover
Farhan Prayuda Putra
"Skripsi ini membahas rancangan dan pengembangan sistem penilaian esai otomatis untuk ujian Bahasa Jepang dengan bentuk isian singkat/esai. Sistem dirancang dengan model hybrid MLP (Multilayer Perceptron) dengan Particle Swarm Optimization. Sistem ditulis dalam bahasa pemrograman Python. Penilaian otomatis dilakukan dengan membandingkan jawaban mahasiswa dan jawaban dosen berdasarkan jarak kemiripan menggunakan Manhattan Distance. Model Hybrid MLP akan digunakan untuk menghasilkan vektor jawaban agar dapat dibandingkan dan dinilai. Dari variasi model yang diuji, variasi yang terbukti memiliki performa terbaik adalah variasi dengan model MLP yang dilatih secara backpropagation dengan optimizer Adam dengan learning rate sebesar 0.000001, fungsi loss categorical-crossentropy, dan dilatih selama 50 epoch. Model mendapatkan tingkat persentase eror sebesar 21.85% untuk rata-rata nilai prediksi dibandingkan dengan nilai yang diberikan oleh dosen.

This thesis discusses and explore the designs and development of Automatic Essay Grading System using combination of Multilayer Perceptron with Particle Swarm Optimization. The program is being developed with Python programming language. The system compares the matrix vector of the student’s answer with the key answer using Manhattan Distance. Out of all the variations that are tested, the model that is proven to be the most stable is the MLP model that are trained with Backpropagation with loss function crosscategorical-crossentropy and Adam optimizer with learning rate of 0.000001. The model achieves an error percentage of 21.85% for the average grade predicted compared to the actual grade."
Depok: Fakultas Teknik Universitas Indonesia, 2021
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Ilma Alpha Mannix
"Penelitian ini bertujuan untuk menguji efektivitas pre-trained language model BERT pada tugas pencarian dosen pakar. Bidirectional Encoder Representations from Transformers (BERT) merupakan salah satu state-of-the-art model saat ini yang menerapkan contextual word representation (contextual embedding). Dataset yang digunakan pada penelitian ini terdiri dari data pakar dan bukti kepakaran. Data pakar merupakan data dosen Fakultas Ilmu Komputer Universitas Indonesia (Fasilkom UI). Data bukti kepakaran merupakan data abstrak digital tugas akhir mahasiswa Fasilkom UI. Model yang diusulkan pada penelitian ini terdiri dari tiga variasi BERT, yaitu IndoBERT (Indonesian BERT), mBERT (Multilingual BERT), dan SciBERT (Scientific BERT) yang akan dibandingkan dengan model baseline menggunakan word2vec. Terdapat dua pendekatan yang dilakukan untuk mendapatkan urutan dosen pakar pada variasi model BERT, yaitu pendekatan feature-based dan fine-tuning. Penelitian ini menunjukkan bahwa model IndoBERT dengan pendekatan feature-based memberikan hasil yang lebih baik dibandingkan baseline dengan peningkatan 6% untuk metrik MRR hingga 9% untuk metrik NDCG@10. Pendekatan fine-tuning juga memberikan hasil yang lebih baik pada model IndoBERT dibandingkan baseline dengan peningkatan 10% untuk metrik MRR hingga 18% untuk metrik P@5. Diantara kedua pendekatan tersebut, dibuktikan bahwa pendekatan fine-tuning memberikan hasil yang lebih baik dibandingkan dengan pendekatan feature-based dengan peningkatan 1% untuk metrik P@10 hingga 5% untuk metrik MRR. Penelitian ini menunjukkan bahwa penggunaan pre-trained language model BERT memberikan hasil yang lebih baik dibandingkan baseline word2vec dalam tugas pencarian dosen pakar.

This study aims to test the effectiveness of the pre-trained language model BERT on the task of expert finding. Bidirectional Encoder Representations from Transformers (BERT) is one of the current state-of-the-art models that applies contextual word representation (contextual embedding). The dataset used in this study consists of expert data and expertise evidence. The expert data is composed of faculty members from the Faculty of Computer Science, University of Indonesia (Fasilkom UI). The expertise evidence data consists of digital abstracts by Fasilkom UI students. The proposed model in this research consists of three variations of BERT, namely IndoBERT (Indonesian BERT), mBERT (Multilingual BERT), and SciBERT (Scientific BERT), which will be compared to a baseline model using word2vec. Two approaches were employed to obtain the ranking of expert faculty members using the BERT variations, namely the feature-based approach and fine-tuning. The results of this study shows that the IndoBERT model with the feature-based approach outperforms the baseline, with an improvement of 6% for the MRR metric and up to 9% for the NDCG@10 metric. The fine-tuning approach also yields better results for the IndoBERT model compared to the baseline, with an improvement of 10% for the MRR metric and up to 18% for the P@5 metric. Among these two approaches, it is proven that the fine-tuning approach performs better than the feature-based approach, with an improvement of 1% for the P@10 metric and up to 5% for the MRR metric. This research shows that the use of the pre-trained language model BERT provides better results compared to the baseline word2vec in the task of expert finding."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Henry Artajaya
"Representasi dokumen sebagai vektor GLSA pada beberapa percobaan seperti uji sinonim, klasifikasi dokumen, dan clustering terbukti mampu menghasilkan tingkat akurasi yang lebih baik daripada sistem sejenis yang berbasis algoritma LSA akan tetapi GLSA belum pernah diujikan pada sistem penilai esay otomatis. Percobaan ini meneliti pengaruh implementasi GLSA pada sistem penilai esay otomatis dan perbandingan unjuk kerjanya dengan sistem penilai esay otomatis berbasis LSA. Unjuk kerja sistem penilai esai otomatis berbasis GLSA lebih unggul daripada sistem berbasis LSA. Dari 60 kali pengujian, GLSA menghasilkan nilai yang lebih akurat pada 47 kali pengujian atau 78,3% total pengujian sedangkan LSA hanya unggul pada 9 kali pengujian atau 15% total pengujian dan sisanya 4 kali pengujian atau 6,7% total pengujian menghasilkan nilai dengan tingkat akurasi yang sama. Nilai Pearson Product Moment Correlation pada percobaan menggunakan sistem LSA 0.57775-0.85868 sedangkan pada GLSA sebesar 0.73335-0.76971. Hal ini mengindikasikan bahwa sistem berbasis LSA dan GLSA yang diujikan layak pakai karena memiliki performa yang sama baiknya dengan performa yang dilakukan oleh manusia. Ditinjau dari waktu proses yang dibutuhkan, LSA unggul pada soal 1 dan 2 dengan rataan 0,07466 detik dan 0,2935 detik sedangkan pada GLSA rataan waktu proses soal 1 dan 2 sebesar 1,32329 detik dan 17,3641 detik. Waktu proses yang dibutuhkan sistem penilai esai otomatis berbasis GLSA lebih lama dibandingkan dengan LSA. Akan tetapi karena GLSA menunjukkan kinerja yang amat baik, amat dipercaya bahwa manfaatnya lebih besar daripada biaya komputasi.

Document representation as GLSA vectors were shown to improve performance on different tasks such as synonymy test, document classification, and clustering compared to LSA based systems, however GLSA performance has never been tested on automated essay grading system. This experiment examines the effect of GLSA implementation on automated essay grading system and evaluates its performance compared to LSA based system. GLSA performance was shown to outperform LSA based automated essay grading system. From 60 samples, GLSA outperform LSA 47 times (78,3%), LSA outperform GLSA 9 times (15%), and 4 times (6,7%) resulted the same score accuracy. Pearson Product Moment Correlation Value resulted from the experiment using LSA based system is 0.57775-0.85868 and 0.73335-0.76971 for GLSA based system. This result incidates LSA and GLSA based system used on this experiment are ready to be used as human rater replacement because both of the system deliver similar performance with human rater. Processing time of LSA based system is faster with average processing time consecutively 0,07466 second and 0,2935 second compared to GLSA consecutively 1,32329 second and 17,3641 second. GLSA requires more processing time than LSA based system because GLSA based system has more calculation steps than LSA. However GLSA showed better performance, therefore it's believed that its benefits outweigh the computational cost."
Depok: Fakultas Teknik Universitas Indonesia, 2012
S42481
UI - Skripsi Open  Universitas Indonesia Library
cover
Athina Maria Angelica
"Skripsi ini membahas penerapan Long Short Term Memory RNN dan Manhattan Distance untuk membuat rancangan Sistem Penilaian Esai Otomatis (SIMPLE-O). SIMPLE-O adalah sistem yang sedang dikembangkan Departemen Teknik Elektro UI untuk menilai esai secara otomatis. Sistem ini menggunakan Recurrent Neural Network dengan arsitektur Long Short Term Memory untuk memberikan nilai pada esai Bahasa Jepang. Dari beberapa variasi yang diuji, model yang paling stabil adalah model yang memiliki layer LSTM, Manhattan Distance, dan Dropout dengan dropout rate sebesar 0.3, di-train selama 25 epoch dengan loss function crosscategorical entropy dan optimizer adam, dengan input model ditokenisasi per karakter dengan rata-rata akurasi sebesar 79.93%.

This thesis will explore the application of Long Short Term Memory RNN and Manhattan Distance in designing the Automatic Essay Grading System (SIMPLE-O). SIMPLE-O is a system currently being developed by Departemen Teknik Elektro UI for automatically scoring Japanese essay exams.  Out of the variations tested, the most stable model is the model with the layers LSTM, Manhattan distance, and Dropout with a dropout rate of 0.3, trained for 25 epochs with the loss function cross categorical entropy and adam optimizer, and the model's input being tokenized by character with the highest average accuracy of 79.93%."
Depok: Fakultas Teknik Universitas Indonesia, 2019
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Nadhifa Khalisha Anandra
"Skripsi ini membahas mengenai pengembangan Sistem Penilaian Esai Otomatis (SIMPLE-O) yang dirancang dengan menggunakan hybrid CNN dan Bi-LSTM dan Manhattan Distance untuk penilaian esai Bahasa Jepang. Sistem dirancang dengan menggunakan bahasa pemrograman Python. Sistem melalui tahapan pre-processing, feature extraction dan word embedding yang dilanjutkan dengan proses deep learning serta pengukuran dengan menggunakan manhattan distance. Hasil akhir dari sistem dibandingkan dengan penilaian manual oleh dosen. Model yang paling stabil dan terbaik ditraining dengan menggunakan hyperparameter dengan kernel sizes bernilai 5, jumlah filter atau output CNN sebesar 64, pool size sebesar 4, Bidirectional LSTM units 50, batch size sebesar 64. Model deep learning ditraining dengan menggunakan optimizer Adam dengan learning rate 0,001 , epoch sebanyak 25 dan menggunakan regularizer L1 sebesar 0,01. Rata-rata error yang diperoleh adalah 29%
This thesis discusses the development of an Automatic Essay Grading System (SIMPLE-O) designed using hybrid CNN and Bidirectional LSTM and Manhattan Distance for Japanese essay grading. The system is designed using Python programming language. The system goes through the stages of pre-processing, feature extraction and word embedding followed by deep learning process and measurement using Manhattan Distance. The final result of the system is compared with manual assessment by lecturers. The most stable and best model is trained using hyperparameters with kernel sizes of 5, number of filters or CNN outputs of 64, pool size of 4, Bidirectional LSTM units of 50, batch size of 64. The deep learning model is trained using the Adam optimizer with a learning rate of 0.001, epoch of 25 and using an L1 regularizer of 0.01. The average error obtained is 29%.
"
Depok: Fakultas Teknik Universitas Indonesia, 2022
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Tigor, Surawidjaja Nauli
Jakarta: Gramedia Pustaka Utama , 1992
005.13 TIG b
Buku Teks  Universitas Indonesia Library
cover
Galangkangin Gotera
"Singlish adalah sebuah bahasa informal yang sering digunakan warga Singapura. Karena informal, bahasa Singlish jarang ditemukan di media umum seperti majalah, koran, dan artikel internet. Meski demikian, bahasa ini sangat sering digunakan oleh warga Singapu- ra pada percakapan sehari-hari, baik daring maupun luring. Banyak campuran bahasa lain (code-mixing) merupakan tantangan lain dari Singlish. Keterbatasan GPU juga menjadi tantangan dalam mendapatkan model yang baik. Mempertimbangkan semua tantangan ini, penulis telah melatih sebuah model Efficiently Learning an Encoder that Classifies Token Replacements Accurately (ELECTRA) pada data berbahasa Singlish. ELECTRA merupakan sebuah model baru yang menawarkan waktu training lebih cepat sehingga menjadi pilihan baik jika memiliki keterbatasan GPU. Data Singlish didapatkan melalui web scraping pada reddit dan hardwarezone. Penulis membuat sebuah dataset benchmark pada dua buah permasalahan yaitu sentiment analysis dan singlish identification dengan anotasi manual sebagai metode untuk mengukur kemampuan model dalam Singlish. Penulis melakukan benchmarking pada model yang dilatih dengan beberapa model yang tersedia secara terbuka dan menemukan bahwa model ELECTRA yang dilatih memiliki perbedaan akurasi paling besar 2% dari model SINGBERT yang dilatih lebih lama dengan data yang lebih banyak.

Singlish is an informal language frequently used by citizens of Singapore (Singaporeans). Due to the informal nature, Singlish is rarely found on mainstream media such as magazines, news paper, or internet articles. However, the language is commonly used on daily conversation, whether it be online or offline. The frequent code-mixing occuring in the language is another tough challenge of Singlish. Considering all of these challenges, we trained an Efficiently Learning an Encoder that Classifies Token Replacements Accurately (ELECTRA) model on a Singlish corpus. Getting Singlish data is hard, so we have built our own Singlish data for pre-training and fine-tuning by web scraping reddit and hardwarezone. We also created a human-annotated Singlish benchmarking dataset of two downstream tasks, sentiment analysis and singlish identification. We tested our models on these benchmarks and found out that the accuracy of our ELECTRA model which is trained for a short time differ at most 2% from SINGBERT, an open source pre-trained model on Singlish which is trained with much more data."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2021
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Sestoft, Peter
"Programming Language Concepts uses a functional programming language (F#) as the metalanguage in which to present all concepts and examples, and thus has an operational flavour, enabling practical experiments and exercises. It includes basic concepts such as abstract syntax, interpretation, stack machines, compilation, type checking, and garbage collection techniques, as well as the more advanced topics on polymorphic types, type inference using unification, co- and contravariant types, continuations, and backwards code generation with on-the-fly peephole optimization.
"
London: Springer, 2012
e20407633
eBooks  Universitas Indonesia Library
cover
Skier, Ken
New York: McGraw-Hill, 1981
001.642 SKI t
Buku Teks  Universitas Indonesia Library
cover
Mochamad Fahmi Fajrin
"Plagiarisme merupakan tindakan mengakui hasil karya orang lain sebagai hasil karya pribadi tanpa izin pemilik asli karya tersebut. Tindakan plagiarisme dalam bentuk dokumen sudah sangat banyak terjadi saat era digital seperti ini. Pada skripsi ini dibuat sistem pendeteksi plagiarisme otomatis pada karya tulis digital dwibahasa (Indonesia - Inggris) dengan bahasa Indonesia digunakan sebagai karya tulis yang akan diuji dan bahasa Inggris sebagai karya tulis referensinya. Sistem pendeteksi plagiarisme terdapat dua bagian penting, yaitu akurasi dan kecepatan yang dihasilkan oleh sistem.
Pada skripsi ini dilakukan pengembangan terhadap sistem pendeteksi plagiarisme dengan menambahkan penerjemah Microsoft Translator API dan menerapkan similar word. Penerapan penerjemah Microsoft Translator API dapat meningkatkan akurasi yang cukup signifikan yaitu sebesar 14,93 % dibandingkan penerjemah Googletrans API dan penerapan similar word dapat meningkatkan akurasi sistem dari 0,24% hingga 15,37%. Parallel processing diterapkan untuk mengatasi permasalahan waktu eksekusi yang lama ketika jumlah dokumen referensi yang digunakan banyak. Hasil pengujian dengan menerapkan parallel processing dapat meningkatkan kecepatan 1,06 hingga 6,71 kali lebih cepat dari program yang berjalan secara serial.

Plagiarism is the act of acknowledging the work of others personal work without their permissions. The prevalence of plagiarism is high in this digital era. In this thesis, an automatic plagiarism detection system on bilingual digital paper (Indonesian-English) is created with Indonesian paper as the tested paper and English paper as the reference paper. The plagiarism detection system has two important parts, namely the accuracy and speed produced by the system.
In this thesis, a plagiarism detection system is developed by adding a Microsoft Translator API translator and applying a similar word. The application of the Microsoft Translator API translator can increase the accuracy of the significant amount of 14.93% compared to the Googletrans API translator and the application of similar word can increase system accuracy from 0.24% to 15.37%. Parallel processing will be applied to overcome the problems of a long execution time when the number of reference documents that are used a lot. The test results by applying parallel processing can increase the speed of 1.06 to 6.71 times faster than programs running in serial.
"
Depok: Fakultas Teknik Universitas Indonesia, 2019
S-Pdf
UI - Skripsi Membership  Universitas Indonesia Library
<<   1 2 3 4 5 6 7 8 9 10   >>