Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 26 dokumen yang sesuai dengan query
cover
Aris Tjahyanto
"ABSTRAK
Sistem hypertext mempunyai antarmuka komputer yang cocok untuk aplikasi sistem pengambilan informasi. Suatu sistem hypertext yang ideal memberi kemudahan penggunaan dan karakteristik panduan yang mudah dimengerti. Orang tidak perlu mempelajari instruksi pengambilan informasi karena cara pengoperasiannya sangat sederhana. Penyiapan suatu sistem hypertext umumnya memerlukan waktu yang lama, karena kita harus menyusun dan menentukan terlebih dahulu topik-topik mana yang dapat ditelusuri dan diberi penjelasan lebih lanjut atau dihubungkan dengan topik lainnya.
Keberadaan naskah acuan dalam hypertext akan membantu dan memudahkan pembaca naskah tersebut untuk mempelajari dan memahami topik-topik. tertentu di dalamnya dengan cepat. Salah satu naskah acuan yang banyak diminati orang adalah Al Qur'an dan Hadits Nabi. Namun kebanyakan perangkat lunak naskah tersebut belum dalam bentuk hypertext dan beberapa perangkat lunak tersebut memerlukan perangkat keras khusus dalam peragaannya. Dalam studi ini penulis membuat suatu prototipe perangkat lunak pembentuk naskah Al Qur'an dalam bentuk hypertext yang mudah dimodifikasi dan tidak memerlukan perangkat keras khusus pendukung tulisan Arab. Prototipe dibuat dengan memanfaatkan LEX dan YACC yang dikompilasi dalam lingkungan MS Windows."
1995
T-Pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
New York: Oxford University Press, 2004
R 410.285 OXF
Buku Referensi  Universitas Indonesia Library
cover
Andhika Yusup Maulana
"

Tujuan dari penelitian ini adalah membangun dependency parser untuk Bahasa Indonesia menggunakan pendekatan cross-lingual transfer learning. Sebagai source language dipilih empat bahasa, yaitu Bahasa Perancis, Bahasa Italia, Bahasa Slovenia, dan Bahasa Inggris. Dependency parser dibangun menggunakan transformer (self-attention encoder) sebagai encoder layer dan deep biaffine decoder sebagai decoder layer. Pendekatan transfer learning dengan fine-tuning mampu meningkatkan performa model dependency parser untuk Bahasa Indonesia dengan margin yang paling tinggi yaitu 4.31% untuk UAS dan 4.46% untuk LAS dibandingkan dengan pendekatan training from scratch.


The objective of this research is to build a dependency parser for Indonesian using cross-lingual transfer learning. As the source language, chosen four languages: French, Italian, Slovenian, and English. The dependency parser is built using a transformer (self-attention encoder) as the encoder layer and a deep biaffine decoder as the decoder layer. The transfer learning approach with fine-tuning can improve the performance of the dependency parser model for Indonesian with the highest margin of 4.31% for UAS and 4.46% for LAS compared to the training from scratch approach.

"
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2023
TA-pdf
UI - Tugas Akhir  Universitas Indonesia Library
cover
Boot, M.
Amsterdam : Servire Katwijk , 1984
401 BOO t
Buku Teks SO  Universitas Indonesia Library
cover
Hays, David G.
New York: American Elsevier puvlishing, 1967
410.18 HAY i
Buku Teks SO  Universitas Indonesia Library
cover
Popi Puspitasari
Depok: Fakultas Teknik Universitas Indonesia, 2002
S39084
UI - Skripsi Membership  Universitas Indonesia Library
cover
New York: Cambridge University Press, 1992
410 COM
Buku Teks SO  Universitas Indonesia Library
cover
McEnery, Tony, 1964-
London: Routledge, 2010
410 MCE c
Buku Teks SO  Universitas Indonesia Library
cover
Gazdar, Gerald
[Place of publication not identified]: Addison-Wesley, 1989
410.28 GAZ n
Buku Teks SO  Universitas Indonesia Library
cover
Fadli Aulawi Al Ghiffari
"Penelitian ini bertujuan untuk membangun model dependency parser untuk bahasa Jawa menggunakan pendekatan cross-lingual transfer learning. Metode transfer learning dipilih untuk mengatasi kurangnya dataset yang tersedia untuk proses training model pada bahasa Jawa yang merupakan low-resource language. Model dibangun menggunakan arsitektur encoder-decoder, tepatnya menggunakan gabungan dari self-attention encoder dan deep biaffine decoder. Terdapat tiga skenario yang diuji yaitu model tanpa transfer learning, model dengan transfer learning, dan model dengan hierarchical transfer learning. Metode transfer learning menggunakan bahasa Indonesia, bahasa Korea, bahasa Kroasia, dan bahasa Inggris sebagai source language. Sementara metode hierarchical transfer learning menggunakan bahasa Prancis, bahasa Italia, dan bahasa Inggris sebagai source language tahap satu, serta bahasa Indonesia sebagai source language tahap dua (intermediary language). Penelitian ini juga mengujikan empat word embedding yaitu fastText, BERT Jawa, RoBERTa Jawa, dan multilingual BERT. Hasilnya metode transfer learning secara efektif mampu menaikkan performa model sebesar 10%, di mana model tanpa transfer learning yang memiliki performa awal unlabeled attachment score (UAS) sebesar 75.87% dan labeled attachment score (LAS) sebesar 69.04% mampu ditingkatkan performanya hingga mencapai 85.84% pada UAS dan 79.22% pada LAS. Skenario hierarchical transfer learning mendapatkan hasil yang lebih baik daripada transfer learning biasa, namun perbedaannya tidak cukup signifikan.

This research aims to develop a Javanese dependency parser model using a cross-lingual transfer learning approach. The transfer learning method was chosen to overcome the lack of available datasets for the model training process in Javanese, a low-resource language. The model uses an encoder-decoder architecture, precisely combining a self-attention encoder and a deep biaffine decoder. Three scenarios are experimented with: a model without transfer learning, a model with transfer learning, and a model with hierarchical transfer learning. The transfer learning process uses Indonesian, Korean, Croatian, and English as source languages. In contrast, the hierarchical transfer learning process uses French, Italian, and English as the first-stage source languages and Indonesian as the second-stage source language (intermediary language). This research also experimented with four word embedding types: fastText, Javanese BERT, Javanese RoBERTa, and multilingual BERT. The results show that the transfer learning method effectively improves the model’s performance by 10%, where the model without transfer learning has an initial unlabeled attachment score (UAS) performance of 75.87% and labeled attachment score (LAS) of 69.04% can be increased to 85.84% in UAS and 79.22% in LAS. Hierarchical transfer learning has a slightly better result than standard transfer learning, but the difference is insignificant."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
<<   1 2 3   >>