Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 13 dokumen yang sesuai dengan query
cover
Dyer, Hilary, 1954-
Aldershot, Hants: Gower, 1990
R 025.00285 DYE d
Buku Referensi  Universitas Indonesia Library
cover
Westlake, Duncan R.
Aldershot, Hants: Ashgate, 1992
R 025.04 WES g
Buku Referensi  Universitas Indonesia Library
cover
Dewey, Patrick R.
Chicago: American Library Association, 1990
R 025.00285 DEW 1
Buku Referensi  Universitas Indonesia Library
cover
Campbell, Stephen L.
New York : Springer, 2006
502.855 CAM m
Buku Teks SO  Universitas Indonesia Library
cover
Abrar Nasbey
"Kegiatan pengelolaan deposit terbitan nasional dalam rangka menghimpun, menyimpan, melestarikan dan mendayagunakan koleksi nasional merupakan salah satu peran Perpustakaan Nasional RI Perpusnas yang amat penting dalam mengembangkan koleksi nasional dan melestarikan hasil budaya bangsa. Berdasarkan Laporan Kinerja Instansi Pemerintah LAKIP Perpusnas 2016 diketahui bahwa hasil penghimpunan Karya Cetak Karya Rekam KCKR pada tahun 2016 adalah sebanyak 32.685 eksemplar atau sebesar 24.1 jika dibandingkan dengan total karya yang terbit di Indonesia, dan dapat disimpulkan dalam kategori rendah. Permasalahan yang saat ini dihadapi antara lain, yang pertama adalah kesulitan dalam melakukan pemantauan penerbit karena Deposit Hanya memiliki daftar penerbit yang pernah menyerahkan terbitannya, namun tidak memiliki daftar semua penerbit di Indonesia, sehingga untuk melakukan pemantauan dibutuhkan proses pemetaan penerbit terlebih dahulu dan melakukan komparasi data dari para penerbit yang telah menyerahkan. Yang kedua yaitu pengelolaan terbitan yang telah diserahkan belum efektif dalam hal kecepatan dan konsistensi data. Hal tersebut terlihat dengan adanya penumpukan dalam proses registrasi, data penerbit yang tidak konsisten, dan pelabelan yang belum terotomasi membutuhkan waktu dan dapat menyebabkan kesalahan pelabelan. Yang ketiga adalah Laporan yang dihasilkan belum memenuhi kebutuhan informasi pengguna sehingga laporan yang dihasilkan oleh sistem perlu di olah kembali oleh pengguna untuk mendapatkan informasi yang di inginkan, dengan demikian membutuhkan waktu dan proses yang panjang tidak efisien. Untuk mengatasi permasalahan tersebut diperlukan sebuah solusi berupa perancangan Sistem Deposit. Perancangan Sistem Deposit pada penelitian ini menggunakan metode pengembangan Systems Development Life Cycle SDLC , dan hanya tahapan analisis dan desain. Pengumpulan data dilakukan dengan wawancara, observasi dan studi dokumen.sehingga menghasilkan system request antara lain kebutuhan untuk mempercepat dan memudahkan proses pemantauan penerbit, mempercepat proses pengelolaan terbitan yang telah diserahkan, dan pembuatan laporan sesuai dengan kebutuhan pengguna. Dari kebutuhan tersebut dilakukan analisis dan desain menggunakan pendekatan berorientasi objek Unified Modeling Language UML . Dari penelitian ini dihasilkan sistem deposit yang menyediakan fitur untuk menginput data seluruh penerbit beserta terbitannya sehingga mudah melakukan pemantauan penerbit, fitur pencetakan label koleksi secara otomatis untuk mempercepat proses pelabelan dan mencegah terjadi kesalahan pelabelan, fitur input data terbitan bagi penerbit yang akan menyerahkan terbitannya sehingga mempercepat proses registrasi, dan fitur pembuatan laporan dengan menggunakan filtering agar laporan yang dihasilkan dapat memenuhi kebutuhan pengguna.

The management of national deposit activities in order to collect, store, preserve and utilize national collections is one of the important roles of National Library of Indonesia NLI in developing national collections and preserving the nation 39;s cultural products. Based on the Government Institution Performance Report of the National Library of Indonesia 2016, it is known that the results of the recapitulation of Deposit Activities in 2016 is 32,685 copies or 24.1 when compared to the total work published in Indonesia, and can be summed up in the low category. The problems currently faced are the difficulty in monitoring the publisher because the Deposit only has a list of publishers who have submitted their publications, but does not have a list of all publishers in Indonesia, so monitoring is needed to map the publisher first and to compile the data from publishers who have submitted. Secondly, the management of published publications has not been effective in terms of speed and consistency of data. This is evident from the buildup in the registration process, inconsistent publisher data, and unmotified labeling takes time and can cause labeling errors. The third is that the resulting report has not met the needs of user information so that reports generated by the system need to reprocessed if the user to get the desired information, thus requiring time and a long process inefficient. To overcome these problems required a solution in the form of Deposit System design. The design of the Deposit System in this study used Systems Development Life Cycle SDLC development method, only the analysis and design stage. Data collection is done by interview, observation, and document study. Thus generating system request include the need to accelerate and facilitate the publisher monitoring process, to accelerate the management process of the submitted publication, and to prepare the report according to the needs of the user. From these requirements, the analysis and design using the object-oriented approach Unified Modeling Language UML . From this research a deposit system is created that provides a feature to input data of all publishers along with its publications so that it is easy to monitor publishers, automatic label collection feature to speed up the labeling process and prevent labeling errors, input data features for publishers who will submit the publication so as to speed up registration process, and report generation feature by using filtering so that the generated report can fulfill user requirement."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2018
TA-Pdf
UI - Tugas Akhir  Universitas Indonesia Library
cover
Rico Tadjudin
"

Grammatical Error Correction (GEC) merupakan bagian dari Natural Language Processing yang membahas suatu task untuk mendeteksi dan setelahnya mengoreksi suatu teks. Pekerjaan tersebut mencakup pendeteksian dan pengoreksian kesalahan tata bahasa, kesalahan ortografi, dan semantik. Perkembangan GEC untuk bahasa Indonesia terkendala oleh sedikitnya dataset yang dapat digunakan untuk melatih model GEC. Penelitian ini mengusulkan pendekatan rule-based untuk membangun sebuah dataset sintetik yang mengandung kalimat salah secara tata bahasa baku bahasa Indonesia beserta koreksinya. Hal tersebut dapat dilakukan dengan memanfaatkan kamus tesaurus bahasa Indonesia dan alat bantuan NLP seperti tokenizer, part-of-speech tagger, morphological analyzer, dan dependency parser untuk mengekstrak informasi konteks dari kalimat. Kumpulan data sintetik dibangkitkan dengan menggunakan kalimat yang benar secara tata bahasa dari halaman0halaman situs Wikipedia sebagai kalimat input. Dataset ini menyediakan data dalam dua format yang berbeda, yaitu dalam format M2 dan dalam bentuk pasangan kalimat salah dan benar. Pembangkitan kesalahan tata bahasa akan memiliki 17 kemungkinan jenis kesalahan tata bahasa yang berbeda dengan total 16.898 kalimat salah yang dibentuk. Pengujian Gramatika dilakukan dengan melakukan evaluasi secara manual mengenai ketepatan pembangkitan tiap kesalahan pada kalimat. Pengujian manual dilakukan dengan melakukan stratified random sampling untuk mengambil sampel 100 kalimat. Sampel tersebut minimal memiliki 5 contoh untuk setiap jenis kesalahan tata bahasa. Dari pengevaluasian yang dilalukan oleh dua penguji, didapatkan nilai accuracy sebesar 91,1%.


Grammatical Error Correction (GEC) is a part of Natural Language Processing which deals with the task of detecting and correcting a text. This includes correcting grammatical errors, semantic errors, and orthographic errors. GEC development in Indonesian language has been hindered by the lack of suitable dataset that can be used to train GEC models. This research proposes a rule-based approach to develop a synthetic dataset that contains sentences in Indonesian with grammar errors and its corresponding corrections. It’s done with the help of dictionaries such as Indonesian thesaurus and NLP tools such as a tokenizer, part of speech tagger, morphological analyzer, and dependency parser to extract contextual information of sentences. The synthetic dataset is generated by using grammatically correct sentences from Wikipedia pages as the input. The resulting dataset is formatted to M2 format and pairs of correct and false sentences, containing 17 types of errors with a total of 16.898 sentences. The evaluation of Gramatika is done by manually assessing the accuracy of the sentence modifications. To do this, stratified random sampling is conducted to select 100 sentences with a minimum of 5 examples for each error type. From the manual evaluation by two evaluators, an average accuracy score of 91.1% is obtained.

"
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Michael Felix Haryono
"Grammatical Error Correction (GEC) merupakan bagian dari Natural Language Processing yang membahas suatu task untuk mendeteksi dan setelahnya mengoreksi suatu teks. Pekerjaan tersebut mencakup pendeteksian dan pengoreksian kesalahan tata bahasa, kesalahan ortografi, dan semantik. Perkembangan GEC untuk bahasa Indonesia terkendala oleh sedikitnya dataset yang dapat digunakan untuk melatih model GEC. Penelitian ini mengusulkan pendekatan rule-based untuk membangun sebuah dataset sintetik yang mengandung kalimat salah secara tata bahasa baku bahasa Indonesia beserta koreksinya. Hal tersebut dapat dilakukan dengan memanfaatkan kamus tesaurus bahasa Indonesia dan alat bantuan NLP seperti tokenizer, part-of-speech tagger, morphological analyzer, dan dependency parser untuk mengekstrak informasi konteks dari kalimat. Kumpulan data sintetik dibangkitkan dengan menggunakan kalimat yang benar secara tata bahasa dari halaman0halaman situs Wikipedia sebagai kalimat input. Dataset ini menyediakan data dalam dua format yang berbeda, yaitu dalam format M2 dan dalam bentuk pasangan kalimat salah dan benar. Pembangkitan kesalahan tata bahasa akan memiliki 17 kemungkinan jenis kesalahan tata bahasa yang berbeda dengan total 16.898 kalimat salah yang dibentuk. Pengujian Gramatika dilakukan dengan melakukan evaluasi secara manual mengenai ketepatan pembangkitan tiap kesalahan pada kalimat. Pengujian manual dilakukan dengan melakukan stratified random sampling untuk mengambil sampel 100 kalimat. Sampel tersebut minimal memiliki 5 contoh untuk setiap jenis kesalahan tata bahasa. Dari pengevaluasian yang dilalukan oleh dua penguji, didapatkan nilai accuracy sebesar 91,1%.

Grammatical Error Correction (GEC) is a part of Natural Language Processing which deals with the task of detecting and correcting a text. This includes correcting grammatical errors, semantic errors, and orthographic errors. GEC development in Indonesian language has been hindered by the lack of suitable dataset that can be used to train GEC models. This research proposes a rule-based approach to develop a synthetic dataset that contains sentences in Indonesian with grammar errors and its corresponding corrections. It’s done with the help of dictionaries such as Indonesian thesaurus and NLP tools such as a tokenizer, part of speech tagger, morphological analyzer, and dependency parser to extract contextual information of sentences. The synthetic dataset is generated by using grammatically correct sentences from Wikipedia pages as the input. The resulting dataset is formatted to M2 format and pairs of correct and false sentences, containing 17 types of errors with a total of 16.898 sentences. The evaluation of Gramatika is done by manually assessing the accuracy of the sentence modifications. To do this, stratified random sampling is conducted to select 100 sentences with a minimum of 5 examples for each error type. From the manual evaluation by two evaluators, an average accuracy score of 91.1% is obtained.
"
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Muhammad Ravi Shulthan Habibi
"Sistem tanya jawab merupakan salah satu tugas dalam domain natural language processing (NLP) yang sederhananya bertugas untuk menjawab pertanyaan sesuai konteks yang pengguna berikan ke sistem tanya jawab tersebut. Sistem tanya jawab berbahasa Indonesia sebenarnya sudah ada, namun masih memiliki performa yang terbilang kurang baik. Penelitian ini bereksperimen untuk mencoba meningkatkan performa dari sistem tanya jawab berbahasa Indonesia dengan memanfaatkan natural language inference (NLI). Eksperimen untuk meningkatkan sistem tanya jawab berbahasa Indonesia, penulis menggunakan dua metode, yaitu: intermediate-task transfer learning dan task recasting sebagai verifikator. Dengan metode intermediate-task transfer learning, performa sistem tanya jawab berbahasa Indonesia meningkat, hingga skor F1-nya naik sekitar 5.69 dibandingkan tanpa menggunakan pemanfaatan NLI sama sekali, dan berhasil mendapatkan skor F1 tertinggi sebesar 85.14, namun, peningkatan performa dengan metode intermediate-task transfer learning cenderung tidak signifikan, kecuali pada beberapa kasus khusus model tertentu. Sedangkan dengan metode task recasting sebagai verifikator dengan parameter tipe filtering dan tipe perubahan format kalimat, performa sistem tanya jawab berbahasa Indonesia cenderung menurun, penurunan performa ini bervariasi signifikansinya. Pada penelitian ini juga dilakukan analisis karakteristik pasangan konteks-pertanyaan-jawaban seperti apa yang bisa dijawab dengan lebih baik oleh sistem tanya jawab dengan memanfaatkan NLI, dan didapatkan kesimpulan bahwa: performa sistem tanya jawab meningkat dibandingkan hasil baseline-nya pada berbagai karakteristik, antara lain: pada tipe pertanyaan apa, dimana, kapan, siapa, bagaimana, dan lainnya; kemudian pada panjang konteks ≤ 100 dan 101 ≤ 150; lalu pada panjang pertanyaan ≤ 5 dan 6 ≤ 10; kemudian pada panjang jawaban golden truth ≤ 5 dan 6 ≤ 10; lalu pada keseluruhan answer type selain law dan time; terakhir pada reasoning type WM, SSR, dan MSR.

The question-answering system is one of the tasks within the domain of natural language processing (NLP) that, in simple terms, aims to answer questions based on the context provided by the user to the question-answering system. While there is an existing Indonesian question-answering system, its performance is considered somewhat inadequate. This research conducts experiments to improve the performance of the Indonesian question answering system by utilizing natural language inference (NLI). In order to enhance the Indonesian question-answering system, the author employs two methods: intermediate task transfer learning and task recasting as verifiers. Using the intermediate-task transfer learning method, the performance of the Indonesian question-answering system improves significantly, with an increase of approximately 5.69 in F1 score compared to not utilizing NLI at all, achieving the highest F1 score of 85.14. However, the performance improvement with the intermediate-task transfer learning method tends to be non-significant, except in certain specific cases and particular models. On the other hand, employing the task recasting method as a verifier with filtering parameter type and sentence format change type leads to a decline in the performance of the Indonesian question-answering system, with the significance of this performance decrease varying. Additionally, this research conducts an analysis on the characteristics of context-question-answer pairs that can be better answered by the question-answering system utilizing NLI. The findings conclude that the question-answering system’s performance improves compared to its baseline across various characteristics, including different question types such as what, where, when, who, how, and others. Furthermore, it improves with context lengths ≤ 100 and 101 ≤ 150, question lengths ≤ 5 and 6 ≤ 10, as well as answer lengths (golden truth) ≤ 5 and 6 ≤ 10. Additionally, it performs better in overall answer types excluding law and time, and lastly, in reasoning types WM, SSR, and MSR.
"
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Heidi Renata Halim
"Seiring dengan majunya teknologi di Indonesia, banyak layanan kesehatan online yang bermunculan. Pengguna bisa bertanya langsung pada tenaga medis profesional tiap mereka memiliki masalah kesehatan ringan yang tidak membutuhkan janji temu langsung dengan dokter. Sebagai pengguna, tentunya mereka mengharapkan respon yang cepat dari situs yang mereka gunakan, hal ini kedengarannya mustahil dilakukan karena tidak semua tenaga medis profesional yang bekerja pada layanan medis tersebut ada setiap saat memantau semua pertanyaan yang masuk. Namun, hal ini bisa dilakukan dengan cara mencocokan pertanyaan yang baru dimasukkan dan mencari pertanyaan yang sudah pernah ditanyakan di masa lalu yang memiliki persamaan dengan pertanyaan yang baru dimasukkan. Secara singkat, kita bisa mencari duplikat dari pertanyaan yang ditanyakan oleh pengguna dan mengembalikan jawaban dari pertanyaan duplikat tersebut daripada menunggu jawaban langsung dari dokter. Penelitian ini akan menggunakan pendekatan temu balik informasi dalam mendeteksi pertanyaan duplikat yang pernah ditanyakan di masa lalu. Selain itu, penelitian ini juga akan mengkombinasikan ekspansi kata yang dilakukan kepada kueri, dokumen, serta filter kata-kata stopword untuk meningkatkan skor reciprocal-rank dan recall dari model yang digunakan. Hasil penelitian ini menyimpulkan bahwa ekspansi kata yang dilakukan pada kueri serta dokumen tidak menghasilkan skor reciprocal rank dan recall yang lebih baik. Penggunaan word embedding untuk memperbanyak kata stopword yang dihapus dari data mampu menghasilkan skor reciprocal rank yang lebih tinggi meskipun nilainya belum signifikan.

With the advancement of technology and internet in Indonesia, many online healthcare services have emerged where users can directly consult with medical professionals if they have minor health issues that do not require an in-person appointment with a doctor. As users, they naturally expect quick responses from the sites they use. This seems impossible to do as not all medical professionals working who are working on these services are always available to monitor every incoming question. However, this can be achieved by matching newly submitted questions with previously asked questions that have similarities. In short, we can search for duplicates of the questions asked by users and return answers from those duplicate questions instead of waiting for a direct response from a doctor. This research will use an information retrieval approach to detect duplicate questions that have been asked in the past. Additionally, this study will combine query expansion, document expansion, and stopwords filtering to improve the reciprocal-rank and recall scores of the model used. This research concludes that query and document expansion do not yield better reciprocal rank and recall scores. On the other hand, using
word embedding to expand the stopwords list removed from the data can help achieve higher reciprocal rank scores, although the improvement displays are still not significant enough to be categorized as a major change."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Kurmey, Wiliam J.
Metuchen: Scarecrow Press, 1990
025.002 85 KUR c
Buku Teks SO  Universitas Indonesia Library
<<   1 2   >>