Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 10 dokumen yang sesuai dengan query
cover
Wanda Ediviani
"Jerami padi merupakan salah satu limbah pertanian yang sangat melimpah di Indonesia. Jerami padi mengandung polisakarida dalam bentuk selulosa dan hemiselulosa, yang dapat dimanfaatkan sebagai bahan baku dalam produksi bioetanol. Penelitian ini bertujuan untuk melihat efektivitas produksi bioetanol dari sampel hidrolisat jerami padi dengan menggunakan ragi roti (ragi kering-Fermipan) dan ragi tapai (ragi padat-Sae).
Penelitian dilakukan dengan memfermentasikan sampel menggunakan kedua jenis ragi tersebut dan isolat murni khamir Saccharomyces cerevisiae sebagai kontrol. Kadar glukosa diukur menggunakan glucometer dan kadar bioetanol dianalisis menggunakan high-performance liquid chromatography. Rancangan penelitian menggunakan Split Plot Design dengan dua faktor perlakuan; pemberian ragi (R) dan waktu fermentasi (T).
Hasil penelitian menunjukkan bahwa kedua jenis ragi pada produksi kadar bioetanol dari sampel memberikan pengaruh yang tidak berbeda nyata; namun perlakuan Sae menghasilkan kadar bioetanol yang lebih tinggi dibandingkan dengan perlakuan Fermipan; laju produksi bioetanol pada perlakuan Sae juga lebih tinggi dibandingkan dengan laju produksi bioetanol pada perlakuan Fermipan. Kesimpulan dari penelitian adalah perlakuan Sae lebih efektif dalam memproduksi bioetanol dari sampel hidrolisat jerami padi.

Rice straw is one of the most abundant agricultural waste in Indonesia. Rice straw contains polysaccharide in the form of cellulose and hemicellulose, which can be used as raw materials in the production of bioethanol. This study aims to examine the effectiveness of bioethanol production from rice straw‘s hydrolyzate using baker's yeast (dry starter - Fermipan) and tapai‘s starter (solid starter - Sae).
Research was carried out by fermenting the sample using two types of starters with a control of pure yeast Saccharomyces cerevisiae. Glucose level was measured by using glucometer and ethanol level was analyzed by using high-performance liquid chromatography. This study using Split Plot Design with two treatment factors; starter‘s inoculum (R) and time of fermentation (T).
The study shows that both types of starters has no significant difference on the bioethanol level production; however, Sae‘s treatment produced higher level of bioethanol compared to the Fermipan‘s; rate of bioethanol production at Sae‘s treatment is also higher than the rate of bioethanol production in Fermipan‘s. The conclusion of the study is Sae is more effective in producing bioethanol from rice straw hydrolyzate samples.
"
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2013
S46160
UI - Skripsi Membership  Universitas Indonesia Library
cover
Arif Zakaria Kapa
"Kajian perencanaan pembangkitan listrik tenaga gas (PLTG) di anjungan Krisna-P CNOOC SES Ltd, dilandasi pertimbangan terbuangnya raw associated gas (RAG). Disisi lain, CNOOC SES Ltd memiliki kontrak penjualan non associated gas ke PLN untuk PLTGU Cilegon. Sebagian non associated gas (gas ekonomis) juga dimanfaatkan sendiri oleh CNOOC SES Ltd untuk pembangkit listrik menggunakan generator turbin gas. Karena kebutuhan akan listrik yang cukup besar maka konsumsi gas untuk pembangkitan sendiri juga besar. Keadaan ini memberi peluang untuk menghemat penggunaan gas bilamana merencanakan pembangkitan listrik yang tidak mengkonsumsi gas ekonomis ini.
Kenyataan bahwa anjungan Krisna-P memiliki sambungan listrik dengan jala-jala kelistrikan CNOOC SES Ltd, memungkinkan perencanaan pembangkitan di anjungan Krisna-P memanfaatkan gas buang ini. Dengan masuknya suplai listrik dari anjungan Krisna-P, membuat penghematan gas ekonomis, sehingga mobilisasi gas ke PLN bisa lebih besar lagi dan memberi keuntungan kepada CNOOC SES Ltd. Dengan demikian kajian keekonomian perencanaan pembangkitan di Krisna-P perlu dilakukan, dengan membandingkan keuntungan ekonomis dari tambahan gas yang di jual ke PLN, karena penghematan ini terhadap biaya investasi yang di perlukan.

Study of planning of electrical power generation by gas resources at Krisna-P platform is based on consideration of raw associated gas (RAG) wasting. At the other side, CNOOC SES Ltd have contract of gas selling to PLN for Gas and Steam Power Generation (PLTGU) Cilegon. Some of non associated gas (economic gas) that being sold to PLN is also utilized by CNOOC SES Ltd for own power generation using gas turbine generators. Due to the high requirement of electrical power the gas consumption for own generation is also high. This condition give an opportunity to save the gas upon there is a plan to make power generation that is not consuming this economic gas.
The fact that Krisna-P platform has electrical connection to CNOOC SES Ltd grid give possibility to have planning for electrical power generation at Krisna-P that consuming this uneconomic gas. By this Krisna-P electrical supplying, there will save the economic gas, so that gas mobilization to PLN can be increased and give more advantage to CNOOC SES Ltd. Therefore, the economic study of power generation planning at Krisna-P platform need to conduct to compare the economic advantage of gas sell to PLN with the investment required.
"
Depok: Fakultas Teknik Universitas Indonesia, 2014
T42628
UI - Tesis Membership  Universitas Indonesia Library
cover
Jaycent Gunawan Ongris
"The rise of large language models (LLMs) has advanced information retrieval, but issues like limited knowledge updating, lack of openness, and hallucinations persist. Retrieval-Augmented Generation (RAG) addresses these, though it lacks interpretability due to reliance on vector-based representations. Our research presents a RAG framework using a knowledge graph (KG) as the primary knowledge base, with only open-source components to allow for user customization. The main pipeline consists of entity linking, retrieval using verbalized sentences or SPARQL query generation, and answer generation, integrated with ontology (properties and classes) retrieval via a vector database. The pipeline is tested on Wikidata, DBpedia, and a local domain-specific KG, achieving accuracies of 0.458, 0.517, and 0.805, respectively. An ablation study further reveals that ontology retrieval is the most critical component in providing context to the LLM for generating accurate SPARQL queries.

Munculnya large language models (LLMs) telah memajukan bidang information retrieval, tetapi masalah seperti keterbatasan pembaruan pengetahuan, kurangnya keterbukaan, dan halusinasi masih ada. Retrieval-Augmented Generation (RAG) membantu mengatasi beberapa tantangan ini tetapi memiliki keterbatasan dalam interpretabilitas karena bergantung pada representasi berbasis vektor. Penelitian ini memperkenalkan sebuah kerangka kerja RAG yang menggunakan graf pengetahuan (KG) sebagai basis pengetahuan utama, dengan hanya menggunakan komponen open-source untuk memungkinkan kustomisasi pengguna. Pipeline utama terdiri dari penghubungan entitas, retrieval menggunakan kalimat hasil verbalisasi atau pembuatan kueri SPARQL, dan pembangkitan jawaban, yang terintegrasi dengan retrieval ontologi (properti dan kelas) melalui basis data vektor. Kerangka kerja ini diuji pada Wikidata, DBpedia, dan KG dengan domain spesifik lokal, dengan akurasi masing-masing 0,458, 0,517, dan 0,805. Studi ablasi lebih lanjut mengungkapkan bahwa retrieval ontologi adalah komponen yang paling utama dalam memberikan konteks kepada LLM untuk bisa membangkitkan kueri SPARQL yang akurat."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Eduardus Tjitrahardja
"The rise of large language models (LLMs) has advanced information retrieval, but issues like limited knowledge updating, lack of openness, and hallucinations persist. Retrieval-Augmented Generation (RAG) addresses these, though it lacks interpretability due to reliance on vector-based representations. Our research presents a RAG framework using a knowledge graph (KG) as the primary knowledge base, with only open-source components to allow for user customization. The main pipeline consists of entity linking, retrieval using verbalized sentences or SPARQL query generation, and answer generation, integrated with ontology (properties and classes) retrieval via a vector database. The pipeline is tested on Wikidata, DBpedia, and a local domain-specific KG, achieving accuracies of 0.458, 0.517, and 0.805, respectively. An ablation study further reveals that ontology retrieval is the most critical component in providing context to the LLM for generating accurate SPARQL queries.

Munculnya large language models (LLMs) telah memajukan bidang information retrieval, tetapi masalah seperti keterbatasan pembaruan pengetahuan, kurangnya keterbukaan, dan halusinasi masih ada. Retrieval-Augmented Generation (RAG) membantu mengatasi beberapa tantangan ini tetapi memiliki keterbatasan dalam interpretabilitas karena bergantung pada representasi berbasis vektor. Penelitian ini memperkenalkan sebuah kerangka kerja RAG yang menggunakan graf pengetahuan (KG) sebagai basis pengetahuan utama, dengan hanya menggunakan komponen open-source untuk memungkinkan kustomisasi pengguna. Pipeline utama terdiri dari penghubungan entitas, retrieval menggunakan kalimat hasil verbalisasi atau pembuatan kueri SPARQL, dan pembangkitan jawaban, yang terintegrasi dengan retrieval ontologi (properti dan kelas) melalui basis data vektor. Kerangka kerja ini diuji pada Wikidata, DBpedia, dan KG dengan domain spesifik lokal, dengan akurasi masing-masing 0,458, 0,517, dan 0,805. Studi ablasi lebih lanjut mengungkapkan bahwa retrieval ontologi adalah komponen yang paling utama dalam memberikan konteks kepada LLM untuk bisa membangkitkan kueri SPARQL yang akurat."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2025
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Fikri Aufaa Zain
"Dalam beberapa tahun terakhir, teknologi chatbot telah berkembang secara signifikan, dengan munculnya Large Language Model (LLM) seperti GPT dari OpenAI, Llama dari Meta, dan Gemini dari Google. Penelitian ini mengeksplorasi penerapan chatbot berbasis LLM dalam dunia medis, khususnya untuk membantu dan memantau pasien hemodialisis. Menggunakan kerangka kerja seperti LangChain untuk melakukan prompt engineering, Retrieval Augmented Generation (RAG) untuk meningkatkan pengetahuan domain, dan Chroma sebagai vector database, platform chatbot berbasis web dikembangkan. Pendekatan ReAct dan chain-of-thought (CoT) diterapkan untuk membuat sistem berbasis agen. Evaluasi kuantitatif dari penelitian ini akan menggunakan ROUGE, BLEU, dan SAS untuk sistem chatbot, dan MAP@3, dan MRR@3 digunakan untuk sistem RAG, bersama dengan penilaian kualitatif oleh ahli di bidang hemodialisis. Secara keseluruhan, evaluasi kualitatif dan kuantitatif untuk setiap sistem menerima umpan balik positif berdasarkan penilaian ahli dan hasil dari setiap metrik, yang menunjukkan bahwa kedua sistem berkinerja baik dalam menghasilkan tanggapan yang selaras dengan tujuan penelitian ini, yaitu memberikan tanggapan yang akurat dan membantu dalam memantau pasien. Dari sisi sistem, kemampuan chatbot dan sistem RAG dalam memahami konteks percakapan dan memberikan tanggapan yang lebih relevan dan informatif, menggunakan pendekatan berbasis agen yang ditingkatkan oleh RAG, memberikan keuntungan yang signifikan. Prompt yang kami gunakan, ReAct dan CoT, memungkinkan agen berbasis LLM untuk berpikir lebih efektif, membuat keputusan yang tepat, dan mensimulasikan proses berpikir yang lebih terstruktur dan logis. Dengan memanfaatkan peningkatan ini, chatbot juga dapat menghasilkan pesan urgensi medis untuk memperingatkan tim medis yang terhubung ke platform. Hal ini memungkinkan mereka untuk merespons keadaan darurat ketika pasien melaporkan gejala yang membutuhkan perawatan lebih lanjut di rumah sakit. Penelitian ini telah menunjukkan bahwa LLM dapat digunakan secara efektif sebagai chatbot di bidang kesehatan, khususnya untuk memantau pasien hemodialisis.

In recent years, chatbot technology has advanced significantly, with the rise of Large Language Models (LLMs) such as OpenAI’s GPT, Meta’s Llama, and Google’s Gemini. This research explores the application of LLM-based chatbots in healthcare, specifically for assisting and monitoring hemodialysis patients. Using frameworks like LangChain for prompt engineering, Retrieval Augmented Generation (RAG) for enhanced domain knowledge, and Chroma as a vector database, a web-based chatbot platform was developed. The ReAct and chain-of-thought (CoT) approaches were applied to create an agent-based system. The quantitative evaluation of this research will use ROUGE, BLEU, and SAS for the chatbot system, and MAP@3, and MRR@3 were used for the RAG systems, along with qualitative expert assessments. Overall, the qualitative and quantitative evaluations for each system received positive feedback based on expert judgment and the results of each metrics, indicating that both systems performed well in generating responses aligned with the goals of this research, which are to provide accurate responses and assist in monitoring patients. On the system side, the chatbot and RAG system’s ability to understand conversational context and provide more relevant and informative responses, using agent-based approaches enhanced by RAG, offers a clear advantage. The prompts we are using, ReAct and CoT, enable the agent-based LLM to think more effectively, make appropriate decisions, and simulate a more structured and logical thought process. By utilizing these enhancements, the chatbot can also generate medical urgency message to alert medical teams connected to the platform. This allows them to respond to emergencies when patients report symptoms that require further care at a hospital. This research has demonstrated that LLMs can be effectively utilized as chatbots in the healthcare field, specifically for monitoring hemodialysis patients."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Adhin Abdallah Muhammad Sidik
"Dalam beberapa tahun terakhir, teknologi chatbot telah berkembang secara signifikan, dengan munculnya Large Language Model (LLM) seperti GPT dari OpenAI, Llama dari Meta, dan Gemini dari Google. Penelitian ini mengeksplorasi penerapan chatbot berbasis LLM dalam dunia medis, khususnya untuk membantu dan memantau pasien hemodialisis. Menggunakan kerangka kerja seperti LangChain untuk melakukan prompt engineering, Retrieval Augmented Generation (RAG) untuk meningkatkan pengetahuan domain, dan Chroma sebagai vector database, platform chatbot berbasis web dikembangkan. Pendekatan ReAct dan chain-of-thought (CoT) diterapkan untuk membuat sistem berbasis agen. Evaluasi kuantitatif dari penelitian ini akan menggunakan ROUGE, BLEU, dan SAS untuk sistem chatbot, dan MAP@3, dan MRR@3 digunakan untuk sistem RAG, bersama dengan penilaian kualitatif oleh ahli di bidang hemodialisis. Secara keseluruhan, evaluasi kualitatif dan kuantitatif untuk setiap sistem menerima umpan balik positif berdasarkan penilaian ahli dan hasil dari setiap metrik, yang menunjukkan bahwa kedua sistem berkinerja baik dalam menghasilkan tanggapan yang selaras dengan tujuan penelitian ini, yaitu memberikan tanggapan yang akurat dan membantu dalam memantau pasien. Dari sisi sistem, kemampuan chatbot dan sistem RAG dalam memahami konteks percakapan dan memberikan tanggapan yang lebih relevan dan informatif, menggunakan pendekatan berbasis agen yang ditingkatkan oleh RAG, memberikan keuntungan yang signifikan. Prompt yang kami gunakan, ReAct dan CoT, memungkinkan agen berbasis LLM untuk berpikir lebih efektif, membuat keputusan yang tepat, dan mensimulasikan proses berpikir yang lebih terstruktur dan logis. Dengan memanfaatkan peningkatan ini, chatbot juga dapat menghasilkan pesan urgensi medis untuk memperingatkan tim medis yang terhubung ke platform. Hal ini memungkinkan mereka untuk merespons keadaan darurat ketika pasien melaporkan gejala yang membutuhkan perawatan lebih lanjut di rumah sakit. Penelitian ini telah menunjukkan bahwa LLM dapat digunakan secara efektif sebagai chatbot di bidang kesehatan, khususnya untuk memantau pasien hemodialisis.

In recent years, chatbot technology has advanced significantly, with the rise of Large Language Models (LLMs) such as OpenAI’s GPT, Meta’s Llama, and Google’s Gemini. This research explores the application of LLM-based chatbots in healthcare, specifically for assisting and monitoring hemodialysis patients. Using frameworks like LangChain for prompt engineering, Retrieval Augmented Generation (RAG) for enhanced domain knowledge, and Chroma as a vector database, a web-based chatbot platform was developed. The ReAct and chain-of-thought (CoT) approaches were applied to create an agent-based system. The quantitative evaluation of this research will use ROUGE, BLEU, and SAS for the chatbot system, and MAP@3, and MRR@3 were used for the RAG systems, along with qualitative expert assessments. Overall, the qualitative and quantitative evaluations for each system received positive feedback based on expert judgment and the results of each metrics, indicating that both systems performed well in generating responses aligned with the goals of this research, which are to provide accurate responses and assist in monitoring patients. On the system side, the chatbot and RAG system’s ability to understand conversational context and provide more relevant and informative responses, using agent-based approaches enhanced by RAG, offers a clear advantage. The prompts we are using, ReAct and CoT, enable the agent-based LLM to think more effectively, make appropriate decisions, and simulate a more structured and logical thought process. By utilizing these enhancements, the chatbot can also generate medical urgency message to alert medical teams connected to the platform. This allows them to respond to emergencies when patients report symptoms that require further care at a hospital. This research has demonstrated that LLMs can be effectively utilized as chatbots in the healthcare field, specifically for monitoring hemodialysis patients."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Uttsada Jason
"Academic consultation is a crucial part of students’ university journey. As the curriculum evolves, there is a growing need for a chatbot application to assist in this process. This development aims to enhance the effectiveness and efficiency of academic consultations. However, due to the nature of large language models (LLMs), which may generate ”hallucinations,” and the application of Retrieval-Augmented Generation (RAG) techniques in chatbot development, our chatbot will adopt this approach. In RAG-based chatbot development, any corpus can be used to obtain context for generation. In this research, the corpora utilized include a vector database and a knowledge graph database. This study focuses on improving performance in terms of answer relevance to questions within the academic consultation context, while also considering response time. Three architectures are tested in our chatbot, such as Hierarchical Tree Retrieval and Graph-Augmented Retrieval which is a vector-based retrieval, as well as Knowledge Graph Retrieval, to answer prerequisite-related questions that are particularly challenging for Collapsed Vector Retrieval. The final chatbot model is integrated into an application deployed on-premises at the Center for Computer Science (Pusilkom) of the Faculty of Computer Science, University of Indonesia. The best retrieval architecture in vector-based retrieval is the Graph-Augmented Retrieval which combines the advantage of vector-based chatbot and the ability to recognize prerequisite information, shown by the relatively high mAP of 0.744 and hit rate of 0.904 that outperforms other vector architectures. Additionally, the Knowledge Graph Retrieval improved the answer relevance significantly in answering prerequisite-related questions, shown by 100% answer accuracy improvement in prerequisite-related questions compared to the base model. Finally, among the models tested, Knowledge Graph Retrieval achieves the highest answer accuracy. However, the Graph-Augmented Retrieval model is considered to be the best for an on-premises chatbot, providing 76% answer accuracy and an average response time of 8.49 seconds. This represents a 6.5 seconds reduction in the response time compared to the Knowledge Graph Retrieval model. All of our chatbot models have been successfully deployed on the specified server and are utilizing all GPU resources optimally. However, the chatbot application is not able to provide an acceptable user experience utilizing the computing resource in the specified server when there are multiple concurrent users (more than one).

Konsultasi akademik merupakan bagian penting dari perjalanan universitas mahasiswa. Seiring dengan evolusi kurikulum, ada kebutuhan yang semakin besar untuk aplikasi chatbot yang dapat membantu dalam proses ini. Pengembangan ini bertujuan untuk meningkatkan efektivitas dan efisiensi konsultasi akademik. Namun, karena sifat dari large language models (LLMs), yang dapat menghasilkan "hallucinations," dan penerapan teknik Retrieval-Augmented Generation (RAG) dalam pengembangan chatbot, chatbot kami akan mengadopsi pendekatan ini. Dalam pengembangan chatbot berbasis RAG, corpus apa pun dapat digunakan untuk memperoleh konteks untuk generasi. Dalam penelitian ini, corpus yang digunakan meliputi database vektor dan database knowledge graph. Studi ini berfokus pada peningkatan kinerja dalam hal relevansi jawaban terhadap pertanyaan dalam konteks konsultasi akademik, sambil juga mempertimbangkan waktu respons. Tiga arsitektur diuji dalam chatbot kami, seperti Hierarchical Tree Retrieval dan Graph-Augmented Retrieval yang merupakan retrieval berbasis vektor, serta Knowledge Graph Retrieval, untuk menjawab pertanyaan terkait prasyarat yang sangat menantang bagi Collapsed Vector Retrieval. Model chatbot akhir diintegrasikan ke dalam aplikasi yang diterapkan di server lokal di Center for Computer Science (Pusilkom) Fakultas Ilmu Komputer, Universitas Indonesia. Arsitektur retrieval terbaik dalam retrieval berbasis vektor adalah Graph-Augmented Retrieval yang menggabungkan keuntungan chatbot berbasis vektor dan kemampuan untuk mengenali informasi prasyarat, yang ditunjukkan oleh mAP yang relatif tinggi yaitu 0,744 dan hit rate 0,904 yang mengungguli arsitektur vektor lainnya. Selain itu, Knowledge Graph Retrieval meningkatkan relevansi jawaban secara signifikan dalam menjawab pertanyaan terkait prasyarat, yang ditunjukkan dengan peningkatan akurasi jawaban sebesar 100% pada pertanyaan terkait prasyarat dibandingkan dengan model dasar. Akhirnya, di antara model yang diuji, Knowledge Graph Retrieval mencapai akurasi jawaban tertinggi. Namun, model Graph-Augmented Retrieval dianggap sebagai yang terbaik untuk chatbot lokal, dengan memberikan akurasi jawaban sebesar 76% dan waktu respons rata-rata 8,49 detik. Ini menunjukkan pengurangan waktu respons sebesar 6,5 detik dibandingkan dengan model Knowledge Graph Retrieval. Semua model chatbot kami telah berhasil diterapkan di server yang ditentukan dan memanfaatkan semua sumber daya GPU secara optimal. Namun, aplikasi chatbot ini tidak dapat memberikan pengalaman pengguna yang dapat diterima dengan memanfaatkan sumber daya komputasi di server yang ditentukan ketika ada banyak pengguna yang berjalan bersamaan (lebih dari satu)."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2025
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Daniel Christian Mandolang
"Academic consultation is a crucial part of students’ university journey. As the curriculum evolves, there is a growing need for a chatbot application to assist in this process. This development aims to enhance the effectiveness and efficiency of academic consultations. However, due to the nature of large language models (LLMs), which may generate ”hallucinations,” and the application of Retrieval-Augmented Generation (RAG) techniques in chatbot development, our chatbot will adopt this approach. In RAG-based chatbot development, any corpus can be used to obtain context for generation. In this research, the corpora utilized include a vector database and a knowledge graph database. This study focuses on improving performance in terms of answer relevance to questions within the academic consultation context, while also considering response time. Three architectures are tested in our chatbot, such as Hierarchical Tree Retrieval and Graph-Augmented Retrieval which is a vector-based retrieval, as well as Knowledge Graph Retrieval, to answer prerequisite-related questions that are particularly challenging for Collapsed Vector Retrieval. The final chatbot model is integrated into an application deployed on-premises at the Center for Computer Science (Pusilkom) of the Faculty of Computer Science, University of Indonesia. The best retrieval architecture in vector-based retrieval is the Graph-Augmented Retrieval which combines the advantage of vector-based chatbot and the ability to recognize prerequisite information, shown by the relatively high mAP of 0.744 and hit rate of 0.904 that outperforms other vector architectures. Additionally, the Knowledge Graph Retrieval improved the answer relevance significantly in answering prerequisite-related questions, shown by 100% answer accuracy improvement in prerequisite-related questions compared to the base model. Finally, among the models tested, Knowledge Graph Retrieval achieves the highest answer accuracy. However, the Graph-Augmented Retrieval model is considered to be the best for an on-premises chatbot, providing 76% answer accuracy and an average response time of 8.49 seconds. This represents a 6.5 seconds reduction in the response time compared to the Knowledge Graph Retrieval model. All of our chatbot models have been successfully deployed on the specified server and are utilizing all GPU resources optimally. However, the chatbot application is not able to provide an acceptable user experience utilizing the computing resource in the specified server when there are multiple concurrent users (more than one).

Konsultasi akademik merupakan bagian penting dari perjalanan universitas mahasiswa. Seiring dengan evolusi kurikulum, ada kebutuhan yang semakin besar untuk aplikasi chatbot yang dapat membantu dalam proses ini. Pengembangan ini bertujuan untuk meningkatkan efektivitas dan efisiensi konsultasi akademik. Namun, karena sifat dari large language models (LLMs), yang dapat menghasilkan "hallucinations," dan penerapan teknik Retrieval-Augmented Generation (RAG) dalam pengembangan chatbot, chatbot kami akan mengadopsi pendekatan ini. Dalam pengembangan chatbot berbasis RAG, corpus apa pun dapat digunakan untuk memperoleh konteks untuk generasi. Dalam penelitian ini, corpus yang digunakan meliputi database vektor dan database knowledge graph. Studi ini berfokus pada peningkatan kinerja dalam hal relevansi jawaban terhadap pertanyaan dalam konteks konsultasi akademik, sambil juga mempertimbangkan waktu respons. Tiga arsitektur diuji dalam chatbot kami, seperti Hierarchical Tree Retrieval dan Graph-Augmented Retrieval yang merupakan retrieval berbasis vektor, serta Knowledge Graph Retrieval, untuk menjawab pertanyaan terkait prasyarat yang sangat menantang bagi Collapsed Vector Retrieval. Model chatbot akhir diintegrasikan ke dalam aplikasi yang diterapkan di server lokal di Center for Computer Science (Pusilkom) Fakultas Ilmu Komputer, Universitas Indonesia. Arsitektur retrieval terbaik dalam retrieval berbasis vektor adalah Graph-Augmented Retrieval yang menggabungkan keuntungan chatbot berbasis vektor dan kemampuan untuk mengenali informasi prasyarat, yang ditunjukkan oleh mAP yang relatif tinggi yaitu 0,744 dan hit rate 0,904 yang mengungguli arsitektur vektor lainnya. Selain itu, Knowledge Graph Retrieval meningkatkan relevansi jawaban secara signifikan dalam menjawab pertanyaan terkait prasyarat, yang ditunjukkan dengan peningkatan akurasi jawaban sebesar 100% pada pertanyaan terkait prasyarat dibandingkan dengan model dasar. Akhirnya, di antara model yang diuji, Knowledge Graph Retrieval mencapai akurasi jawaban tertinggi. Namun, model Graph-Augmented Retrieval dianggap sebagai yang terbaik untuk chatbot lokal, dengan memberikan akurasi jawaban sebesar 76% dan waktu respons rata-rata 8,49 detik. Ini menunjukkan pengurangan waktu respons sebesar 6,5 detik dibandingkan dengan model Knowledge Graph Retrieval. Semua model chatbot kami telah berhasil diterapkan di server yang ditentukan dan memanfaatkan semua sumber daya GPU secara optimal. Namun, aplikasi chatbot ini tidak dapat memberikan pengalaman pengguna yang dapat diterima dengan memanfaatkan sumber daya komputasi di server yang ditentukan ketika ada banyak pengguna yang berjalan bersamaan (lebih dari satu)."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2025
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
David Alexander
"Data discovery is a problem where analysts spend more time looking for relevant data than analyzing it. To address this issue, solutions such as Aurum and Ver have been created to capture relationships between multiple data sources. However, these solutions only look at the data and do not capture any context humans might have in mind when producing or consuming data. To solve the issue of extracting and storing information from users, two problems need to be solved: getting data creators to document their data and creating a solution for storing and retrieving relevant content regarding a user query about data. This paper focuses on the second part of the problem, where a system to store and retrieve relevant content about data is created, which will be created as a retrieval-augmented generation (RAG) system. A retrieval module is created using a vector store index where documents are turned into vector embedding. When a query comes, the same model is used to turn the query into a vector embedding. The similarity of query and document embedding are compared and the top-$k$ most similar document to the query is returned. Multiple embedding models are chosen and evaluated based on index-building times, hit rate, mean reciprocal rank (MRR), and query times. Smaller, retrieval-focused, and correctly languaged models like `bge-small-en-v1.5` are recommended for efficient index-building and query performance while offering competitive hit rates and MRR scores. Larger models do not necessarily offer better retrieval quality. Using a multilingual model in a case where only one language is needed produces bad results, making model specialization crucial for optimizing performance.

Data discovery adalah masalah di mana analis menghabiskan lebih banyak waktu untuk mencari data yang relevan daripada menganalisisnya. Untuk mengatasi masalah ini, solusi seperti Aurum dan Ver telah dibuat untuk menangkap hubungan antara berbagai sumber data. Namun, solusi ini hanya melihat data dan tidak menangkap konteks yang mungkin dimiliki manusia saat memproduksi atau mengonsumsi data. Untuk menyelesaikan masalah ekstraksi dan penyimpanan informasi dari pengguna, dua masalah perlu diselesaikan: membuat pembuat data mendokumentasikan data dan menciptakan solusi untuk menyimpan dan mengambil konten yang relevan terkait dengan pertanyaan pengguna tentang data. Makalah ini berfokus pada bagian kedua dari masalah tersebut, yaitu menciptakan sistem untuk menyimpan dan mengambil konten yang relevan tentang data, yang akan dibuat sebagai sistem retrieval-augmented generation (RAG). Modul retrieval dibuat menggunakan indeks penyimpanan vektor di mana dokumen diubah menjadi embedding vektor. Ketika sebuah pertanyaan datang, model yang sama digunakan untuk mengubah pertanyaan menjadi embedding vektor. Kesamaan antara embedding pertanyaan dan dokumen dibandingkan dan dokumen paling mirip ter-k dengan pertanyaan dikembalikan. Beberapa model embedding dipilih dan dievaluasi berdasarkan waktu pembuatan indeks, hit rate, mean reciprocal rank (MRR), dan waktu pengambilan data. Model yang lebih kecil, berfokus pada pengambilan, dan berbahasa yang benar seperti bge-small-en-v1.5 direkomendasikan untuk pembuatan indeks dan kinerja pertanyaan yang efisien sambil menawarkan hit rate dan skor MRR yang kompetitif. Model yang lebih besar tidak selalu menawarkan kualitas pengambilan yang lebih baik. Menggunakan model multibahasa dalam kasus di mana hanya satu bahasa yang dibutuhkan menghasilkan hasil yang buruk, membuat spesialisasi model sangat penting untuk mengoptimalkan kinerja."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Muhammad Imam Luthfi Balaka
"Pneuma is a data discovery system developed to address the limitations of current dataset retrieval methods. It leverages Retrieval-Augmented Generation (RAG) to store and retrieve metadata and dataset summaries. Metadata provides basic dataset information, while summaries include column names and row values. To optimize RAG components, an appropriate benchmark is needed. This work introduces a metadata-based benchmark consisting of triples (T, Q, A), where T is a dataset, Q is a metadata-related question, and A is the corresponding answer based on T. The datasets and questions come from existing sources, while answers are generated and evaluated using two Large Language Models (LLMs): LLM Generator and LLM Evaluator. Experiments identify the best model and strategy, yielding the optimal combination of OpenHermes-2.5-Mistral-7B with a role-play prompt and greedy search decoding. This combination is used to tune Pneuma’s RAG module.

Pneuma adalah sistem pencarian data yang dikembangkan untuk mengatasi keterbatasan sistem pencarian dataset saat ini. Sistem ini menggunakan mekanisme Retrieval-Augmented Generation (RAG) untuk menyimpan dan mengambil informasi, termasuk metadata dan ringkasan dataset. Metadata menjelaskan informasi dasar dataset, sedangkan ringkasan dataset mencakup nama kolom dan nilai baris. Untuk memilih dan menyetel komponen RAG, diperlukan tolok ukur yang sesuai. Skripsi ini mengembangkan tolok ukur berbasis metadata dalam bentuk tripel (T, Q, A), dengan T sebagai dataset, Q sebagai pertanyaan metadata, dan A sebagai jawaban berdasarkan T. Dataset dan pertanyaan diperoleh dari sumber yang ada, sementara jawaban dihasilkan dan dievaluasi menggunakan dua Large Language Models (LLM), yaitu LLM Generator dan LLM Evaluator. Eksperimen dilakukan untuk memilih model dan strategi terbaik, menghasilkan kombinasi optimal OpenHermes-2.5-Mistral-7B dengan prompt role-play, serta strategi dekoding greedy search. Kombinasi ini digunakan untuk menyetel modul RAG pada Pneuma.
"
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2025
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library