Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 158300 dokumen yang sesuai dengan query
cover
Laskito Harmantyo
"Aplikasi information retrieval dalam wujud mesin pencari atau search engine sudah dikenal luas oleh pengguna internet. Informasi bisa didapatkan dengan melakukan pencocokan istilah dalam dokumen dengan istilah yang ingin dicari. Kata yang dimasukkan dalam query dicari kehadirannya dalam sejumlah dokumen. Pencocokan ini merupakan pencocokan secara harfiah atau yang dikenal dengan lexical matching. Metode pencocokan secara harfiah ini dapat memberikan hasil yang kurang akurat karena pencocokan harfiah hanya melihat kesamaan bentuk kata atau istilah saja tanpa melihat makna dan korelasi istilah tersebut. Latent Semantic Indexing (LSI) mengatasi masalah tersebut dengan menggunakan pendaftaran dan penyusunan istilah secara statistik. Struktur laten dituangkan dan digambarkan secara matematis dalam elemen-elemen matriks yang terukur. Teknik Singular Value Decomposition (SVD) digunakan untuk melakukan estimasi struktur penggunaan kata dalam dokumen-dokumen. SVD juga dipakai untuk meminimalisasi perhitungan dan meningkatkan performa information retrieval. Pembobotan pada dokumen dan query ditambahkan untuk meningkatkan performa relevansi perolehan dokumen. Implementasi LSI dengan SVD dilakukan secara web-based, dengan koleksi dokumen berupa judul dan abstrak dari sejumlah skripsi mahasiswa teknik elektro. Hasil ujicoba memberikan kesimpulan bahwa dari seluruh rangkaian proses perolehan informasi, 95% waktunya dihabiskan untuk kalkulasi SVD. Selain itu, pemakaian fitur klasifikasi dapat mempercepat proses sampai 64 kali waktu tanpa klasifikasi. Berbagai metode pembobotan juga terbukti memberikan hasil perolehan dokumen yang berbeda pada query yang sama, dengan tingkat relevansi yang berbeda. Berdasarkan perhitungan Non Interpolated Average Precision, skema pembobotan frekuensi kata untuk dokumen dan query merupakan skema yang paling baik dalam hal presisi.

Information retrieval in form like search engine has already known by a lot of internet users. Information can be obtained by doing terms matching. Terms in documents are matched dan compared by terms given by users in query. Such method like this known as lexical matching. This method can give inaccurate results because the mechanism is only matching and seeing the similarities of words without giving any concern of meaning or relevancy. Latent Semantic Indexing (LSI) try to compensate this problem by doing indexing and arranging terms in statistical manner. Latent structures are developed in mathematical way as values in matrices elements. Singular Value Decomposition (SVD) is used to estimating the structure of words in documents. In addition, SVD minimalize the matrices calculation and improves the performance of information retrieval application. Weighting scheme to documents and query added to improves the performance of relevancy retrieval. LSI with SVD implemented in web based way, with title and abstract from student of electrical engineering papers as document corpus. The experiment gives a fact that from all LSI process time, for about 95% is spent for SVD calculation. Classification feature of this application gives an acceleration up to 64 times of common process time (without classification). The number of user agent accessing the application gives a slow effect of processing time in linear manner. The great number of user, the longer process time. Various kind of weighting scheme makes a different documents retrieval result at the same queries. Calculation of Non-Interpolated Average Precision stated that word frequency weighting scheme for both document and query is the best in precision performance."
Depok: Fakultas Teknik Universitas Indonesia, 2007
S40368
UI - Skripsi Membership  Universitas Indonesia Library
cover
Suharto Anggono
"Sistem text retrieval (perolehan kembali teks) menanggapi query terhadap koleksi dokumen teks. Dua teknik yang telah diperkenalkan yang dapat digunakan pada text retrieval dan melibatkan penggunaan singular value decomposition (SVD, dekomposisi nilai singular) adalah variable Latent Semantic Indexing (VLSI) serta Latent Semantic Indexing (LSI), pendahulunya. Dokumen dapat dideskripsikan oleh kumpulan term, misalnya berupa kata. Dari dokumendokumen yang ada, dapat dibentuk matriks term-dokumen, A, yang berisi bobot term berdasarkan kemunculannya dalam dokumen. Pada VLSI, sebagaimana LSI, digunakan aproksimasi rank-rendah terhadap A untuk dicocokkan dengan vektor query. Namun, berbeda dengan LSI, aproksimasi pada VLSI tergantung pada distribusi probabilitas vektor query. Distribusi itu dicirikan oleh matriks cooccurrence, CQ. Aproksimasi untuk A itu bisa didapatkan melalui SVD terhadap CQ 1/2A. Telah dilakukan penelitian terhadap VLSI dengan mempelajari literatur, mengerjakan secara manual prosedur VLSI, dan melakukan percobaan penggunaan VLSI. Percobaan dilakukan dengan koleksi 100 dokumen yang pernah digunakan pada mata kuliah Pemrosesan Teks, koleksi 9 dokumen berupa judul technical memo, koleksi MED, dan koleksi CACM. Dari analisis, ditemukan bahwa yang dikalikan dengan A untuk kemudian di- SVD tidak harus CQ 1/2. Dari percobaan dengan koleksi MED dan koleksi CACM, ditemukan bahwa perolehan dokumen dengan VLSI bisa bagus dalam hal precision pada sedikit dokumen berperingkat teratas."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2007
T-Pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Adi Wahyu Pribadi
"Setiap dokumen pada koleksi menjelaskan suatu konsep berdasarkan topik yang dibahasnya Konsep tersebut didapat dengan teknik pengindeksan konseptual atau Latenl Semantic Indexing. Teknik tersebut mengakibatkan jumlah dokumen yang terambil lebih banyak karena adanya perluasan kueri (c/uery expansion) secara konseptual. Seiring berjalannya waktu, teijadi penambahan dokumen sehingga indeks menjadi tidak lengkap. Digunakan metode penambahan dokumen secara dinamis pada indeks konseptual yang ada dengan metode folding-in dan SVD- Update. Ujicoba dilakukan pada kumpulan hasil penelitian lembaga BATAN sebanyak 1162 abstrak dokumen. Berdasarkan ujicoba, pada model pengindeksan konseptual dokumen yang terambil lebih banyak yaitu rata-rata 12,63% dibandingkan dengan penggunaan pengindeksan biasa sebanyak 10,37%, Pada ujicoba penambahan dokumen, terjadi penurunan kinerja yang tidak signifikan yaitu 0,5% hingga 2% saja.

Each document in the collection describes a concept based on particular topics. The concept is obtained with the technique of conceptual or latent Semantic Indexing. The technique resulting in the number of documents fetched more because of the conceptual queiy expansion. Over time, Ihere was the addition of documents so that the indexes are not complete. Using Folding-in and SVD- Update to update the index of document collection conceptually. We use BATAN research collection of 1162 document abstracts. Based on testing, on the conceptual model of the document fetched more with the average of 12.63% compared with the normal indexing of 10.37%. On testing of adding documents, a decline of performance that is not significant, namely 0.5% to 2% only."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2009
T25887
UI - Tesis Open  Universitas Indonesia Library
cover
Norman Indradi Wirahardja
"LSI (Latent Semantic Indexing) adalah suatu metode yang digunakan dalam information retrieval. Menurut penelitian, LSI ini merupakan metode yang paling baik dalam mencari informasi seperti teks. Akan tetapi LSI kurang baik dalam melakukan pengelompokan dokumen. Dokumen-dokumen yang akan diproses harus dikelompokan terlebih dahulu supaya proses LSI lebih efektif. Pada skripsi ini dianalisis sebuah metode baru dalam melakukan information retrieval, yaitu Local Weighted Relevancy LSI. (LWR-LSI). Metode ini menambahkan proses pembobotan (weighting) pada metode lokal LSI. Jadi, setelah dikelompokkan, dokumen-dokumen yang relevan akan dibobotkan. Pembobotan yang dilakukan terhadap dokumen pun bermacam-macam. Dengan adanya pembobotan ini, dokumen dapat diurutkan sesuai dengan tingkat relevansi dokumen tersebut dengan kata kunci pada query. Semakin relevan, maka ranking dokumen tersebut semakin tinggi. Aplikasi information retrieval yang dibuat ini merupakan aplikasi web-based dengan menggunakan bahasa pemrograman PHP. Kemudian, kinerja dari metode LWR-LSI pada aplikasi ini pun akan dianalisa. Analisis kinerja ini dilakukan berdasarkan waktu yang diperlukan untuk menyelesaikan proses information retrieval pada saat diletakkan dalam sistem localhost dan website di internet. Beragamnya data yang diperoleh disebabkan oleh beberapa faktor, antara lain faktor query yang dimasukkan oleh user, faktor digunakan atau tidaknya klasifikasi, faktor batas relevansi dari dokumen yang ingin ditampilkan, dan faktor pembobotan yang digunakan. Berdasarkan analisa yang dilakukan dapat disimpulkan bahwa metode LWRLSI ini lebih baik dari metode LSI biasa dalam aplikasi information retrieval. Kesimpulan tersebut diambil berdasarkan waktu yang dibutuhkan untuk menyelesaikan seluruh proses dan ketepatan yang dihasilkan. Metode LWR-LSI dapat mengurangi waktu yang diperlukan untuk menyelesaikan proses sampai 1,721% dari metode LSI biasa.

LSI (Latent Semantic Indexing) is known as one of the method that used in an information retrieval. According to the research, LSI is the best method for retrieving information like documents. But, LSI is not good enough to classify the documents. Before those documents are being processed, they have to be classified first. So, in this paper, the author use the new method, known as Local Weighted Relevancy LSI (LWR-LSI) for retrieving information. This method add a weighting process in the local LSI. So, after being classified, the relevant documents will be weighted. The process is using diffrent formulas. The result, the documents can be ranked with the relevancy to the user query. More relevant the document, higher the rank it will get. The information retrieval aplication is an web-based aplication with PHP script. Then the performance of the method in this aplication will be analized. Analizing the performance is based on the time that needed to finish the whole process in the localhost system and the internet network (website). The various ricieved data is caused by some factors, like user query factor, classification factor, relevancy limit factor, and weighting factor. After analizing the data, can be concluded that the LWR-LSI method in the information retrieval aplication is better than the former LSI method. This conclusion is based on the speed of the process and the accuracy of the result. The new method can decrease 1,721% the needed time if it is compared to the old method."
Depok: Fakultas Teknik Universitas Indonesia, 2007
S40371
UI - Skripsi Membership  Universitas Indonesia Library
cover
Pratama Amirullisan
"Kebutuhan terhadap Internet sudah sangat dirasakan, namun, akibat kurangnya kontrol dalam mengawasi kegiatan berselancar di dunia maya ini, menjadikan konten yang dapat merusak moral tersebar dengan sangat cepat dan begitu leluasa untuk diakses oleh setiap orang.
Penelitian ini membahas Analisa dan Rancang Bangun Sistem Deteksi Cepat Konten Web Negatif Berbasis Teks Menggunakan Random Sampling dan Latent Semantic Analysis dengan Algoritma Singular Value Decomposition yang bertujuan untuk mengklasifikasikan website-website berkonten negatif dengan langkah awal melakukan penelusuran terhadap link-link pada suatu website dengan teknik crawling oleh program web crawler untuk mengumpulkan konten website yang berupa teks. Seluruh konten teks yang telah dikumpulkan selanjutnya akan diklasifikasikan menggunakan metode Latent Semantic Analysis dengan menerapkan algoritma Singular Value Decomposition untuk menunjukkan hasil klasifikasi yang mampu membedakan antara website berkonten negatif dengan konten non-negatif. Pengujian dilakukan dengan menggunakan metode full sampling dan random sampling untuk menentukan cara pendeteksian website berkonten negatif yang lebih cepat.
Hasil pengujian pada penelitian ini menunjukkan bahwa metode Latent Semantic Analysis dengan algoritma Singular Value Decomposition berhasil mengklasifikasikan website berkonten negatif dengan batas persentase hasil klasifikasi sebesar 70% sebagai indikatornya, dan metode random sampling dengan pengambilan sample hanya 30% dari total telah berhasil meningkatkan kecepatan eksekusi program rata-rata sebesar 507.01%, dengan penurunan akurasi rata-rata hanya sebesar 27.19% dibandingkan dengan metode full sampling untuk website berkonten negatif.

The need of the Internet has been keenly felt, however, due to a lack of control in monitoring the activities of surfing in this virtual world, making contents that will damage the morale spread very quickly and so freely accessible to everyone.
This study discusses the Analysis and Design of Quick Detection System to Text-Based Negative Web Content Using Random Sampling and Latent Semantic Analysis with Singular Value Decomposition Algorithm which aims to classify negative content websites with the first step is to perform a search for links in a website using crawling technique by a web crawler program to gather website content in the text form. The entire text-based contents that have been collected will then be classified using Latent Semantic Analysis method by applying Singular Value Decomposition algorithm to show the result of classification that is able to distinguish the negative content and non-negative content website. The testing is performed using full sampling and random sampling method to determine which one is faster in doing the detection of negative content website.
The results of this study showed that Latent Semantic Analysis method with Singular Value Decomposition algorithm successfully classifies the negative content websites with the percentage of classification result by 70% as the indicator, and the random sampling method with only 30% of total samples has been successful in increasing the speed of program execution by an average of 507.01%, with decreasing accuracy by an average of only 27.19% compared to full sampling method for negative content websites.
"
Depok: Fakultas Teknik Universitas Indonesia, 2016
S66330
UI - Skripsi Membership  Universitas Indonesia Library
cover
Boma Anantasatya Adhi
"SIMPLE-O merupakan sistem penilaian esaiotomatis berbasis latent semantic analysis (LSA) yang bergantungpada Java Matrix untuk melakukan perhitungan singular value decomposition (SVD) dalam melakukan penilaian. Pada skripsi ini akan dibahas mengenai implementasi proses SVD pada platform general purposes graphic processing unit (GPGPU)pada SIMPLE-O yang lebih cepat daripada algoritma sekuensial biasa yang ada pada JAMA.GPGPU merupakan suatu platform komputasi paralel performa tinggi yang berbasiskan Graphic Processing Unit komersial biasa.
Implementasi akan dilakukan dengan cara memindahkan proses eksekusi SVD pada SIMPLE-O ke modul eksternal yang ditulis dalam bahasa Cdengan Application Programming Interface (API) untuk GPGPU seperti CUDA, CULA tools, danOpenCL. Performa diukur dengan peningkatan kecepatan waktu kalkulasi SVD dan jumlah kalkulasi yang dapat dilakukan setiap detiknya. Implementasi GPGPU meningkatkan performa pada matriks ukuran 512x512 berkisar antara lebih dari 200 kali lipat (CULA tools) hingga 4200 kali lipat (OpenCL).

Simple-O is an automated essay grading system based on latent semantic analysis (LSA) which depends on Java Matrix (JAMA) for singular value decomposition (SVD) calculation.This paper will present an implementation of SVD calculation on General Purpose Graphic Processing Unit (GPGPU) platformin SIMPLE-O, which is essentially faster and more efficient than standard sequential algorithm found in JAMA. GPGPU is a high performance parallel computing platform based on commercially available 3D Graphic Processing Unit.
Implementation will be done by altering the SVD execution unit to pipe an external module written in C with GPGPU Application Programming Interface (API) such as CUDA, CULA tools and OpenCL. Performance will be measured in terms of SVD calculation time improvements and numbers of calculation per second. Over 200 times (CULA tools) up to 4200 times (OpenCL) performance gain were measured in 512 x 512 matrix.
"
Depok: Fakultas Teknik Universitas Indonesia, 2010
S51220
UI - Skripsi Open  Universitas Indonesia Library
cover
Boma Anantasatya Adhi
"SIMPLE-O merupakan sistem penilaian esai otomatis berbasis LSA. Tesis ini membahas tentang rancang bangun arsitektur parallel yang mungkin diaplikasikan pada SIMPLE-O. Paralelisasi SIMPLE-O akan dilakukan dalam 2 tingkat, tingkat pertama dengan membuat cluster yang hemat energi, dan tingkat kedua adalah paralelisasi algoritma SVD. Paralelisasi algoritma SVD akan dilakukan pada 3 platform, yaitu: GPGPU, APU, CPU, dan dengan 3 jenis algoritma, algoritma numerik Golub-Kahan-Reinsch, algoritma eksak Hestenes-Jacobi dan prediksi nilai singular berbasis norm. Algoritma pendekatan berbasis norm pada platform GPU mampu meningkatkan kecepatan 5.8 kali lipat dari sistem awal dengan mempertahankan korelasi hasil penilaian hingga 0.928.

SIMPLE-O is an LSA based automatic essay grader. This tesis proposes several parallel computing architecture for SIMPLE-O. SIMPLE-O parallelization will be done in 2 level. First level is done by building a low power cluster and the second level is at the SVD algorithm level. Parallel SVD architecture will be implemented in 3 platform: GPGPU, APU, CPU with 3 algorithm, numeric based Golub-Kahan-Reinsch, Hestenes-Jacobi exact algorithm and singular value prediction based on norm. The proposed algorithm, Norm Based Approximation gains up to 5.8 times calculation speed of the original system while maintaining 0.928 correlation against reference algorithm."
Depok: Fakultas Teknik Universitas Indonesia, 2013
T34975
UI - Tesis Membership  Universitas Indonesia Library
cover
Siringoringo, Reinhard Panuturi
"Kebutuhan akan pengujian dengan sistem esai semakin meningkat karena memungkinkan pengolahan pendapat dari dua pihak, yang di uji dan penguji. Namun proses pemeriksaan esai merupakan satu proses yang banyak menyita dana, tenaga, dan waktu. Karena itu, diperlukan sistem otomatis yang dapat memberikan penilaian esai.
Simple-O merupakan sistem penilaian esai otomatis yang dikembangkan di Departemen Teknik Elektro Universitas Indonesia. Tujuan dikembangkannya sistem ini adalah untuk membantu dosen dalam melakukan penilaian terhadap ujian yang telah dilakukan oleh mahasiswa.
Sejak dikembangkan pada tahun 2007, Simple-O telah mengalami beberapa perbaikan, baik dari sisi penilaian maupun penyiapan jawaban masukan. Simple-O berbasis Generalized Latent Semantic Analysis (GLSA) dengan menggunakan Hybrid Document Indexing dikembangkan sebagai salah satu perbaikan di sisi penilaian demi meningkatkan korelasi hasil penilaian Simple-O dengan hasil penilaian dosen.
Hasil penelitian penulis menunjukkan hasil terbaik didapat dengan menggunakan kata non-benda dan benda sebagai jawaban referensi dengan concatenate horizontal yang diaplikasikan ke gabungan matriks representasi kata benda dan matriks representasi kata non-benda.

The need for essay based test is increasing because it allows the utilization of both teacher's and student's answer. But the essay examination process is a process that takes up a lot of funds, manpower, and time. Therefore, we need an automatic system that can provide essay examination process.
Simple-O is an Automated Essay Grading (AEG) system developed on Department of Electrical Engineering, University of Indonesia. The purpose of this system development is to assist faculty in assessing the test has been done by the student.
Since its development in 2007, Simple-O has undergone several improvements, both in terms of assessment and preparation of input answers. Simple-O Based On Generalized Latent Semantic Analysis (GLSA) With Hybrid Document Indexing developed as one of the improvements in the assessment in order to enhance the correlation between Simple-O assessment results and faculty assessment results.
The results of the study conducted by the author showed that the best results obtained by using the combination between non-nouns and nouns as reference answer, with horizontal concatenate applied to the combination of nouns representation matrix and non-nouns representation matrix.
"
Depok: Fakultas Teknik Universitas Indonesia, 2013
S53109
UI - Skripsi Membership  Universitas Indonesia Library
cover
Dudi Hermawandi
"Salah satu metode otomasi essay grading adalah essay grading metode LSA. LSA merepresentasikan isi kata dalam matriks dua dimensi yang besar. Bagian pemrosesan penting dari LSA adalah komponen penganalisisan bernama SVD (Singular Value Decomposition) yang mengkompresi informasi yang berkaitan dalam jumlah besar ke dalam ruang yang lebih kecil. Menggunakan teknik aljabar matriks (SVD), hubungan baru antara esai mahasiswa dan esai referensi ditentukan dan dimodifikasi untuk mewakili arti sebenarnya.
SIMPLE-O adalah aplikasi penilaian esai otomatis metode LSA yang berbasis web yang dikembangkan di Indonesia. Untuk meningkatkan kualitas penilaian esai maka perlu diterapkan teknik pembobotan. Sebuah metode pembobotan merupakan susunan dari tiga buah pembobotan: pembobotan lokal (local weighting), pembobotan global (global weighting) dan normalisasi (normalization) [1]. Untuk mengimplementasikan pembobotan maka pada SIMPLE-O dilakukan perubahan pada bagian proses memasukan jawaban esai mahasiswa dan proses penilaianya. SIMPLE-OM adalah SIMPLE-O yang telah mengalami perubahan. Pada SIMPLEOM skema pembobotan yang diterapkan adalah skema pembobotan SICBI (SQRTIGFF-COSN-BNRY-IDFB).
Berdasarkan hasil pengamatan dan perhitungan dari beberapa skenario pengujian, sistem aplikasi dengan pembobotan SICBI memberikan hasil yang lebih baik daripada sistem aplikasi tanpa pembobotan. Skenario pengujian yang memberikan hasil paling baik (mendekati human rater) adalah skenario yang memiliki jumlah mahasiswa terbanyak yaitu skenario 3 (20 mahasiswa). Pada skenario 3, rata-rata selisih antara penilaian sistem aplikasi dengan human rater adalah 10,9. Penerapan pembobotan akan membuat sistem aplikasi bekerja lebih lama dalam hal penilaian esai. Selain itu, beberapa hal lain yang berpengaruh pada kecepatan proses penilaian esai antara lain banyaknya kata kunci mahasiswa dan jumlah mahasiswa yang mengikui ujian.

One method of automatic essay grading is "LSA Essay Grading Method". LSA represents words contained in a huge bi-dimensional matrix. Main processing part of LSA is analyzing component that called SVD (Singular Value Decomposition) which compress the large-scaled related information into smaller scale. Using matrix algebraic method (SVD), the new relations between student?s essay and the reference essay can be determined and modified in the real meaning.
SIMPLE-O is an automatic essay grading application using web-based LSA method which has been developed in Indonesia. To increase essay grading quality, it needed to apply weighting technique. Weighting methods consist of three weighting: local weighting, global weighting, and normalization [1]. To implement the weighting in SIMPLE-O, it needs to make changes in student?s answers and grading process. SIMPLE-OM is a modified SIMPLE-O. In SIMPLEOM, the weighting scheme which is being implemented is SICBI (SQRT-IGFFCOSN-BNRY-IDFD) weighting scheme.
According to observation results and calculation from several testing scenario, SICBI weighting application system gives better results than application system without weighting method. The best result (approaching the human rater) is given by the testing method which has the most student participants, that is in third scenario (20 students). In this scenario, the average differences between application system grading and human rater is 10.9. Weighting implementation will make the application system work longer in essay grading. The number of word and the students also affect to the essay grading speed.
"
Depok: Fakultas Teknik Universitas Indonesia, 2008
S40491
UI - Skripsi Open  Universitas Indonesia Library
cover
Deo Lahara
"ABSTRAK
Pendeteksian topik topic detection adalah suatu proses yang digunakan untuk menganalisis kata-kata pada suatu koleksi data tekstual untuk menentukan topik-topik yang ada pada koleksi tersebut. Pendeteksian topik pada dokumen yang sangat besar sulit dilakukan secara manual sehingga dibutuhkan metode otomatis. Masalah pendeteksian topik secara otomatis dikenal dengan istilah topic detection and tracking TDT . Suatu metode alternatif TDT untuk masalah pendeteksian topik adalah fuzzy C-means FCM. Pada metode fuzzy C-means, umumnya pusat cluster ditentukan secara acak atau inisialisasi random. Namun, terkait dengan masalah dimensi yang tinggi pada inisialisasi random akan menyebabkan algoritma konvergen ke satu pusat. Sehingga, topik-topik yang dihasilkan antara satu dengan yang lainnya sama. Untuk itu, diperlukan metode untuk membuat inisialisasi yang dapat mengatasi masalah tersebut. Salah satu metode inisialisasi yang akan dikembangkan pada penelitian ini adalah metode Singular Value Decomposition SVD . Hasil simulasi menunjukan bahwa metode inisialisasi dapat mengatasi permasalahan fuzzy C-means pada data dimensi yang tinggi sehingga topik-topik yang dihasilkan tidak sama terhadap satu sama lain.

ABSTRAK
Topic detection is a process used to analyze words in a collection of textual data to determine the topics of the collection. Detecting topics on a very large document is hardly done manually so that automatic methods are needed. Automatic method to detect topics in textual documents is known as Topic Detection and Tracking TDT . An alternative method of TDT for topic detection problems is fuzzy C means FCM . In the FCM method, generally the cluster center is random initialization. However, related to the problem of high dimensional random initialization causes the algorithm to converge to one center, it means that all generated topics are similar. For that, a method is needed to create an initialization that resolves the problem. One of the initialization methods that will be developed in this research is Singular Value Decomposition SVD method. The simulation results show that the SVD initialization method can overcome the fuzzy C means problem in the high dimension data so that the resulting topics are not equal to each other. "
2017
S69378
UI - Skripsi Membership  Universitas Indonesia Library
<<   1 2 3 4 5 6 7 8 9 10   >>