Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 4 dokumen yang sesuai dengan query
cover
Khairani Djahara
Abstrak :
ABSTRAK
Pemilihan prototype menggunakan single prototype memiliki kelemahan dimana daerah yang minor (distribusi datanya sedikit) belum dapat ter-cover dengan baik, sehingga dibutuhkan penggunaan multiple prototype agar data yang memiliki ketersebaran data yang tidak merata pada kelas yang sama dapat terwakilkan. Pada penelitian kali ini, akan diterapkan suatu metode incremental learning yang akan diintegrasikan dengan algoritma FNGLVQ. Metode incremental learning yang digunakan adalah metode random, statis dan dinamis. Metode random dilakukan dengan cara memilih prototype dari luar secara random dengan penetapan jumlah 2,5,10 dan 20 prototype perkelasnya; metode statis dengan memanfaatkan sifat keabuan dari nilai similaritas fuzzy yaitu menggunakan threshold di bawah nilai 0.5, 0.4, 0.3, 0.2 dan 0.1 sebagai kriteria pemasukan prototype sementara untuk metode dinamis juga menggunakan threshold yang diadaptasi dari penelitian (Xu Ye, 2012), namun dalam penelitian ini akan dilakukan penyesuaian mengikuti bentuk prototype yang digunakan yaitu dalam bentuk fuzzy. Dari keseluruhan metode incremental learning ini yang digunakan baik random, statis maupun dinamis, akurasi meningkat sebesar ±3 – 5% dari single prototype. Sementara untuk metode dinamis sendiri memiliki keunggulan di atas rata-rata dari metode random maupun statis baik dalam hal akurasi dan efisiensi jumlah prototype yaitu sebesar 94.78% dengan ±7 buah prototype pada uji data simulasi dengan menggunakan gaussian mixture models.
ABSTRACT
Selection of prototype using single have a weakness where minor area could not cover well and need multiple prototype for a solution. In this research, incremental learning method will be integrated to FNGLVQ algorithm. Incremental learning method will be used random, static and dynamic. Random method will be selection of prototype from outside system randomly with 2, 5, 10, 20 prototype each class; statis method using threshold based on grey area of fuzzy similarity characteristic with using value under 0.5, 0.4, 0.3, 0.2 and 0.1 as criteria of entering the prototype to the set prototype, while dynamic method using threshold that adaptation from (Xu Ye, 2012), but in this research will be change form of prototype from crisp to fuzzy. From all incremental learning method that used such as random, static and dynamic, accuracy increasing about 3 until 5 % from single prototype. While dynamic threshold have an average superior than random and static method in accuracy and amount of prototype with 94.78% and ±7 prototypes on testing in simulation data using gaussian mixture models.
Fakultas Ilmu Komputer Universitas Indonesia, 2013
T-Pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Idha Rakhmawati
Abstrak :
ABSTRAK
Terjadinya failure pada saat pengiriman data menyebabkan berbagai kerugian dalam layanan jaringan internet, salah satunya adalah packet loss. Walaupun jaringan internet saat ini sudah cukup reliable, namun belum dapat mengatasi permasalahan tersebut karena masih memiliki beberapa keterbatasan. Pada penelitian ini dikembangkan sebuah mekanisme recovery time untuk mengatasi failure yang terjadi pada jaringan yang berbasis openflow yaitu dengan menggunakan algoritma shortest path yang lebih optimal pada proses pencarian jalur dalam suatu controller. Berdasarkan hasil eksperimen yang dilakukan dapat disimpulkan bahwa penggunaan algoritma shortest path Dijkstra memiliki beberapa keunggulan dibandingkan dengan penggunaan algoritma shortest path Floyd-Warshall, diantaranya recovery time untuk mengatasi failure dengan algoritma Dijkstra 97% lebih unggul dibandingkan dengan algoritma Floyd-Warshall. Pada percobaan proses unduh file, algoritma Dijkstra membutuhkan waktu recovery 0.48 detik lebih cepat dibandingkan dengan algoritma Floyd-Warshall. Sedangkan pada proses streaming video, algoritma Dijkstra lebih reliable dibandingkan dengan algoritma Floyd-Warshall.
ABSTRACT
The occurrence of failure at the time of data transmission causes various losses in the internet network services, one of which is packet loss. Although the Internet is now quite reliable, but have not been able to overcome these problems because it still has some limitations. In this study developed a mechanism to overcome the failure recovery time that occurs in OpenFlow-based networks by using the shortest path algorithm in finding the optimal path in a controller. Based on the experiments result, concluded that the use of Dijkstra's shortest path algorithm has several advantages compared to Floyd-Warshall shortest path algorithm, such as recovery time with the Dijkstra?s algorithm 97% better than Floyd-Warshall algorithm when failure occured. When the file download, recovery time with Dijkstra's algorithm takes 0.48 seconds faster than Floyd-Warshall algorithm. While in the process of streaming video, Dijkstra's algorithm is more reliable than the Floyd-Warshall algorithm.
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2014
T-Pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Desti Fitriati
Abstrak :
Penelitian ini melakukan klasifikasi stadium penyakit Diabetik Retinopati (DR) menjadi 2 hirarki, yaitu Global dan Lokal. Hirarki Global hanya terdiri dari normal (0) dan abnormal (1). Sedangkan klasifikasi lokal terdiri dari 4 kategori yaitu kategori normal (R0), early NPDR (R1), advanced NPDR (R3), dan PDR (R4). Kategori early NPDR adalah stadium mild NPDR, sedangkan advanced NPDR adalah gabungan dari moderate dan severe NPDR. Secara umum penelitian ini dilakukan untuk menyelesaikan masalah yang timbul akibat adanya kemiripan citra per kenaikan stadium yang tidak bisa dinilai secara kasat mata. Sehingga membutuhkan sebuah penanganan dimana citra retina dapat digolongkan ke dalam kategori yang tepat. Berdasarkan masalah tersebut, dilakukan 2 mekanisme percobaan untuk setiap hirarki, yaitu melalui pendekatan computer vision yang hanya fokus untuk mengolah citra secara keseluruhan dan pendekatan yang dilakukan oleh medis dimana sebelum menentukan kategori citra, terlebih dahulu dilakukan deteksi fitur penanda DR seperti eksudat, mikroaneurisma, dan pembuluh darah. Data yang digunakan ada 2 jenis yaitu data citra dari RSCM Jakarta dan database publik Diaretdb0. Metode klasifikasi ELM yang diusulkan mampu memberikan performansi yang cukup baik dari sisi waktu dan akurasi, dimana rata-rata klasifikasi menggunakan cross validation mencapai 50% untuk data RSCM dan 60% untuk data DB0. Sedangkan untuk klasifikasi lokal mencapai 50% untuk data RSCM dan 40% untuk data DB0. ......This study determined the classification of the stage of disease Diabetic retinopathy (DR) into two hierarchies , namely the Global and the Local . Global hierarchy consisting only of normal (0) and abnormal (1). While local classification consists of 4 categories: normal category (R0), early NPDR (R1), advanced NPDR (R3), and PDR (R4). Categories early stages of NPDR is Mild NPDR, whereas advanced NPDR is a combination of moderate and severe NPDR. In general, this study was conducted to resolve the problems arising from the similarity image that stage increments can not be assessed by naked eye . Thus require a treatment in which the retinal image can be classified into appropriate categories . Based on these issues, conducted 2 experiments for each hierarchy mechanism, namely through the computer vision approach that only focuses on the image of the overall process and the approach taken by a medical before determining which image category , first detection of features such as bookmarks DR exudates, microaneurysms, and blood vessels . The data used there are 2 types of image data from public databases RSCM Jakarta and Diaretdb0. The proposed classification method ELM is able to provide good enough performance in terms of time and accuracy , where the average classification using cross validation to achieve 50 % for data RSCM and 60 % for data DB0. Whereas for the local classification, data RSCM achieve 50 % and 40 % for data DB0.
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2014
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Hapnes Toba
Abstrak :
[Sebuah sistem tanya jawab (STJ) adalah sebuah sistem komputer yang dirancang untuk mencari jawaban yang paling tepat terhadap sebuah pertanyaan yang diajukan dalam sebuah bahasa alami. Penelitian terkait STJ telah dilakukan sejak awal tahun 60-an, dan mengalami perkembangan yang pesat sejak diadakannya forum-forum evaluasi STJ sejak tahun 90-an sampai saat ini. Bidang-bidang penelitian dalam ilmu komputer yang memberikan kontribusi besar dalam perkembangan STJ meliputi antara lain: temu balik informasi, pemrosesan bahasa alami, dan kecerdasan buatan. Secara khusus dalam riset doktoral ini dilakukan eksplorasi terhadap komponen validasi jawaban. Riset bertujuan untuk menghasilkan metode baru yang dapat meningkatkan relevansi cuplikan teks dan mencari strategi untuk melakukan ekstraksi jawaban dengan mengkombinasikan pendekatan statist ik dan simbolik. Terdapat dua usulan yang diberikan guna mencapai tujuan riset. Usul yang pertama adalah penggunaan model kualitas jawaban yang dikembangkan dari STJ berbasis komunitas sebagai alat untuk melakukan pengurutan ulang cuplikan teks. Usul yang kedua adalah pembentukan model jawaban melalui pembelajaran frasa pengandung jawaban terkecil dan terlengkap (least generalized answer bearing phrase/ABP-LG) sebagai sarana untuk memprediksi bagian kalimat yang paling memungkinkan mengandung jawaban. Model ABPLG memanfaatkan informasi struktur kalimat pada pertanyaan dan cuplikan teks sebagai indikator yang menentukan peluang kandungan jawaban dalam sebuah bagian kalimat. Hasil eksperimen dengan berbagai koleksi data memperlihatkan bahwa kombinasi model ABP-LG dengan sistem berbasis pola mampu memberikan kontribusi untuk perbaikan hasil ekstraksi jawaban secara signifikan untuk tipe pertanyaan faktoid maupun kompleks (tipe lain-lain). Keunggulan model ABP-LG jika dibandingkan dengan STJ berbasis entitas bernama ataupun kamus adalah kemampuannya untuk mempelajari indikasi 'cara menjawab' dan portabilitasnya untuk diterapkan dalam domain pertanyaan yang berbeda-beda, khususnya untuk tipe-tipe pertanyaan yang dapat mencakup konteks apapun, seperti dalam tipe 'other' (lain-lain). Kelemahan model ABP-LG yang teramati selama eksperimen adalah ketergantungannya pada kualitas teks. Problem terakhir ini secara parsial berhasil ditangani oleh model pengurutan ulang cuplikan teks sebagai penyaring kandidat-kandidat kalimat yang dianggap mengandung jawaban dari hasil temu balik informasi.;The task of a question answering system (QAS) is to find a final answer given a natural language question. Since it was introduced in the 1960s, the task of QAS has always been at the forefront of technology advances. Along with the advances in the fields of information retrieval, computational linguistics, and artificial intelligence, research on QAS are broadened into unstructured textual documents in open domains. Evaluation forums for QAS have steered the development of QAS into an established and large-scale research methodologies and evaluations. This doctoral research investigates various techniques in the answer validation component. The main objective of the research is to develop new methods in snippet reranking and answer extraction process by combining the statistical and the symbolic (semantics) approaches. Two novel techniques are proposed as the results of this doctoral research. The first one is the snippets' reranking model which is developed by using the question-answer pairs' characteristics in a community-based QAS. This answer quality model forms the basic ingredient for the snippet reranking process. The second proposal is the least generalized answer bearing phrase model (ABP-LG) to predict the final answer location of a given question which is extracted from a number of good quality snippets, after a reranking process. The ABP-LG model employs syntactic tree information of question-answer (snippet) pairs as indicators to predict the answer bearing possibility in each part of a snippet. The experiment results show that the ABP-LG model combines with the pattern-based approach contributes considerably in the answer extraction process for factoid- and complex (other)-typed questions. The main advantage of the ABPLG model beyond the common approaches, which are based on named-entity recognizers or dictionaries, is its ability to predict the 'way-of-answering', either in factoid or complex question types. Based on the analysis of the experiment results, the main weaknesses of the ABP-LG model is its high dependency on good quality snippets which partially has been tackled by employing the snippets' reranking model., The task of a question answering system (QAS) is to find a final answer given a natural language question. Since it was introduced in the 1960s, the task of QAS has always been at the forefront of technology advances. Along with the advances in the fields of information retrieval, computational linguistics, and artificial intelligence, research on QAS are broadened into unstructured textual documents in open domains. Evaluation forums for QAS have steered the development of QAS into an established and large-scale research methodologies and evaluations. This doctoral research investigates various techniques in the answer validation component. The main objective of the research is to develop new methods in snippet reranking and answer extraction process by combining the statistical and the symbolic (semantics) approaches. Two novel techniques are proposed as the results of this doctoral research. The first one is the snippets' reranking model which is developed by using the question-answer pairs' characteristics in a community-based QAS. This answer quality model forms the basic ingredient for the snippet reranking process. The second proposal is the least generalized answer bearing phrase model (ABP-LG) to predict the final answer location of a given question which is extracted from a number of good quality snippets, after a reranking process. The ABP-LG model employs syntactic tree information of question-answer (snippet) pairs as indicators to predict the answer bearing possibility in each part of a snippet. The experiment results show that the ABP-LG model combines with the pattern-based approach contributes considerably in the answer extraction process for factoid- and complex (other)-typed questions. The main advantage of the ABPLG model beyond the common approaches, which are based on named-entity recognizers or dictionaries, is its ability to predict the 'way-of-answering', either in factoid or complex question types. Based on the analysis of the experiment results, the main weaknesses of the ABP-LG model is its high dependency on good quality snippets which partially has been tackled by employing the snippets' reranking model.]
2014
D1990
UI - Disertasi Membership  Universitas Indonesia Library