Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 13 dokumen yang sesuai dengan query
cover
Pasnur
Abstrak :
An efficient Region-Based Image Retrieval (RBIR) system must consider query region determination techniques and target regions in the retrieval process. A query region is a region that must contain a Region of Interest (ROI) or saliency region. A query region determination can be specified manually or automatically. However, manual determination is considered less efficient and tedious for users. The selected query region must determine specific target regions in the image collection to reduce the retrieval time. This study proposes a strategy of query region determination based on the Region Importance Index (RII) value and relative position of the Saliency Region Overlapping Block (SROB) to produce a more efficient RBIR. The entire region is formed by using the mean shift segmentation method. The RII value is calculated based on a percentage of the region area and region distance to the center of the image. Whereas the target regions are determined by considering the relative position of SROB, the performance of the proposed method is tested on a CorelDB dataset. Experimental results show that the proposed method can reduce the Average of Retrieval Time to 0.054 seconds with a 5x5 block size configuration.
International Journal of Technology, 2016
J-Pdf
Artikel Jurnal  Universitas Indonesia Library
cover
Rarasmaya Indraswari
Abstrak :
SVM (Support Vector Machine) with RBF (Radial Basis Function) kernel is a frequently used classification method because usually it provides accurate results. The focus of most SVMoptimization research is the optimization of the input data, whereas the parameter of the kernel function (RBF), the sigma, which is used in SVM also has the potential to improve the performance of SVM when optimized. In this research, we proposed a new method of RBF kernel optimization with Particle Swarm Optimization (PSO) on SVM using the analysis of input data?s movement. This method performed the optimization of the weight of the input data and RBF kernel?s parameter at once based on the analysis of the movement of the input data which was separated from the process of determining the margin on SVM. The steps of this method were the parameter initialization, optimal particle search, kernel?s parameter computation, and classification with SVM. In the optimal particle?s search, the cost of each particle was computed using RBF function. The value of kernel?s parameter was computed based on the particle?s movement in PSO. Experimental result on Breast Cancer Wisconsin (Original) dataset showed that this RBF kernel optimization method could improve the accuracy of SVM significantly. This method of RBF kernel optimization had a lower complexity compared to another SVM optimization methods that resulted in a faster running time.

Metode klasifikasi SVM (Support Vector Machine) dengan RBF (Radial Basis Function) kernel merupakan metode yang sering digunakan karena memberikan hasil klasifikasi yang cukup akurat. Penelitian mengenai optimasi pada SVM sementara ini masih banyak berfokus pada optimasi dari nilai data masukan padahal parameter fungsi kernel (RBF), yaitu parameter sigma, yang digunakan pada SVM juga memiliki potensi untuk meningkatkan performa dari SVM apabila dioptimasi. Pada penelitian ini diajukan metode baru optimasi RBF kernel dengan Particle Swarm Optimization (PSO) pada SVM berdasar analisis persebaran data masukan. Metode ini melakukan optimasi terhadap bobot data masukan sekaligus parameter RBF kernel berdasarkan analisis persebaran data masukan sehingga terpisah dari proses penentuan margin pada SVM. Tahapan darimetode ini adalah inisialisasi parameter, pencarian partikel optimal, perhitungan nilai parameter kernel, dan klasifikasi dengan SVM. Pada proses pencarian partikel optimal, nilai cost dari tiap partikel dihitung berdasar fungsi RBF. Nilai parameter kernel dihitung berdasar pergerakan partikel data masukan pada PSO. Hasil uji coba pada dataset Breast Cancer Wisconsin (Original) menunjukkan bahwa metode optimasi RBF kernel mampu meningkatkan akurasi klasifikasi SVM secara cukup signifikan. Metode optimasi parameter RBF kernel ini memiliki kompleksitas yang lebih rendah dibandingkan dengan metode optimasi SVM lainnya sehingga menghasilkan running time yang lebih cepat.
Surabaya: Faculty of Information Technology, Department of Informa Institut Teknologi Sepuluh Nopember, 2017
AJ-Pdf
Artikel Jurnal  Universitas Indonesia Library
cover
Khadijah Fahmi Hayati Holle
Abstrak :
In document retrieval, besides the suitability of query with search results, there is also a subjective user assessment that is expected to be a deciding factor in document ranking. This preference aspect is referred at the fiqh document searching. People tend to prefer on certain fiqh metho-dology without rejecting other fiqh methodologies. It is necessary to investigate preference factor in addition to the relevance factor in the document ranking. Therefore, this research proposed a method of term weighting based on preference to rank documents according to user preference. The proposed method is also combined with term weighting based on documents index and books index so it sees relevance and preference aspect. The proposed method is Inverse Preference Fre-quency with α value (IPFα). In this method, we calculate preference value by IPF term weighting. Then, the preference values of terms that is equal with the query are multiplied by α. IPFα combin-ed with the existing weighting methods become TF.IDF.IBF.IPFα. Experiment of the proposed me-thod uses dataset of several Arabic fiqh documents. Evaluation uses recall, precision, and f-mea-sure calculations. Proposed term weighting method is obtained to rank the document in the right order according to user preference. It is shown from the result with recall value reach 75%, preci-sion 100%, and F-measure 85.7% respectively.

Dalam pencarian, selain kesesuaian query dengan hasil pencarian, terdapat penilaian subjektif pengguna yang diharapkan menjadi faktor penentu dalam perangkingan dokumen. Aspek prefe-rensi tersebut tampak pada pencarian dokumen fiqih. Seseorang cenderung mengutamakan meto-dologi fiqih tertentu meskipun tidak mengabaikan pendapat metodologi fiqih lain. Faktor prefe-rensi menjadi hal yang diperlukan selain relevansi dalam perangkingan dokumen. Oleh karena itu, pada penelitian ini diajukan metode pembobotan kata berbasis preferensi untuk merangkingkan dokumen sesuai dengan preferensi pengguna. Metode yang diajukan digabungkan dengan pembo-botan kata berbasis indeks dokumen dan buku sehingga mampu memperhatikan aspek kesesuaian (relevance) dan keutamaan (preference). Metode pembobotan yang diusulkan disebut dengan Invers Preference Frequency with α value (IPFα). Langkah pembobotan yang diusulkan yaitu de-ngan perhitungan nilai preferensi term dengan pembobotan IPF. Kemudian nilai preferensi dari term dokumen yang sama dengan term query dikalikan dengan 𝜶𝜶 sebagai penguat. IPFα digabung-kan dengan metode pembobotan yang telah ada menjadi TF.IDF.IBF.IPFα. Pengujian metode yang diusulkan menggunakan dataset dari beberapa dokumen fiqih berbahasa Arab. Evaluasi meng-gunakan perhitungan recall, precision, dan F-measure. Hasil uji coba menunjukkan bahwa dengan pembobotan TF.IDF.IBF.IPFα diperoleh perangkingan dokumen dengan urutan yang tepat dan se-suai dengan preferensi pengguna. Hal ini ditunjukkan dengan nilai maksimal recall mencapai 75%, precision 100%, dan F-measure 85.7%.
Surabaya: Institut Teknologi Sepuluh Nopember Surabaya, Faculty of Information Technology, Department of Infromatics Engineering, 2015
AJ-Pdf
Artikel Jurnal  Universitas Indonesia Library
cover
Jayanti Yusmah Sari
Abstrak :
Curse of dimensionality merupakan masalah yang sering dihadapi pada proses klasifikasi. Trans-formasi fitur dan seleksi fitur sebagai metode dalam reduksi fitur bisa diterapkan untuk mengatasi masalah ini. Terlepas dari performanya yang baik, transformasi fitur sulit untuk diinterpretasikan ka-rena ciri fisik dari fitur-fitur yang asli tidak dapat diperoleh kembali. Di sisi lain, seleksi fitur dengan proses komputasinya yang sederhana bisa mereduksi fitur-fitur yang tidak diperlukan dan mampu me-representasikan data untuk memudahkan pemahaman terhadap data. Pada penelitian ini diajukan metode seleksi fitur baru yang berdasarkan pada dua pendekatan filter, yaitu similarity (kemiripan) dan entropi untuk mengatasi masalah data berdimensi tinggi. Tahap awal metode ini adalah meng-hitung nilai similarity antara fitur dengan vektor kelas dari 6 data berdimensi tinggi. Kemudian diperoleh nilai similarity maksimum yang digunakan untuk menghitung nilai entropi untuk setiap fitur. Fitur yang dipilih adalah fitur yang memiliki nilai entropi lebih tinggi daripada entropi rata-rata seluruh fitur. Fuzzy k-NN diterapkan untuk tahap klasifikasi data hasil seleksi fitur. Hasil percobaan menunjukkan bahwa metode yang diajukan mampu mengklasifikasi data berdimensi tinggi dengan rata-rata akurasi 80.5%. ......Curse of dimensionality is a major problem in most classification tasks. Feature transformation and feature selection as a feature reduction method can be applied to overcome this problem. Despite of its good performance, feature transformation is not easily interpretable because the physical meaning of the original features cannot be retrieved. On the other side, feature selection with its simple com-putational process is able to reduce unwanted features and visualize the data to facilitate data understanding. We propose a new feature selection method using similarity based entropy to over-come the high dimensional data problem. Using 6 datasets with high dimensional feature, we com-puted the similarity between feature vector and class vector. Then we find the maximum similarity that can be used for calculating the entropy values of each feature. The selected features are features that having higher entropy than mean entropy of overall features. The fuzzy k-NN classifier was im-plemented to evaluate the selected features. The experiment result shows that proposed method is able to deal with high dimensional data problem with mean accuracy of 80.5%.
Surabaya: Faculty of Information and Technology, Department of Informatics Institut Teknologi Sepuluh Nopember, 2014
AJ-Pdf
Artikel Jurnal  Universitas Indonesia Library
cover
Abstrak :
Query becomes one of the most decisive factor on documents searching. A query contains several words, where one of them will become a key term. Key term is a word that has higher information and value than the others in query. It can be used in any kind of text documents, including Arabic Fiqh documents. Using key term in term weighting process could led to an improvement on result?s relevancy. In Arabic Fiqh document searching, not using the proper method in term weighting will relieve important value of key term. In this paper, we propose a new term weighting method based on Positive Impact Factor Query (PIFQ) for Arabic Fiqh documents ranking. PIFQ calculated using key term?s frequency on each category (mazhab) on Fiqh. The key term that frequently appear on a certain mazhab will get higher score on that mazhab, and vice versa. After PIFQ values are acquired, TF.IDF calculation will be done to each words. Then, PIFQ weight will be combine with the result from TF.IDF so that the new weight values for each words will be produced. Experimental result performed on a number of queries using 143 Arabic Fiqh documents show that the proposed method is better than traditional TF.IDF, with 77.9%, 83.1%, and 80.1% of precision, recall, and F-measure respectivel.
Query menjadi salah satu faktor penentu dalam pencarian dokumen. Dalam sebuah query terdiri dari beberapa kata, dimana salah satunya menjadi key term. Key term adalah kata yang memiliki nilai informasi dan bobot lebih tinggi dibandingkan kata lain. Hal tersebut berlaku untuk semua jenis dokumen teks, termasuk dokumen fiqih berbahasa Arab. Penitik beratan pada key term dalam proses pembobotan kata memungkinkan terjadinya peningkatan relevansi pencarian. Di dalam pencarian dokumen fiqih berbahasa Arab, jika metode pembobotan kata yang digunakan tidak tepat, key term tidak akan memberikan pengaruh berarti. Oleh karena itu diusulkanlah sebuah metode pembobotan baru pada kata berbasis Positive Impact Factor Query (PIFQ) untuk perangkingan dokumen fiqih berbahasa arab. PIFQ dihitung menggunakan frekuensi kemunculan key term pada setiap kategori (mazhab) dalam fiqih. Semakin tinggi frekuensi key term tersebut pada suatu mazhab semakin tinggi pula nilainya pada mazhab tersebut, begitu pula sebaliknya. Setelah didapat nilai PIFQ, kemudian dilakukan perhitungan TF.IDF untuk setiap kata. Selanjutnya bobot PIFQ akan dikom-binasikan dengan TF.IDF sehingga menghasilkan bobot baru untuk masing-masing kata. Hasil dari pengujian yang dil-akukan pada sejumlah query dengan 143 dokumen fiqih berbahasa Arab menunjukan bahwa metode usulan dapat lebih unggul jika dibandingkan metode TF.IDF, dengan nilai precision, recall, dan F-measure masing-masing sebesar 77,9%, 83,1%, dan 80,1%.
Institut Teknologi Sepuluh Nopember, Faculty of Information and Technology, Informatics Department, 2017
AJ-Pdf
Artikel Jurnal  Universitas Indonesia Library
cover
Abstrak :
Research on medical images becomes one of the studies that attracted many researchers, because it can help medical field to analyse the disease. One of the existing research in medical image is using dental panoramic radiographs image to detect osteoporosis. The analysed area is the width of cortical bone. Determination of the cortical bone width requires proper segmentation on the dental panoramic radiographs image. This study proposed the integration of watershed and region merging method based on statistical features for cortical bone segmentation on dental panoramic radiographs. Watershed segmentation process perform using gradient magnitude value from the input image. The watershed image that has excess segmentation can be solved by region merging based on statistical features. Statistical features used in this study is mean, standard deviation, and variance. The similarity of adjacent regions measure with weighted Euclidean distance from the statistical feature of the regions. Merging process will run by incorporating the background regions as many as possible, while keeping the object regions from being merged. Results of segmentation has succeeded in forming contour of the cortical bone. The average value of accuracy is 93.211%, the average value of sensitivity is 93.858%, and the average value of specificity is 93.071%.
Penelitian terhadap citra medis menjadi salah satu penelitian yang banyak diminati karena dapat membantu dokter untuk menganalisa penyakit. Salah satu penelitian yang ada dalam citra medis adalah menggunakan citra dental panoramic radiographs untuk mendeteksi osteoporosis. Daerah yang dianalisis adalah lebar dari cortical bone. Segmentasi yang tepat sangat dibutuhkan untuk me-nentukan lebar cortical bone pada dental panoramic radiographs. Pada penelitian ini diusulkan inte-grasi metode watershed dan metode region merging berbasis fitur statistik untuk segmentasi cortical bone pada dental panoramic radiographs. Citra masukan berupa cortical bone dilakukan proses gradient magnitude kemudian dilanjutkan dengan proses segmentasi menggunakan watershed. Citra hasil proses watershed yang masih memiliki segmentasi berlebih dilakukan proses region merging berbasis fitur statistik. Selanjutnya kemiripan antar region dihitung dengan menggunakan weighted Euclidean distance dari fitur statistik setiap region. Fitur statistik yang digunakan adalah mean, vari-ance, dan standar deviasi. Proses merging akan berjalan dengan melakukan penggabungan pada dae-rah background telebih dahulu selanjutnya sisa region yang dihasilkan akan digabungkan sebagai dae-rah objek. Hasil segmentasi yang dilakukan telah berhasil membentuk contour dari cortical bone. Da-ri hasil uji coba didapatkan rata-rata akurasi 93,211%, rata-rata sensitifitas 93,858%, dan rata-rata spesifisitas 92,071%.
Surabaya: Institut Teknologi Sepuluh Nopember, Faculty of Information Technology, Department of Informatics Engineering, 2015
AJ-Pdf
Artikel Jurnal  Universitas Indonesia Library
cover
Abstrak :
Twitter is a social media application, which can give a sign for identifying user emotion. Identification of user emotion can be utilized in commercial domain, health, politic, and security problems. The problem of emotion identification in twit is the unstructured short text messages which lead the difficulty to figure out main features. In this paper, we propose a new framework for identifying the tendency of user emotions using specific features, i.e. hashtag, emoji, emoticon, and adjective term. Preprocessing is applied in the first phase, and then user emotions are identified by means of classification method using kNN. The proposed method can achieve good results, near ground truth, with accuracy of 92%.
Sebuah tweet dapat mengandung dan menggambarkan kecenderungan emosi seseorang. Penelitian me-ngenai identifikasi emosi dapat diterapkan pada domain komersial, kesehatan, politik, dan keamanan. Teks pendek yang tidak terstruktur dalam data tweet menyebabkan sulit menemukan fitur-fitur penting. Pada pe-nelitian ini diusulkan sebuah model baru untuk mengidentifikasi kecenderungan emosi pengguna Twitter menggunakan fitur khusus yaitu hashtag, emoji, emoticon, dan kata sifat. Tahap awal dilakukan prepro-cessing, kemudian identifikasi emosi pengguna dengan metode klasifikasi. Hasil penelitian ini mempunyai kecenderungan emosi yang mendekati ground truth dengan akurasi 92% menggunakan kNN.
Surabaya: Institut Teknologi Sepuluh Nopember, Faculty of Information and Technology, Department of Informatics, 2014
AJ-Pdf
Artikel Jurnal  Universitas Indonesia Library
cover
Abstrak :
Information retrieval of text document requires a method that is able to restore a number of documents that have high relevance according to the user's request. One important step in the process is a text representation of the weighting process. The use of LCS in Tf-Idf weighting adjustments considers the appearance of the same order of words between the query and the text in the document. There is a very long document but irrelevant cause weight produced is not able to represent the value relevance of documents. This research proposes the use of LCS which gives weight to the word order by considering long documents related to the average length of documents in the corpus. This method is able to return a text document effectively. Additional features of word order by normalizing the ratio of the overall length of the document to the documents in the corpus generate values of precision and recall as well as the method of Tasi et al.

Sistem temu kembali dokumen teks membutuhkan metode yang mampu mengembalikan sejumlah dokumen yang memiliki relevansi tinggi sesuai dengan permintaan pengguna. Salah satu tahapan penting dalam proses representasi teks adalah proses pembobotan. Penggunaan LCS dalam penyesuaian bobot Tf-Idf mempertimbangkan kemunculan urutan kata yang sama antara query dan teks di dalam dokumen. Adanya dokumen yang sangat panjang namun tidak relevan menyebabkan bobot yang dihasilkan tidak mampu merepresentasikan nilai relevansi dokumen. Penelitian ini mengusulkan penggunaan metode LCS yang memberikan bobot urutan kata dengan mempertimbangkan panjang dokumen terkait dengan rata-rata panjang dokumen dalam korpus. Metode ini mampu melakukan pengembalian dokumen teks secara efektif. Penambahan fitur urutan kata dengan normalisasi rasio panjang dokumen terhadap keseluruhan dokumen dalam korpus menghasilkan nilai presisi dan recall yang sama baiknya dengan metode Tasi dkk.
Surabaya: Institut Teknologi Sepuluh Nopember Surabaya, Faculty of Information Technology, Department of Infromatics Engineering, 2013
AJ-Pdf
Artikel Jurnal  Universitas Indonesia Library
cover
Abstrak :
Many kinds of classification method are able to diagnose a patient who suffered Hepatitis disease. One of classification methods that can be used was Least Squares Support Vector Machines (LSSVM). There are two parameters that very influence to improve the classification accuracy on LSSVM, they are kernel parameter and regularization parameter. Determining the optimal parameters must be considered to obtain a high classification accuracy on LSSVM. This paper proposed an optimization method based on Improved Ant Colony Algorithm (IACA) in determining the optimal parameters of LSSVM for diagnosing Hepatitis disease. IACA create a storage solution to keep the whole route of the ants. The solutions that have been stored were the value of the parameter LSSVM. There are three main stages in this study. Firstly, the dimension of Hepatitis dataset will be reduced by Local Fisher Discriminant Analysis (LFDA). Secondly, search the optimal parameter LSSVM with IACA optimization using the data training, And the last, classify the data testing using optimal parameters of LSSVM. Experimental results have demonstrated that the proposed method produces high accuracy value (93.7%) for the 80-20% training-testing partition

Banyak metode klasifikasi yang mampu mendiagnosa seorang pasien mengidap penyakit Hepatitis, salah satunya adalah menggunakan metode klasifikasi Least Squares Support Vector Machines (LSSVM). Terdapat dua parameter yang sangat berpengaruh pada LSSVM yaitu parameter kernel dan parameter regularisasi. Penentuan parameter optimal tersebut harus diperhatikan untuk mendapatkan akurasi klasifikasi yang tinggi pada LSSVM. Penelitian ini mengusulkan metode optimasi Improved Ant Colony Algorithm (IACA) dalam penentuan parameter optimal LSSVM untuk mendiagnosa penyakit Hepatitis. IACA membuat penyimpanan solusi untuk menjaga rute dari keseluruhan semut. Solusi yang disimpan adalah nilai parameter LSSVM. Ada 3 tahapan utama pada penelitian ini yaitu, dimensi dataset Hepatitis direduksi menggunakan metode Local Fisher Discriminant Analysis (LFDA), kemudian parameter optimal LSSVM dicari dengan metode optimasi IACA menggunakan data training, setelah itu data testing diklasifikasikan menggunakan parameter optimal LSSVM. Hasil uji coba menunjukkan bahwa metode yang diusulkan menghasilkan nilai akurasi yang tinggi (93,7%) pada partisi 80-20% training dan testing.
Surabaya: Institut Teknologi Sepuluh Nopember, Faculty of Information and Technology, Department of Informatics, 2017
AJ-Pdf
Artikel Jurnal  Universitas Indonesia Library
cover
Abstrak :
Datasets with heterogeneous features can affect feature selection results that are not appropriate because it is difficult to evaluate heterogeneous features concurrently. Feature transformation (FT) is another way to handle heterogeneous features subset selection. The results of transformation from non-numerical into numerical features may produce redundancy to the original numerical features. In this paper, we propose a method to select feature subset based on mutual information (MI) for classifying heterogeneous features. We use unsupervised feature transformation (UFT) methods and joint mutual information maximation (JMIM) methods. UFT methods is used to transform non-numerical features into numerical features. JMIM methods is used to select feature subset with a consideration of the class label. The transformed and the original features are combined entirely, then determine features subset by using JMIM methods, and classify them using support vector machine (SVM) algorithm. The classification accuracy are measured for any number of selected feature subset and compared between UFT-JMIM methods and Dummy-JMIM methods. The average classification accuracy for all experiments in this study that can be achieved by UFT-JMIM methods is about 84.47% and Dummy-JMIM methods is about 84.24%. This result shows that UFT-JMIM methods can minimize information loss between transformed and original features, and select feature subset to avoid redundant and irrelevant features.

Dataset dengan fitur heterogen dapat mempengaruhi hasil seleksi fitur yang tidak tepat karena sulit untuk mengevaluasi fitur heterogen secara bersamaan. Transformasi fitur adalah cara untuk mengatasi seleksi subset fitur yang heterogen. Hasil transformasi fitur non-numerik menjadi numerik mungkin menghasilkan redundansi terhadap fitur numerik original. Dalam tulisan ini, peneliti mengusulkan sebuah metode untuk seleksi subset fitur berdasarkan mutual information (MI) untuk klasifikasi fitur heterogen. Peneliti menggunakan metode unsupervised feature transformation (UFT) dan metode joint mutual information maximation (JMIM). Metode UFT digunakan untuk transformasi fitur non-numerik menjadi fitur numerik. Metode JMIM digunakan untuk seleksi subset fitur dengan pertimbangan label kelas. Fitur hasil transformasi dan fitur original disatukan seluruhnya, kemudian menentukan subset fitur menggunakan metode JMIM, dan melakukan klasifikasi terhadap subset fitur tersebut menggunakan algoritma support vector machine (SVM). Akurasi klasifikasi diukur untuk sejumlah subset fitur terpilih dan dibandingkan antara metode UFT-JMIM dan Dummy-JMIM. Akurasi klasifikasi rata-rata dari keseluruhan percobaan yang dapat dicapai oleh metode UFT-JMIM sekitar 84.47% dan metode Dummy-JMIM sekitar 84.24%. Hasil ini menunjukkan bahwa metode UFT-JMIM dapat meminimalkan informasi yang hilang diantara fitur hasil transformasi dan fitur original, dan menyeleksi subset fitur untuk menghindari fitur redundansi dan tidak relevan
Paiton: STT Nurul Jadid Paiton, Department of Informatics, 2016
AJ-Pdf
Artikel Jurnal  Universitas Indonesia Library
<<   1 2   >>