Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 25 dokumen yang sesuai dengan query
cover
Amalia Zahra
"Dengan adanya internet, media televisi, dan radio, data yang tersedia sangat banyak, termasuk data suara. Oleh karena itu, dibutuhkan suatu cara untuk mengorganisasikannya, yakni dengan mengubah data suara menjadi teks terlebih dahulu. Pengolahan selanjutnya cukup dilakukan terhadap teks. Proses konversi data suara menjadi teks inilah yang dikenal dengan sistem pengenalan suara (SPS) otomatis.
Saat ini, SPS untuk berbagai bahasa di dunia telah berkembang pesat, seperti Bahasa Inggris, Perancis, Jepang, Thai, dan lain-lain, sedangkan penelitian SPS untuk Bahasa Indonesia sudah dimulai, namun masih dalam tahap awal. Adanya kebutuhan akan SPS dan perkembangan SPS bahasa lain yang pesat memotivasi penulis untuk melakukan penelitian SPS untuk Bahasa Indonesia.
Fokus penelitian ini adalah pembuatan model akustik yang berkaitan erat dengan kamus fonetik yang digunakan. Oleh karena itu, penulis melakukan eksperimen menggunakan enam jenis kamus fonetik, yaitu IPA, SAMPA, ARPABET, Lestari [LEST06], Sakti [SAKT08], dan kamus yang dikembangkan oleh penulis (kamus Zahra). Eksperimen terbagi menjadi dua proses besar, yaitu pelatihan, dengan menggunakan 1.000 data suara rekaman telepon, dan pengujian terhadap 250 data suara rekaman telepon.
Hasil eksperimen menunjukkan bahwa akurasi SPS tertinggi diperoleh saat menggunakan kamus Zahra, yakni sebesar 73,5%. Dengan menggunakan kamus fonetik yang sama, pengujian terhadap 100 berkas rekaman berita RRI menghasilkan akurasi maksimum sebesar 71,6% dengan OOV (Out of Vocabulary) sebesar 8,92%. Kamus tersebut merupakan kamus fonetik yang paling tepat untuk mendefinisikan bunyi dalam Bahasa Indonesia, dengan total simbol yang digunakan adalah 33 simbol."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2008
S-Pdf
UI - Skripsi Open  Universitas Indonesia Library
cover
Yogi Kurnia
"Algoritma data mining membutuhkan sumber data yang berkualitas untuk mendapatkan hasil yang optimal. Kualitas sumber data dapat ditingkatkan kualitasnya dengan menggunakan teknik preprosessing data yang tepat. Kemampuan dalam menampilkan output dari proses data mining yang mudah dimengerti sangat penting untuk mendapatkan pengetahuan. Penelitian ini bertujuan untuk mengembangkan aplikasi yang bisa menjawab kebutuhan dari algoritma data mining. Hasil dari penelitian ini adalah aplikasi yang dapat melakukan keseluruhan proses baik preprocessing data dalam hal pemilihan data dan pengolahan data awal, penyediaan metadata, sampai dengan analisis data menggunakan algoritma data mining. Sehingga, analisis jumlah data yang besar dapat dilakukan dengan efisien dan efektif, tetapi hasil prediksi yang didapatkan tetap optimal.

Data mining algorithms require high quality data sources to obtain optimal results. Quality of data sources can be enhanced by using appropriate data preprocessing techniques. Ability to display easily understood output of the data mining process is essential to gain knowledge. This study aims to develop applications that can address the needs of data mining algorithms. The results of this study is an application that can do the whole steps from data preprocessing until data analysis using data mining algorithms. Data processing itself includes data and preliminary data processing and provision of metadata.. So, analyzing large amount of data can be done in efficient and effective fashion without disregarding necessary need of optimal prediction result."
Depok: Universitas Indonesia, 2012
S43461
UI - Skripsi Open  Universitas Indonesia Library
cover
Woro Sudaryanti
"Penelitian ini melakukan studi mengenai sistem identifikasi pembicara berbahasa Indonesia menggunakan SVM. Parameter sistem terdiri atas silence removal, PCA, nilai rata-rata dan varians MFCC. Ujicoba menggunakan data berita berbahasa Indonesia dari televisi dan radio yang disegmen dalam 5, 10, 15 detik dengan jumlah data 26 jam (715 pembicara). Hasil penelitian ini menunjukkan ketepatan pengenalan pembicara sebesar 94-98% untuk kombinasi parameter silence removal dan rata-rata MFCC dengan akurasi terbaik pada segmen waktu 10 detik. Namun dengan bertambahnya jumlah pembicara, ketepatan pengenalan cenderung berkurang. Penelitian ini dapat dikembangkan untuk sistem perolehan informasi data speech berdasarkan siapa yang berbicara dalam suatu sesi data.

This research studies speaker identification system for Indonesian speech based on SVM. Parameters of this system are silence removal, PCA, average and varians values of MFCC. The experiments use 26 hours (715 speakers) Indonesian broadcast news from radio and television segmented into 5, 10, 15 seconds. The results achieve 94-98% identification accuracy for combination of parameters silence removal and average of MFCC. The best accuracy comes from 10 seconds time segment. However, the accuracy falls when the number of speakers increases. This study could be used for speech retrieval system based on who speaks in a speech session."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2009
T25915
UI - Tesis Open  Universitas Indonesia Library
cover
Elly Matulimah
"Algoritma propagasi balik merupakan algoritma yang memiliki akurasi yang cukup bagus dalam sistem klasifikasi. Akurasi yang cukup bagus pada algoritma propagasi balik dalam batasan data yang menjadi data masukan adalah data yang ideal, dalam artian tidak ada outlier didalamnya. Outlier adalah data yang muncul dan memiliki karakteristik unik yang jauh berbeda dari data observasi-observasi lainnya dan memiliki nilai ekstrim. JIka terdapat outliers dalam data ujicoba maka akurasi algoritma propagasi balik akan menurun. Dalam penelitian ini dikembangkan metode untuk menentukan outlier pada algoritma propagasi balik sehingga dapat mengurangi kelemahan algoritma propagasi balik dalam menentukan data outlier.
Metode yang dikembangkan adalah mahalanobis distance outliers determination (MDOD) yaitu motode untuk menentukan outlier pada algoritma propagasi balik dengan menggunakan perhitungan jarak mahalanobis dan fuzzy distance outliers determination (FDOD) yaitu metode untuk menentukan oulier berdasarkan perhitungan jarak fuzzy. Dari percobaan dalam penelitian ini menujukkan sistem penentu outlier mampu meningkatkan akurasi pengenalan algoritma proagasi balik yang mengunakan data uji meliputi data outlier hingga mencapai dua kali dari pengenalan propagasi balik biasa. FDOD memiliki akurasi yang cukup bagus dibandingkan dengan MDOD dengan data set yang sama FDOD memiliki akurasi sebesar 84.64% sedangkan MDOD memiliki akurasi sebesar 78.21%."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2009
T-Pdf
UI - Tesis Open  Universitas Indonesia Library
cover
Woro Sudaryanti
"Penelitian ini melakukan studi mengenai sistem identifikasi pembicara berbahasa Indonesia menggunakan SVM. Parameter sistem terdiri atas silence removal, PCA, nilai rata-rata dan varians MFCC. Ujicoba menggunakan data berita berbahasa Indonesia dari televisi dan radio yang disegmen dalam 5, 10, 15 detik dengan jumlah data 26 jam (715 pembicara).
Hasil penelitian ini menunjukkan ketepatan pengenalan pembicara sebesar 94-98% untuk kombinasi parameter silence removal dan rata-rata MFCC dengan akurasi terbaik pada segmen waktu 10 detik. Namun dengan bertambahnya jumlah pembicara, ketepatan pengenalan cenderung berkurang. Penelitian ini dapat dikembangkan untuk sistem perolehan informasi data speech berdasarkan siapa yang berbicara dalam suatu sesi data.

This research studies speaker identification system for Indonesian speech based on SVM. Parameters of this system are silence removal, PCA, average and varians values of MFCC. The experiments use 26 hours (715 speakers) Indonesian broadcast news from radio and television segmented into 5, 10, 15 seconds.
The results achieve 94-98% identification accuracy for combination of parameters silence removal and average of MFCC. The best accuracy comes from 10 seconds time segment. However, the accuracy falls when the number of speakers increases. This study could be used for speech retrieval system based on who speaks in a speech session.
"
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2009
T-Pdf
UI - Tesis Open  Universitas Indonesia Library
cover
Ary Noviyanto
"Masalah identifikasi hewan merupakan masalah yang penting untuk melakukan fungsi registrasi dan traceability demi keamanan dan ketahanan produk hewani. Penggunaan penanda buatan untuk hewan merupakan langkah paling mungkin untuk saat ini walaupun disisi lain telah dibuktikan bahwa memiliki banyak keterbatasan. Penggunaan Biometrik hewan memberikan solusi terhadap batasan-batasn tersebut. Investigasi telah dilakukan beberapa peneliti terhadap metode identifikasi berbasis biometrik hewan walaupun masih ada kekurangan-kekurangan.
Biometrik hewan yang digunakan adalah citra pola moncong dan wajah. Biometrik pola moncong dan wajah telah didapatkan dari Sapi Bali dan Sapi Peranakan Ongole. Pemilihan biometrik ini didasarkan pada peluang penelitian dan pengambilan data yang terbilang murah. Pendekatan SIFT pada data pola moncong pada kertas menghasilkan performa yang secara signifikan lebih baik dibandingkan dua penelitian sebelumnya dan metode perbaikan pencocokan yang diusulkan telah dapat meningkatkan performa dari hasil identifikasi menggunakan original SIFT. Pendekatan SURF dengan pengukuran kecocokan yang diusulkan pada data foto pola monconng menghasilkan hasil yang stabil dan lebih baik dari pada pendekatan sebelumnya. Penggunaan metode penggabungan dua sumber ciri biometrik dengan memperhatikan nilai derajat kepercayaan dan nilai voting meningkatkan performa dari sistem biometrik bersumber tunggal. Berdasarkan hasil eksperimen yang telah didapatkan, penggunaan biometrik hewan sebagai alat identifikasi otomatis sangat menjanjikan walaupun masih banyak hal yang harus diteliti dan dikembangkan.

The cattle identification problem is an important issue in a cattle registration and traceability in order to fulfill the security and resilience cattle's products. The usage of artificial marker was a feasible mean for identification although it had a several limitations. The animal biometric gives the solution of this limitations. Several investigations related with issues of identification based on biometric have been done although still have problems.
The biometrics used in this research are muzzle pattern and face photo. The muzzle and face biometric of cattle have been collected from Balinese Cow and Hybrid Ongole Cow. The choice of muzzle and face biometric is because of the research opportunities and a relatively cheap way in the data gathering. The SIFT approach in the muzzle pattern lifted on paper data has shown a significantly better performance than the two previous research and the proposed matching refinement has increased the performance of the identification result. The SURF approach using proposed similarity measurement in the muzzle pattern photo has provided a stable result and also a better result than the previous approach. The proposed biometric fusion using the degree of confidence and voting value has increased the performance of the unimodal biometric system. Based on the experiment results, the automatic identification based on animal biomatrics has a promising result although there are many things that have to be investigated and developed next."
Depok: Universitas Indonesia, 2013
T32135
UI - Tesis Membership  Universitas Indonesia Library
cover
Andry Sunandar
"Telah dilakukan penelitian terhadap pengembangan algoritma FNGLVQ sehingga memiliki karakteristik adaptif terhadap data input sehingga besaran perubahan vektor referensi memiliki besaran nilai yang adaptif. Karakteristik adaptif didapatkan dengan melakukan modifikasi terhadap perubahan update bobot dengan melakukan penurunan fungsi keanggotaan fuzzy tidak hanya terhadap parameter mean (yang dilakukan pada FNGLVQ awal) namun penurunan dilakukan terhadap kedua nilai min dan max sehingga besaran perubahan nilai min dan max akan bervariasi (tidak konstan seperti FNGLVQ) yang tergantung dari besaran input yang digunakan.
Karakteristik ini dapat meningkatkan akurasi dalam percobaan dalam ketiga jenis data, yakni data EKG Aritmia, data pengenalan Aroma dengan 3 campuran, serta data Sleep secara keseluruhan, namun perbedaan nilai akurasi terbesar didapatkan dari pengujian data pengenalan aroma 3 campuran. Pengembangan karakteristik adaptif terhadap algoritma FNGLVQ dilakukan dengan kedua jenis fungsi keanggotaan yakni fungsi keanggotaan segitiga dan fungsi keanggotaan PI, dan FNGLVQ adaptif dengan fungsi keanggotaan PI sedikit lebih baik dibandingkan FNGLVQ adaptif dengan fungsi keanggotaan segitiga.

This research has been conducted on the development of FNGLVQ algorithms which have adaptive characteristics to the input data so that the amount of change in the reference vector has a magnitude of adaptive value. Adaptive characteristics are obtained by modifying the update changes the weight by doing a fuzzy membership function derivation. This is not only performed on the parameters of the mean (which is done at the beginning FNGLVQ) but they are derivated to both min and max values so that the amount of change in the weight and is continued with min and max values will vary (not constant as in the case of FNGLVQ) which in turn depends on the amount of inputs used.
These characteristics may increase the accuracy of the experiment in all three types of data, including data Arrhythmia ECG, data recognition Aroma with 3 mix, as well as overall Sleep data, but the biggest difference is the accuracy of values which have obtained from the test for 3 mixed aroma data recognition. Development of adaptive characteristics of the algorithm FNGLVQ has been performed with both types of membership functions namely triangular membership functions and PI membership functions, and FNGLVQ PI adaptive membership functions has been found to be slightly better than FNGLVQ adaptive triangular membership functions.
"
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2013
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
I Putu Satwika
"Alat Ultrasonografi (USG) merupakan alat yang paling sering digunakan untuk melakukan pemeriksaan janin dalam kandungan. Hal ini dikarenakan selain mampu memberikan gambaran terhadap keadaan janin dengan baik, alat ini bebas dari radiasi ionisasi sehingga tergolong aman.
Penelitian ini bertujuan untuk mengembangkan metode yang mampu melakukan proses deteksi dan pengukuran biometri janin secara otomatis khususnya biometri kepala janin. Adapun biometri tersebut adalah head circumference (HC) dan biparietal diameter (BPD) yang merupakan salah satu parameter yang sering digunakan oleh dokter untuk mengetahui umur serta pertumbuhan janin dalam kandungan. Kedua biometri ini dapat diukur dengan melakukan aproksimasi terhadap bentuk elips. Untuk melakukan proses ini maka diperlukan tahapan dimulai dengan melakukan segmentasi citra dengan teknik thresholding. Selanjutnya dilakukan proses deteksi menggunakan metode Particle Swarm Optimization (PSO) dengan memanfaatkan fitness function yang diperoleh dari hasil vote menggunakan metode Randomized Hough Transform (RHT).
Hasil pengukuran oleh sistem dibandingkan dengan hasil pengukuran secara manual oleh pakar. Uji coba juga dilakukan terhadap data sintetis dengan density noise 0,1 hingga 0,7. Dari hasil eksperimen diperoleh bahwa metode yang dikembangkan lebih baik daripada metode RHT, IRHT dan mEPSOHT untuk melakukan deteksi elips pada citra tersebut.
Hasil eksperimen terhadap data sebenarnya yaitu USG 2D kepala janin diperoleh hasil rata-rata nilai hit dari metode yang dikembangkan lebih tinggi daripada metode lainnya namun hasil interrun dan interobserver variation tidak lebih baik dari metode lainnya. Hal ini dikarenakan metode yang dikembangkan lebih cenderung untuk terjebak pada local best dan tidak selalu tepat untuk melakukan deteksi pada citra kepala janin.

The application in ultrasonography (USG) is a tool that most often used to examine fetus in the womb. At this study will perform image processing on biomedical images especially for fetus in the womb using two dimensional ultrasound device (USG 2D).
The aim of this study is to develop a system that is capable to perform detection and measurement of fetal biometry automatically. The biometric used in this research consists of head circumference (HC) and biparietal diameter (BPD) analysis. BPD and HC are parameters which are often used by doctors to determine the state of the fetus in the womb. Both biometric parameters can be measured by performing an approximation of the elliptical shape. To do this process, it is necessary to start from segmentation images by thresholding techniques. After preprocessing is completed then the next stage of the detection process is carried out by using Particle Swarm Optimization (PSO). PSO fitness function is obtained from voting in Randomized Hough Transform (RHT) method.
The measurement results by proposed method are then compared with the results obtained manually by experts. A trial has also been conducted on the synthetic data with noise density 0.1 to 0.7. Experiment results show that the proposed method is better than the other methods e.g. RHT, mEPSOHT and IRHT in detecting ellipse. Further trials have been conducted on actual data i.e. 2D ultrasound fetal head data.
From the experiement we have found that the average hit value of our proposed method is higher than other methods. However, the results of interrun and interobserver variation are not better than others. This is because our developed method is more likely to be trapped in local best and doest not always correctly detect ellipse of the fetal head images.
"
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2013
T-Pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Teny Handhayani
"Integrasi data gene expression dan DNA copy number berbasis kernel digunakan untuk menganalisis pola gen pada penyakit kanker payudara cell line. Clustering pada data integrasi dilakukan tanpa adanya informasi jumlah k cluster, teknik ini disebut fully unsupervised clustering. Pada penelitian ini, intelligent kernel K-Means dikembangkan dengan menggabungkan teknik intelligent K-Means dan kernel K-Means. Berdasarkan hasil eksperimen, nilai pada kernel RBF mempengaruhi jumlah cluster yang ditemukan. Hasil clustering dievaluasi menggunakan nilai R, global silhouette, indeks Davies-Bouldien, akurasi LS-SVM dan visualisasi. Hasil esperimen terbaik yaitu 3 cluster yang memperoleh akurasi LS-SVM sebesar 97.3% dengan standar deviasi 0.2%.

In this thesis, kernel based data integration of gene expression and DNA copy number would be utilized to analyze pattern of genes in breast cancer cell line. The cluster analysis on the integrated data will be conducted with has no prior information with regards the number of k clusters which is called fully unsupervised clustering technique. In this work, intelligent kernel K-Means is proposed by combining intelligent K-Means and kernel K-Means. From the experiments, the value of of Radial Basis Function (RBF) has important role for finding the optimal of number of cluster. The clusters those to be found will be evaluated based on global silhouette, Davies-Bouldien Index, LS-SVM accuracy and visualization. The experiment result show that three clusters are successfully to be found. Those clusters produce average accuracy of LS-SVM around 97.3 % with standard deviation 0.2 %."
Depok: Universitas Indonesia, 2013
T-Pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Eka Puji Widiyanto
"ABSTRAK
Elektrokardiogram (EKG) merupakan mekanisme yang dipergunakan untuk melakukan pemeriksaan kondisi jantung. EKG menghasilkan sinyal listrik yang menggambarkan aktivitas jantung. Penelitian ini akan melakukan pengolahan data EKG yang diambil secara langsung dari pasien sehingga siap untuk ditransmisikan. Untuk mengoptimalkan prosesnya maka data yang dikirimkan dikompresi sedemikian rupa tanpa mendistorsi informasi aslinya. Penelitian sebelumnya mengindikasikan bahwa untuk mencapai rasio kompresi optimal maka sinyal harus disusun sedemikian rupa sehingga menghasilkan regularitas yang tinggi. Akuisisi data dilakukan dengan ADC 24 bit, dilanjutkan penghilangan derau dan ekstraksi beat menggunakan teknik Multi Resolution Wavelet Analysis dengan Lifting Scheme dan normalisasi data. Pengurutan berbasis normalized cross correlation dilakukan sehingga diperoleh data dengan koefisien wavelet yang regularitasnya optimal. Hasil pengujian pada 10 record dari St. Petersburg INCART 12-lead Arrhythmia Database (incartdb) – PhysioNet menunjukkan bahwa penggunaan metode sorting ini dapat menurunkan distorsi sinyal hasil kompresi dengan rerata 3,76% dan perbedaan amplitudo sebesar 0,03mV dibandingkan tanpa sorting pada kompresi sinyal yang tinggi. Simplisitas metode yang dikembangkan memungkinkan implementasi pada platform embedded dengan kapabilitas komputasi yang terbatas.
ABSTRACT
Electrocardiogram (ECG) is common mechanism to monitor heart activity in form of electrical waveform. This research will process ECG signal directly from patient and process it to be ready for transmission. For optimum transmission, signal compression must be done with minimum original information distortion. And to achieve optimum compression rate, high signal regularity is a must. Data acquisition for the system is realized with 24 bit high resolution ADC, continued with noise elimination and beat extraction using Multi Resolution Wavelet Analysis with Lifting Scheme to achieve fast operation cycle. Periode normalization is implemented to the clean signal. Clean normalized signal is sorted using normalized cross correlation method to achieve optimum regularity signal in its wavelet coefficient. Test result on 10 records from St. Petersburg INCART 12-lead Arrhythmia Database (incartdb) – PhysioNet shows that the implemented sorting method can decrease reconstructed signal distortion by mean of 3.76% with amplitude difference of 0.03mV compare to its unsorted form in high compression ratio. The method simplicity offering efficient implementation on embedded system with minimum computation and resources capability."
2013
T-Pdf
UI - Tesis Membership  Universitas Indonesia Library
<<   1 2 3   >>