Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 97 dokumen yang sesuai dengan query
cover
Mochamad Ivan Janitra Rama
"Distribusi Weibull digunakan untuk menyelesaikan masalah-masalah yang menyangkut lama waktu suatu objek yang mampu bertahan hingga akhirnya objek tersebut tidak berfungsi (dengan kata lain rusak atau mati). Distribusi Weibull merupakan salah satu solusi untuk masalah fleksibilitas yang tidak dimiliki oleh distribusi Exponensial, yaitu hanya memiliki bentuk fungsi hazard yang konstan. Dalam melakukan inferensi dari kasus yang dimodelkan dengan distribusi Weibull, perlu dilakukan penaksiran terhadap parameternya. Distribusi Weibull dua parameter memiliki parameter skala dan parameter shape. Pada skripsi ini, akan dilakukan penaksiran parameter skala dari distribusi Weibull pada data terpancung kiri dan tersensor kanan dengan asumsi bahwa parameter shape diketahui menggunakan metode Bayesian. Prosedur dalam penaksiran parameter meliputi penentuan distribusi prior, fungsi dan distribusi posterior. Kemudian penaksir titik Bayes diperoleh dengan meminimumkan ekspektasi dari fungsi. Fungsi yang digunakan adalah Squared Error Loss Functio (SELF) dan Precautionary Loss Function (PLF). Kemudian dilakukan simulasi data untuk membandingkan nilai Mean Squared Error (MSE) dari taksiran parameter skala menggunakan fungsi. Hasil simulasi menunjukan bahwa taksiran parameter menggunakan fungsi memiliki nilai MSE yang lebih kecil untuk parameter skala lebih kecil atau sama dengan satu sedangkan taksiran parameter menggunakan fungsi PLF memiliki nilai MSE yang lebih kecil untuk parameter skala lebih besar daripada satu.

Weibull distribution is used to solve problems that involve the length of time an object is able to survive until the object is not function (in other words damaged or dead). Weibull distribution is one of many solutions to the flexibility problem that is not owned by an Exponential distribution, which only has the form of a constant hazard function. In making inferences from cases modeled with the Weibull distribution, it is necessary to estimate the parameters. The two-parameter Weibull distribution has a scale parameter and a shape parameter. In this thesis, the scale parameter of the Weibull distribution will be estimated on left truncated and right censored data assuming that the shape parameter are known using Bayesian method. The procedure in parameter estimation includes the determination of the prior distribution, the likelihood function and the posterior distribution. Then the point estimator of the scale parameter is obtained by minimizing the expectation of loss function. The loss function used in this thesis are Squared Error Loss Function (SELF) and Precautionary Loss Function (PLF). Data simulation is done to compare the value of Mean Squared Error (MSE) from the estimated parameters using SELF and PLF. The simulation result shows that the estimated parameter using SELF has a smaller MSE value for scale parameter below or equal one while the estimated parameter using PLF has a smaller MSE value for scale parameter above one."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2019
S-Pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Margaretha
"Distribusi Exponentiated Exponential (EE) adalah pengembangan dari distribusi Exponential dengan cara menambahkan sebuah parameter bentuk alpha. Distribusi ini digunakan untuk mengatasi masalah ketidakfleksibilitas dari distribusi Exponential. Untuk melakukan inferensi mengenai permasalahan yang dimodelkan dengan distribusi EE, perlu dilakukan penaksiran parameter. Pada skripsi ini akan dibahas mengenai penaksiran parameter distribusi dari distribusi Exponentiated Exponential pada data tersensor kiri menggunakan metode Bayesian. Prosedur penaksiran meliputi penentuan distribusi prior yaitu digunakan distribusi prior konjugat, pembentukan fungsi likelihood dari data tersensor kiri, dan pembentukan distribusi posterior. Penaksir Bayes kemudian diperoleh dengan cara meminimumkan risiko posterior berdasarkan fungsi loss Squared Error Loss Function (SELF) dan Precautionary Loss Function (PLF). Kemudian setelah diperoleh perumusan penaksir Bayes, simulasi data dilakukan untuk membandingkan hasil taksiran parameter menggunakan fungsi loss SELF dan PLF yang dilihat dari nilai Mean Square Error (MSE) yang dihasilkan. Fungsi loss dikatakan lebih efektif digunakan dalam merumuskan penaksir Bayes apabila penaksir Bayes yang diperoleh menghasilkan nilai MSE yang lebih kecil. Berdasarkan hasil simulasi, fungsi loss PLF lebih efektif digunakan untuk alpha≤1, sedangkan fungsi loss SELF lebih efektif digunakan untuk alpha>1.

Exponentiated Exponential (EE) distribution is the development of Exponential Distribution by adding alpha as a shape parameter. This distribution can solve unflexibility issue in Exponential distribution. In order to make inferences about any cases modeled with EE distribution, parameter estimation is required. This thesis will discuss about parameter estimation of Exponentiated Exponential distribution for left censored data using Bayesian method. Parameter estimation procedure are selection of prior distribution which is conjugate prior, likelihood construction for left censored data, and then forming posterior distribution. Bayes estimator can be obtained by minimize posterior risk based on Squared Error Loss Function (SELF) and Precautionary Loss Function (PLF). After Bayes estimator is obtained, simulation is done to compare the results of Bayes estimator using SELF and PLF which are seen from the result of Mean Square Error (MSE). Loss function is said to be more effective to obtain Bayes estimator if the resulting Bayes estimator yield smaller MSE. Based on simulation, PLF more effective for alpha ≤ 1, while SELF more effective for alpha>1."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2019
S-Pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Lukas Hansel Briliano
"Distribusi Burr Tipe XII atau yang biasa dikenal dengan distribusi Burr merupakan salah satu dari dua belas tipe distribusi kontinu dalam sistem Burr. Distribusi Burr mempunyai karakteristik menceng kanan dan mempunyai tail yang tebal. Distribusi Burr dapat diterapkan dalam berbagai masalah survival. Untuk mempelajari lebih lanjut, perlu dilakukan penaksiran parameter. Pada skripsi ini akan dibahas mengenai penaksiran parameter distribusi Burr pada data tersensor kanan dengan metode Bayes. Prosedur penaksiran adalah dengan menentukan distribusi prior yang digunakan, yaitu conjugate prior, pembentukan fungsi likelihood untuk data tersensor kanan dan pembentukan distribusi posterior. Penaksir Bayes didapatkan dengan cara meminimumkan fungsi risiko posterior berdasarkan fungsi loss. Fungsi loss yang digunakan adalah Square Error Loss Function (SELF) dan Precautionary Loss Function (PLF). Setelah didapatkan penaksir Bayes, dilakukan simulasi data untuk membandingkan keefektifan taksiran parameter dari kedua fungsi loss menurut Mean Square Error (MSE). Yang dimaksud penaksir yang efektif adalah penaksir yang mempunyai MSE lebih kecil. Selain itu dilihat juga pengaruh intensitas tersensor pada kedua fungsi loss menurut MSE. Berdasarkan hasil simulasi, penaksir Bayes dengan PLF lebih efektif daripada SELF dan semakin besar intensitas tersensor maka MSE yang dihasilkan semakin besar untuk kedua fungsi loss.

Burr Type XII distribution is known as Burr distribution, is one of the twelve types continous distribution on Burr system. Burr distribution is heavy-tailed and right-skewed. Burr distribution has an important role in survival analysis. To learn more, parameter estimation is needed. This study will explain about parameter estimation of Burr distribution for right censored data with Bayes method. Procedure for estimating parameter are, determine which prior distribution to use, that is conjugate prior, likelihood function construction for right censored data and calculation of posterior distribution. Bayes estimator is obtained by minimize posterior risk function based on loss function. This study will use Square Error Loss Function (SELF) and Precautionary Loss Function (PLF). After Bayes estimator is obtained, simulation will be done to compare the effectiveness of Bayes estimator with both loss function according to Mean Square Error (MSE). What is meant by effective estimator is it has smaller MSE. Besides, this study is also explained the effect of the censored intensity according to MSE. Based on simulation results, Bayes estimator with PLF is more effective than SELF and greater censored intensity, greater MSE produced, for both loss function."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2019
S-Pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Dea Kristina
"Kementrian Kesehatan menyatakan Indonesia sudah memasuki kondisi ageing population, dimana kondisi tersebut ditandai dengan kenaikan persentase penduduk lanjut usia (lansia). Kondisi tersebut tentunya memerlukan perhatian khusus dari pemerintah. Demensia adalah istilah medis untuk menggambarkan gejala penurunan memori dan fungsi kognitif pada tubuh manusia. Indonesia termasuk sepuluh negara dengan jumlah penderita orang dengan demensia (ODD) tertinggi di dunia, dan pada tahun 2050 jumlahnya diprediksi mencapai empat juta jiwa. Prediksi tersebut dibuat berdasarkan perbandingan jumlah lansia di Indonesia dengan jumlah ODD di seluruh dunia. Penelitian bertujuan untuk mengetahui peran dari masing-masing uji klinis untuk mengidentifikasi penderita ODD dan mereduksi komponen uji klinis yang memiliki peran kontribusi rendah. Data yang digunakan adalah data uji klinis NIFD (Neuroimaging in Frontotemporal Dementia). Metode yang akan digunakan adalah Principal Component Analysis (PCA), dimana metode ini bertujuan untuk melihat komponen uji klinis yang memberikan peran kontribusi dalam mengidentifikasi penderita ODD. Selain itu, akan dilakukan proses imputasi missing value dengan menggunakan algoritma pengembangan dari PCA, yaitu SVD-Impute dan PPCA. Setelah dilakukan tiga kali iterasi, pengujian menunjukan bahwa metode PPCA lebih baik dalam melakukan imputasi missing value dibandingkan dengan metode SVDImpute berdasarkan nilai NRMSE dan koefisien korelasi Pearson.

The Ministry of Health stated that Indonesia had entered a condition of an aging population, where an increase in the proportion of older people marks this condition. This condition certainly requires special attention from the government. Dementia is a medical term to describe symptoms of decreased memory and cognitive function in the human body. Indonesia is one of the ten countries with the highest number of people with dementia in the world, and by 2050 it is predicted to reach four million people. This prediction was based on comparing the number of older people in Indonesia with those with dementia worldwide. The research aims to determine each clinical trial's role in identifying people with dementia and reducing the components of clinical trials with a low role contribution. The data used is NIFD (Neuroimaging in Frontotemporal Dementia) clinical trial data. The method used is Principal Component Analysis (PCA), which aims to see clinical component tests that contribute to identifying people with dementia. In addition, the missing value imputation process will be carried out using the development algorithm from PCA, SVD-Impute and PPCA. After three iterations, the test showed that the PPCA method was better at imputing missing values than the SVDImpute method based on the NRMSE value and Pearson's correlation coefficient."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Siti Salma Hasanah
"ABSTRACT
Model hurdle adalah model alternatif untuk mengatasi penyebaran berlebihan (varians datanya adalah lebih tinggi dari nilai rata-rata) yang disebabkan oleh kelebihan nol. Model rintangan dapat memodelkan secara terpisah variabel respons yang memiliki nilai nol dan positif, melibatkan dua proses yang berbeda. Proses pertama adalah proses biner yang menentukan apakah variabel respon memiliki nilai nol atau nilai positif, dan dapat dimodelkan dengan biner model, menggunakan regresi logistik. Untuk variabel respons positif, kemudian lanjutkan ke proses kedua, yaitu proses yang hanya mengamati jumlah positif. Yang positif count dapat dimodelkan dengan model Zero-Truncated menggunakan regresi Poisson. Rintangan model juga dikenal sebagai model dua bagian. Estimasi parameter menggunakan Bayesian metode. Kombinasi informasi sebelumnya dengan informasi dari data yang diamati membentuk distribusi posterior yang digunakan untuk memperkirakan parameter. Distribusi posterior bentuk yang diperoleh tidak tertutup, sehingga diperlukan teknik komputasi, yaitu Markov Chain Monte Carlo (MCMC) dengan algoritma Gibbs Sampling. Metode ini diterapkan
ke data Parkinson untuk memodelkan frekuensi komplikasi motorik pada 300 Parkinsonpasien. Data tersebut digunakan dari Parkinson's Progressive Markers Initiative (PPMI, 2018). Hasil yang diperoleh adalah MDS-UPDRS (Movement Disorder Society-Unified Skala Peringkat Penyakit Parkinson) bagian 1, MDS-UPDRS bagian 2, dan MDS-UPDRS bagian 3 terkait secara signifikan MDS-UPDRS bagian 4 di kedua tahap.

ABSTRACT
The obstacle model is an alternative model for overcoming excessive spread (the data variant is higher than the average value) which is questioned by zero excess. The obstacle model can separately model response variables that have zero and positive values, involving two different processes. The first process is a binary process that determines whether the response variable has a zero value or a positive value, and can be modeled with a binary model, using logistic regression. For positive response variables, then proceed to the second process, which is a process that is only positive. The positive one calculated can be modeled with a Zero-Truncated model using Poisson regression. The Obstacle Model is also known as the two part model. Parameter estimation using the Bayesian method. The combination of previous information with information from data collected collects the distributions used for parameter estimation. The posterior distribution of the obtained form is not closed, computational techniques are needed, namely Markov Chain Monte Carlo (MCMC) with Gibbs Sampling algorithm. This method is applied to Parkinson's data to model the frequency of motor complications in 300 Parkinson's patients. The data is used from Parkinson's Progressive Markers Initiative (PPMI, 2018). The results obtained are MDS-UPDRS (Movement Disorder-Community Parkinson's Disease Assessment Scale) part 1, MDS-UPDRS part 2, and MDS-UPDRS part 3 which significantly related MDS-UPDRS part 4 in both glasses.
"
2019
S-Pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Muhammad Rias Agnini Majdi
"Jenis-jenis alat musik yang digunakan dalam suatu musik adalah salah satu cara menjelaskan musik tersebut. Skripsi ini membahas penggunaan ekstraksi fitur MFCC dan metode klasifikasi k-NN untuk mengklasifikasi alat musik berdasarkan suara yang dihasilkannya. MFCC merupakan sebuah metode yang mampu mengolah sebuah data suara sehingga menghasilkan beberapa fitur yang bersifat numerik. k-NN merupakan sebuah metode klasifikasi yang menggunakan jarak dari fitur tiap-tiap observasi. Pengerjaan skripsi dilakukan dengan mengekstraksi fitur dari data-data suara yang tersedia dengan MFCC lalu menggunakan fitur-fitur yang diekstraksi tersebut untuk metode klasifikasi k-NN. Data yang digunakan adalah data suara alat musik yang tersedia pada dataset Philharmonia Orchestra Sound Samples. Hasil dari penerapan metode klasifikasi k-NN pada skripsi ini menunjukkan bahwa model k-NN mampu meraih nilai akurasi hingga 94,84%.



Instrumentation is one way to describe a music. This study discusses the use of MFCC feature extraction and k-NN classification method to classify instruments by the sound they produce. MFCC is a method capable of processing a sound data into a set of numeric features. k-NN is a classification method that uses the distance of the features of each observations. The process of this study uses MFCC to extract the features of available sound data and use these extracted features to fit a k-NN model. The data used in this study are the sound data available in the Philharmonia Orchestra Sound Samples dataset. The result of k-NN model fitting in this study shows that the model is capable of reaching an accuracy of 94.84%.

"
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2020
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Nabilla Ayu Fauziyyah
"ABSTRACT
Dewasa ini, sudah banyak rumah sakit modern yang dilengkapi dengan peralatan monitoring yang lengkap, yang menyebabkan makin banyaknya data medis yang tersimpan. Data medis ini memiliki karakteristik khusus, dan biasanya metode statistika biasa tidak dapat diterapkan begitu saja. Dari sinilah kemudian muncul gagasan mengenai Medical Data Mining (MDM) yang sudah terbukti cocok untuk diterapkan dalam analisis data medis. Naive Bayes Classifier (NBC) merupakan salah satu implementasi dari MDM. Kendati terbukti memiliki hasil yang akurat dan memuaskan dalam proses diagnosis medis, metode-metode dalam MDM belum sepenuhnya diterima dalam praktek medis untuk diterapkan. Alasan utama mengapa metode ini belum dapat diterima adalah karena terdapatnya resistansi dari tenaga medis terhadap metode diagnosis yang baru. Tujuan dari penelitian ini adalah untuk menerapkan dan mengevaluasi performa NBC  pada data rekam medis pasien kanker payudara di salah satu rumah sakit di Jakarta dalam masalah klasifikasi subtipe molekular kanker payudara, serta membandingkan hasil klasifikasi NBC dengan metode MDM lain, yaitu Decision Tree (DT). Hasil analisis menunjukkan bahwa NBC mengungguli DT dengan tingkat akurasi sebesar 92,8%. Selain itu, dapat juga ditunjukkan secara empiris bahwa NBC mampu menangani missing value dengan cukup baik dan tidak membutuhkan data dalam jumlah banyak untuk tetap dapat mengklasifikasikan sebagian besar pasien dengan benar.

ABSTRACT
Nowadays, modern hospitals are well equipped with data monitoring devices, which resulted in an abundant amount of medical data. These medical data possess specific characteristics and usually, statistical methods could not be applied directly. This is what started the notion of Medical Data Mining (MDM), which has proven to be effective in analysing medical data. Naive Bayes Classifier (NBC) is an implementation of MDM. Even though MDM methods produce a sufficiently accurate and satisfying results in diagnosis problems, these methods are still not well accepted in the medical practice. One of the main reasons is because there is a resistance of physicians to a new diagnosis method. The main goal of this study is to apply and evaluate the performance of NBC in classifying breast cancer patients in a private hospital in Indonesia into five classes of molecular subtypes and compare its performance with another popular MDM method, Decision Tree (DT). Results showed that NBC outperformed DT by reaching an accuracy rate of 92.8%. This study could also show empirically that NBC does not need a big dataset to be able to achieve a high accuracy rate and that NBC could handle the problem of missing values just fine."
2019
S-Pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Dheni Triadi Sudewo
"Tugas akhir ini membahas mengenai penentuan distribusi dari banyaknya 'hit' kerandoman barisan bilangan biner pada metode Overlapping Template Mathcing Test. Metode ini merupakan suatu metode yang terfokus pada sering atau tidaknya muncul 'pola' acak pada tiap blok barisan bilangan biner dengan menggunakan suatu template. Penentuan distribusi ini dimulai dengan menggunakan distribusi Compound Poisson , lebih khusus lagi menggunakan distribusi Geometric Poisson. Lebih lanjut lagi digunakan transformasi Confluent Hypergeometric Function (Kummer's Function). Selain itu, dalam tugas akhir ini juga diberikan ilustrasi dalam menguji kerandoman barisan bilangan biner dengan menggunakan metode Overlapping Template Mathcing Test.

This paper discusses about determining distribution number of hit of bit sequence randomness in Overlapping Template Matching Test. This method focusses on how often the pattern appears in each blok of bit sequence by using a template. This determining distribution starts by using Compound Poisson distribution, specifically by using Geometric Poisson distribution. Moreover, Confluent Hypergeometric Function is used as transformation's method. Besides, this paper also gives illustration about how to test the randomness of bit sequence using Overlapping Template Matching Test."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2011
S1042
UI - Skripsi Open  Universitas Indonesia Library
cover
Roni Tua Yohanes
"Pada penelitian survival, kadang kala survival time dipengaruhi oleh faktor-faktor lain. Untuk kondisi tersebut dapat digunakan metode analisis regresi dengan model Cox PH. Dari model Cox ini, diperoleh bahwa hazard ratio untuk dua individu dengan nilai kovariat yang berbeda tidak akan dipengaruhi oleh waktu. Atau dengan perkataan lain, hazard untuk satu individu proporsional dengan hazard individu lainnya dengan keproporsionalan yang konstan, tidak dipengaruhi oleh waktu. Oleh sebab itu, ketika diterapkan pada data harus diperiksa apakah asumsi tersebut terpenuhi. Pengecekan asumsi proportional hazard akan dilakukan dengan dua pendekatan. Pendekatan yang pertama dengan grafik, yaitu grafik log-log, dan yang kedua dengan pengujian goodness-of-fit. Metode grafik memberikan hasil yang subjektif sedangkan pengujian goodness-of-fit memberikan hasil yang objektif berdasarkan pengujian statistik.

In survival studies, sometimes the time until the occurrence of an event is influenced by other factors. Cox PH model, which is one of the semi parametric regression method can be applied for the data analysis. From this Cox model, it is found that the hazard ratio for two individuals with different covariates not be affected by time. In other words, hazard for an individual is proportional with hazard from another individual with constant proportionality, not affected by the time. Therefore, when applied to the data, it should be checked whether the assumptions are met. The assumption of proportional hazard will be checked using two approaches. The first approach using graph, the log-log graph, and the second by testing the goodness-of-fit. Graphical method gives subjective results while the goodness-of-fit testing gives objective results based on statistical testing."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2011
S886
UI - Skripsi Open  Universitas Indonesia Library
cover
Isna Nur Aini
"Extended cox model adalah perluasan dari model cox yaitu dengan melibatkan variabel yang bergantung pada waktu. Model ini digunakan untuk memperbaiki model cox proportional hazard apabila satu atau lebih covariate tidak memenuhi asumsi proportional hazard. Covariate yang tidak memenuhi asumsi proportional hazard dalam extended cox model diinteraksikan dengan fungsi waktu, sehingga diperoleh covariate yang bergantung pada waktu. Sehingga pada model terdapat covariate yang tidak bergantung pada waktu dan covariate yang bergantung pada waktu. Parameter-parameter dari covariate tersebut ditaksir dengan menggunakan metode maksimum partial likelihood. Untuk mengetahui apakah extended cox model adalah model yang sesuai untuk suatu data dalam kasus tertentu, digunakan uji ratio likelihood. Sebagai contoh penerapan digunakan data berupa waktu seorang pasien mengalami infeksi pada ginjal setelah dilakukan transplantasi ginjal, dengan covariate yang diperhatikan yaitu pemasangan catheter pada ginjal pasien. Diperoleh hasil bahwa model yang sesuai untuk data tersebut adalah extended cox model.

Extended cox model is an extension of cox model by constructing time-dependent covariates that can be added to the model. This model is used to adjust the cox proportional hazard model if one or more covariates do not satisfy the proportional hazard assumption. Covariates, which do not satisfy the proportional hazard assumption, in extended cox model, are interacted with time function, so that time-dependent variables are obtained. Therefore, the model contains both time-independent and time-dependent covariates. Parameters of these covariates are estimated by maximum partial likelihood method. To find out whether extended cox model is better than cox proportional hazard model, ratio likelihood test is used. As the example, data of the period of time a patient suffering kidney infection after having kidney transplantation, with the concerned covariate is placed catheter in patient?s kidney. The result showed that extended cox model is appropriate for the data."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2011
S997
UI - Skripsi Open  Universitas Indonesia Library
<<   1 2 3 4 5 6 7 8 9 10   >>