Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 92 dokumen yang sesuai dengan query
cover
Nalendra Dwimantara
"

Kambuhnya kanker payudara bergantung pada stadium tumor awal, terapi yang dilakukan sebelumnya, dan tumor biologi. Pengukuran darah lengkap merupakan salah satu pemeriksaan laboratorium yang relatif murah, mudah dan efektif dalam mendiagnosis kanker. Analisis regresi kesulitan dalam membuat kesimpulan dari data yang mengandung sejumlah besar variabel penjelas yang saling berkorelasi. Profile regression mengadopsi sudut pandang yang lebih global, dimana kesimpulan didasarkan pada kelompok yang mewakili pola variabel penjelasnya. Pengelompokan dilakukan untuk menganalisis suatu data dengan melihat karakteristik tiap pengamatan pada data. Suatu data jika dibagi menjadi beberapa kelompok mengartikan data tersebut memiliki karakteristik pengamatan yang berbeda-beda. Analisis pada data yang heterogen bertujuan untuk mengidentifikasi subpopulasi yang homogen dan menentukan hubungan antar variabel dalam setiap subpopulasi. Finite Mixture Model (FMM) dengan pendekatan Bayesian digunakan untuk mengidentifikasi subpopulasi dari pasien kanker payudara berdasarkan pengukuran darah. Berdasarkan nilai Deviance Information Criterion (DIC) didapatkan bahwa subpopulasi yang terbentuk untuk data rasio pengukuran darah pasien kanker payudara adalah dua subpopulasi. Peluang pasien mengalami kekambuhan pada subpopulasi 1 sebesar 35% dan 72% pada subpopulasi 2. Sedangkan subpopulasi yang terbentuk untuk data inter-rasio pengukuran darah pasien kanker payudara yang terbentuk adalah dua subpopulasi. Peluang pasien mengalami kekambuhan pada subpopulasi 1 sebesar 9% dan 3% pada subpopulasi 2.


Recurrence of breast cancer depends on the initial tumor stage, previous therapies, and biological tumors. A complete blood test is one of the relatively inexpensive, easy and effective laboratory tests in diagnosing cancer. Simple regression analysis has difficulties in drawing conclusions from data that contain large numbers of explanatory variables that are correlated.  Profile regression adopts a more global perspective, where conclusions are based on groups representing covariate patterns. Clustering method aims to analyze data by looking at the characteristics of each observation in the data. If the data is divided into groups, that means that the data has different observational characteristics. Analysis of heterogeneous data purposes to identify homogeneous subpopulations and determine the relationships between variables in each subpopulation. Finite Mixture Model (FMM) with Bayesian approach is used to identify subpopulations of breast cancer patients based on blood measurements. Based on the value of the Deviance Information Criterion (DIC), it was found that the number of subpopulations formed for the data of the ratio of blood measurements for breast cancer patients are two subpopulations.  The probability of patients experiencing recurrence in subpopulation 1 was 35% and 72% in subpopulation 2. Whereas the number of subpopulations formed for the data of the inter-ratio data of breast cancer patients formed are also two subpopulations.  The probability of patients experiencing recurrence in subpopulation 1 is 9% and 3% in subpopulation 2.

"
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2020
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
I Gede Pajar Bahari
"Metode Machine Learning sangat bermanfaat untuk menyelesaikan berbagai masalah, terutama pada masalah big data. Salah satu masalah yang terkait dengan big data adalah prediksi klaim asuransi di industri asuransi. XGBoost adalah metode machine learning yang menggunakan pendekatan ensemble learning dengan decision tree sebagai model dasarnya. XGBoost terdiri dari beberapa hyperparameter yang nilainya perlu ditentukan sebelum proses training. Partial grid search adalah optimasi hyperparameter yang biasanya digunakan untuk XGBoost. Random search adalah optimasi hyperparameter yang menentukan nilai hyperparameter secara random. Pada penelitian ini, diterapkan dan dianalisis metode pengoptimalan lain untuk XGBoost, yaitu Bayesian search untuk prediksi pengajuan klaim asuransi (dengan klasifikasi) dan besarnya klaim asuransi yang diajukan (dengan regresi). Tujuan dari penelitian ini yaitu membandingan performa ketiga metode optimasi hyperparameter pada XGBoost: random search, partial grid search, dan Bayesian search pada klasifikasi dan regresi. Hasil simulasi menunjukkan bahwa partial grid search memberikan akurasi yang sedikit lebih baik dibandingkan dengan random search dan Bayesian search. Namun, waktu running pada Bayesian search jauh lebih cepat daripada partial grid search. Random search memiliki akurasi dan waktu komputasi yang sedikit kurang bagus dibandingkan dengan Bayesian search.

Machine Learning Method is very useful for solving various problems, especially in the big data problem. One of the problems associated with big data is the prediction of insurance claims in the insurance industry. XGBoost is a machine learning method that uses an ensemble learning approach with a decision tree as its basic model. XGBoost consists of several hyperparameters which values need to be determined before the training process. Partial grid search is a hyperparameter optimization approach which is usually used for XGBoost. Random search is a hyperparameter optimization method which determines the value of hyperparameter randomly. In this study, another optimization method for XGBoost called Bayesian search is applied and analyzed for predicting insurance claims submissions (by classification) and the size of insurance claims submitted (by regression The purpose of this study is to compare the performance of the three hyperparameter optimization methods on XGBoost: random search, partial grid search, and Bayesian search on classification and regression. The simulation results show that partial grid search gives a slightly better accuracy compared to random search and Bayesian search. However, the running time on Bayesian search is much faster than partial grid search. Random search has an accuracy and computation time that is a little less good compared to Bayesian search."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2020
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Mochamad Ivan Janitra Rama
"Distribusi Weibull digunakan untuk menyelesaikan masalah-masalah yang menyangkut lama waktu suatu objek yang mampu bertahan hingga akhirnya objek tersebut tidak berfungsi (dengan kata lain rusak atau mati). Distribusi Weibull merupakan salah satu solusi untuk masalah fleksibilitas yang tidak dimiliki oleh distribusi Exponensial, yaitu hanya memiliki bentuk fungsi hazard yang konstan. Dalam melakukan inferensi dari kasus yang dimodelkan dengan distribusi Weibull, perlu dilakukan penaksiran terhadap parameternya. Distribusi Weibull dua parameter memiliki parameter skala dan parameter shape. Pada skripsi ini, akan dilakukan penaksiran parameter skala dari distribusi Weibull pada data terpancung kiri dan tersensor kanan dengan asumsi bahwa parameter shape diketahui menggunakan metode Bayesian. Prosedur dalam penaksiran parameter meliputi penentuan distribusi prior, fungsi dan distribusi posterior. Kemudian penaksir titik Bayes diperoleh dengan meminimumkan ekspektasi dari fungsi. Fungsi yang digunakan adalah Squared Error Loss Functio (SELF) dan Precautionary Loss Function (PLF). Kemudian dilakukan simulasi data untuk membandingkan nilai Mean Squared Error (MSE) dari taksiran parameter skala menggunakan fungsi. Hasil simulasi menunjukan bahwa taksiran parameter menggunakan fungsi memiliki nilai MSE yang lebih kecil untuk parameter skala lebih kecil atau sama dengan satu sedangkan taksiran parameter menggunakan fungsi PLF memiliki nilai MSE yang lebih kecil untuk parameter skala lebih besar daripada satu.

Weibull distribution is used to solve problems that involve the length of time an object is able to survive until the object is not function (in other words damaged or dead). Weibull distribution is one of many solutions to the flexibility problem that is not owned by an Exponential distribution, which only has the form of a constant hazard function. In making inferences from cases modeled with the Weibull distribution, it is necessary to estimate the parameters. The two-parameter Weibull distribution has a scale parameter and a shape parameter. In this thesis, the scale parameter of the Weibull distribution will be estimated on left truncated and right censored data assuming that the shape parameter are known using Bayesian method. The procedure in parameter estimation includes the determination of the prior distribution, the likelihood function and the posterior distribution. Then the point estimator of the scale parameter is obtained by minimizing the expectation of loss function. The loss function used in this thesis are Squared Error Loss Function (SELF) and Precautionary Loss Function (PLF). Data simulation is done to compare the value of Mean Squared Error (MSE) from the estimated parameters using SELF and PLF. The simulation result shows that the estimated parameter using SELF has a smaller MSE value for scale parameter below or equal one while the estimated parameter using PLF has a smaller MSE value for scale parameter above one."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2019
S-Pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Margaretha
"Distribusi Exponentiated Exponential (EE) adalah pengembangan dari distribusi Exponential dengan cara menambahkan sebuah parameter bentuk alpha. Distribusi ini digunakan untuk mengatasi masalah ketidakfleksibilitas dari distribusi Exponential. Untuk melakukan inferensi mengenai permasalahan yang dimodelkan dengan distribusi EE, perlu dilakukan penaksiran parameter. Pada skripsi ini akan dibahas mengenai penaksiran parameter distribusi dari distribusi Exponentiated Exponential pada data tersensor kiri menggunakan metode Bayesian. Prosedur penaksiran meliputi penentuan distribusi prior yaitu digunakan distribusi prior konjugat, pembentukan fungsi likelihood dari data tersensor kiri, dan pembentukan distribusi posterior. Penaksir Bayes kemudian diperoleh dengan cara meminimumkan risiko posterior berdasarkan fungsi loss Squared Error Loss Function (SELF) dan Precautionary Loss Function (PLF). Kemudian setelah diperoleh perumusan penaksir Bayes, simulasi data dilakukan untuk membandingkan hasil taksiran parameter menggunakan fungsi loss SELF dan PLF yang dilihat dari nilai Mean Square Error (MSE) yang dihasilkan. Fungsi loss dikatakan lebih efektif digunakan dalam merumuskan penaksir Bayes apabila penaksir Bayes yang diperoleh menghasilkan nilai MSE yang lebih kecil. Berdasarkan hasil simulasi, fungsi loss PLF lebih efektif digunakan untuk alpha≤1, sedangkan fungsi loss SELF lebih efektif digunakan untuk alpha>1.

Exponentiated Exponential (EE) distribution is the development of Exponential Distribution by adding alpha as a shape parameter. This distribution can solve unflexibility issue in Exponential distribution. In order to make inferences about any cases modeled with EE distribution, parameter estimation is required. This thesis will discuss about parameter estimation of Exponentiated Exponential distribution for left censored data using Bayesian method. Parameter estimation procedure are selection of prior distribution which is conjugate prior, likelihood construction for left censored data, and then forming posterior distribution. Bayes estimator can be obtained by minimize posterior risk based on Squared Error Loss Function (SELF) and Precautionary Loss Function (PLF). After Bayes estimator is obtained, simulation is done to compare the results of Bayes estimator using SELF and PLF which are seen from the result of Mean Square Error (MSE). Loss function is said to be more effective to obtain Bayes estimator if the resulting Bayes estimator yield smaller MSE. Based on simulation, PLF more effective for alpha ≤ 1, while SELF more effective for alpha>1."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2019
S-Pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Lukas Hansel Briliano
"Distribusi Burr Tipe XII atau yang biasa dikenal dengan distribusi Burr merupakan salah satu dari dua belas tipe distribusi kontinu dalam sistem Burr. Distribusi Burr mempunyai karakteristik menceng kanan dan mempunyai tail yang tebal. Distribusi Burr dapat diterapkan dalam berbagai masalah survival. Untuk mempelajari lebih lanjut, perlu dilakukan penaksiran parameter. Pada skripsi ini akan dibahas mengenai penaksiran parameter distribusi Burr pada data tersensor kanan dengan metode Bayes. Prosedur penaksiran adalah dengan menentukan distribusi prior yang digunakan, yaitu conjugate prior, pembentukan fungsi likelihood untuk data tersensor kanan dan pembentukan distribusi posterior. Penaksir Bayes didapatkan dengan cara meminimumkan fungsi risiko posterior berdasarkan fungsi loss. Fungsi loss yang digunakan adalah Square Error Loss Function (SELF) dan Precautionary Loss Function (PLF). Setelah didapatkan penaksir Bayes, dilakukan simulasi data untuk membandingkan keefektifan taksiran parameter dari kedua fungsi loss menurut Mean Square Error (MSE). Yang dimaksud penaksir yang efektif adalah penaksir yang mempunyai MSE lebih kecil. Selain itu dilihat juga pengaruh intensitas tersensor pada kedua fungsi loss menurut MSE. Berdasarkan hasil simulasi, penaksir Bayes dengan PLF lebih efektif daripada SELF dan semakin besar intensitas tersensor maka MSE yang dihasilkan semakin besar untuk kedua fungsi loss.

Burr Type XII distribution is known as Burr distribution, is one of the twelve types continous distribution on Burr system. Burr distribution is heavy-tailed and right-skewed. Burr distribution has an important role in survival analysis. To learn more, parameter estimation is needed. This study will explain about parameter estimation of Burr distribution for right censored data with Bayes method. Procedure for estimating parameter are, determine which prior distribution to use, that is conjugate prior, likelihood function construction for right censored data and calculation of posterior distribution. Bayes estimator is obtained by minimize posterior risk function based on loss function. This study will use Square Error Loss Function (SELF) and Precautionary Loss Function (PLF). After Bayes estimator is obtained, simulation will be done to compare the effectiveness of Bayes estimator with both loss function according to Mean Square Error (MSE). What is meant by effective estimator is it has smaller MSE. Besides, this study is also explained the effect of the censored intensity according to MSE. Based on simulation results, Bayes estimator with PLF is more effective than SELF and greater censored intensity, greater MSE produced, for both loss function."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2019
S-Pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Dea Kristina
"Kementrian Kesehatan menyatakan Indonesia sudah memasuki kondisi ageing population, dimana kondisi tersebut ditandai dengan kenaikan persentase penduduk lanjut usia (lansia). Kondisi tersebut tentunya memerlukan perhatian khusus dari pemerintah. Demensia adalah istilah medis untuk menggambarkan gejala penurunan memori dan fungsi kognitif pada tubuh manusia. Indonesia termasuk sepuluh negara dengan jumlah penderita orang dengan demensia (ODD) tertinggi di dunia, dan pada tahun 2050 jumlahnya diprediksi mencapai empat juta jiwa. Prediksi tersebut dibuat berdasarkan perbandingan jumlah lansia di Indonesia dengan jumlah ODD di seluruh dunia. Penelitian bertujuan untuk mengetahui peran dari masing-masing uji klinis untuk mengidentifikasi penderita ODD dan mereduksi komponen uji klinis yang memiliki peran kontribusi rendah. Data yang digunakan adalah data uji klinis NIFD (Neuroimaging in Frontotemporal Dementia). Metode yang akan digunakan adalah Principal Component Analysis (PCA), dimana metode ini bertujuan untuk melihat komponen uji klinis yang memberikan peran kontribusi dalam mengidentifikasi penderita ODD. Selain itu, akan dilakukan proses imputasi missing value dengan menggunakan algoritma pengembangan dari PCA, yaitu SVD-Impute dan PPCA. Setelah dilakukan tiga kali iterasi, pengujian menunjukan bahwa metode PPCA lebih baik dalam melakukan imputasi missing value dibandingkan dengan metode SVDImpute berdasarkan nilai NRMSE dan koefisien korelasi Pearson.

The Ministry of Health stated that Indonesia had entered a condition of an aging population, where an increase in the proportion of older people marks this condition. This condition certainly requires special attention from the government. Dementia is a medical term to describe symptoms of decreased memory and cognitive function in the human body. Indonesia is one of the ten countries with the highest number of people with dementia in the world, and by 2050 it is predicted to reach four million people. This prediction was based on comparing the number of older people in Indonesia with those with dementia worldwide. The research aims to determine each clinical trial's role in identifying people with dementia and reducing the components of clinical trials with a low role contribution. The data used is NIFD (Neuroimaging in Frontotemporal Dementia) clinical trial data. The method used is Principal Component Analysis (PCA), which aims to see clinical component tests that contribute to identifying people with dementia. In addition, the missing value imputation process will be carried out using the development algorithm from PCA, SVD-Impute and PPCA. After three iterations, the test showed that the PPCA method was better at imputing missing values than the SVDImpute method based on the NRMSE value and Pearson's correlation coefficient."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Siti Salma Hasanah
"ABSTRACT
Model hurdle adalah model alternatif untuk mengatasi penyebaran berlebihan (varians datanya adalah lebih tinggi dari nilai rata-rata) yang disebabkan oleh kelebihan nol. Model rintangan dapat memodelkan secara terpisah variabel respons yang memiliki nilai nol dan positif, melibatkan dua proses yang berbeda. Proses pertama adalah proses biner yang menentukan apakah variabel respon memiliki nilai nol atau nilai positif, dan dapat dimodelkan dengan biner model, menggunakan regresi logistik. Untuk variabel respons positif, kemudian lanjutkan ke proses kedua, yaitu proses yang hanya mengamati jumlah positif. Yang positif count dapat dimodelkan dengan model Zero-Truncated menggunakan regresi Poisson. Rintangan model juga dikenal sebagai model dua bagian. Estimasi parameter menggunakan Bayesian metode. Kombinasi informasi sebelumnya dengan informasi dari data yang diamati membentuk distribusi posterior yang digunakan untuk memperkirakan parameter. Distribusi posterior bentuk yang diperoleh tidak tertutup, sehingga diperlukan teknik komputasi, yaitu Markov Chain Monte Carlo (MCMC) dengan algoritma Gibbs Sampling. Metode ini diterapkan
ke data Parkinson untuk memodelkan frekuensi komplikasi motorik pada 300 Parkinsonpasien. Data tersebut digunakan dari Parkinson's Progressive Markers Initiative (PPMI, 2018). Hasil yang diperoleh adalah MDS-UPDRS (Movement Disorder Society-Unified Skala Peringkat Penyakit Parkinson) bagian 1, MDS-UPDRS bagian 2, dan MDS-UPDRS bagian 3 terkait secara signifikan MDS-UPDRS bagian 4 di kedua tahap.

ABSTRACT
The obstacle model is an alternative model for overcoming excessive spread (the data variant is higher than the average value) which is questioned by zero excess. The obstacle model can separately model response variables that have zero and positive values, involving two different processes. The first process is a binary process that determines whether the response variable has a zero value or a positive value, and can be modeled with a binary model, using logistic regression. For positive response variables, then proceed to the second process, which is a process that is only positive. The positive one calculated can be modeled with a Zero-Truncated model using Poisson regression. The Obstacle Model is also known as the two part model. Parameter estimation using the Bayesian method. The combination of previous information with information from data collected collects the distributions used for parameter estimation. The posterior distribution of the obtained form is not closed, computational techniques are needed, namely Markov Chain Monte Carlo (MCMC) with Gibbs Sampling algorithm. This method is applied to Parkinson's data to model the frequency of motor complications in 300 Parkinson's patients. The data is used from Parkinson's Progressive Markers Initiative (PPMI, 2018). The results obtained are MDS-UPDRS (Movement Disorder-Community Parkinson's Disease Assessment Scale) part 1, MDS-UPDRS part 2, and MDS-UPDRS part 3 which significantly related MDS-UPDRS part 4 in both glasses.
"
2019
S-Pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Muhammad Rias Agnini Majdi
"Jenis-jenis alat musik yang digunakan dalam suatu musik adalah salah satu cara menjelaskan musik tersebut. Skripsi ini membahas penggunaan ekstraksi fitur MFCC dan metode klasifikasi k-NN untuk mengklasifikasi alat musik berdasarkan suara yang dihasilkannya. MFCC merupakan sebuah metode yang mampu mengolah sebuah data suara sehingga menghasilkan beberapa fitur yang bersifat numerik. k-NN merupakan sebuah metode klasifikasi yang menggunakan jarak dari fitur tiap-tiap observasi. Pengerjaan skripsi dilakukan dengan mengekstraksi fitur dari data-data suara yang tersedia dengan MFCC lalu menggunakan fitur-fitur yang diekstraksi tersebut untuk metode klasifikasi k-NN. Data yang digunakan adalah data suara alat musik yang tersedia pada dataset Philharmonia Orchestra Sound Samples. Hasil dari penerapan metode klasifikasi k-NN pada skripsi ini menunjukkan bahwa model k-NN mampu meraih nilai akurasi hingga 94,84%.



Instrumentation is one way to describe a music. This study discusses the use of MFCC feature extraction and k-NN classification method to classify instruments by the sound they produce. MFCC is a method capable of processing a sound data into a set of numeric features. k-NN is a classification method that uses the distance of the features of each observations. The process of this study uses MFCC to extract the features of available sound data and use these extracted features to fit a k-NN model. The data used in this study are the sound data available in the Philharmonia Orchestra Sound Samples dataset. The result of k-NN model fitting in this study shows that the model is capable of reaching an accuracy of 94.84%.

"
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2020
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Nabilla Ayu Fauziyyah
"ABSTRACT
Dewasa ini, sudah banyak rumah sakit modern yang dilengkapi dengan peralatan monitoring yang lengkap, yang menyebabkan makin banyaknya data medis yang tersimpan. Data medis ini memiliki karakteristik khusus, dan biasanya metode statistika biasa tidak dapat diterapkan begitu saja. Dari sinilah kemudian muncul gagasan mengenai Medical Data Mining (MDM) yang sudah terbukti cocok untuk diterapkan dalam analisis data medis. Naive Bayes Classifier (NBC) merupakan salah satu implementasi dari MDM. Kendati terbukti memiliki hasil yang akurat dan memuaskan dalam proses diagnosis medis, metode-metode dalam MDM belum sepenuhnya diterima dalam praktek medis untuk diterapkan. Alasan utama mengapa metode ini belum dapat diterima adalah karena terdapatnya resistansi dari tenaga medis terhadap metode diagnosis yang baru. Tujuan dari penelitian ini adalah untuk menerapkan dan mengevaluasi performa NBC  pada data rekam medis pasien kanker payudara di salah satu rumah sakit di Jakarta dalam masalah klasifikasi subtipe molekular kanker payudara, serta membandingkan hasil klasifikasi NBC dengan metode MDM lain, yaitu Decision Tree (DT). Hasil analisis menunjukkan bahwa NBC mengungguli DT dengan tingkat akurasi sebesar 92,8%. Selain itu, dapat juga ditunjukkan secara empiris bahwa NBC mampu menangani missing value dengan cukup baik dan tidak membutuhkan data dalam jumlah banyak untuk tetap dapat mengklasifikasikan sebagian besar pasien dengan benar.

ABSTRACT
Nowadays, modern hospitals are well equipped with data monitoring devices, which resulted in an abundant amount of medical data. These medical data possess specific characteristics and usually, statistical methods could not be applied directly. This is what started the notion of Medical Data Mining (MDM), which has proven to be effective in analysing medical data. Naive Bayes Classifier (NBC) is an implementation of MDM. Even though MDM methods produce a sufficiently accurate and satisfying results in diagnosis problems, these methods are still not well accepted in the medical practice. One of the main reasons is because there is a resistance of physicians to a new diagnosis method. The main goal of this study is to apply and evaluate the performance of NBC in classifying breast cancer patients in a private hospital in Indonesia into five classes of molecular subtypes and compare its performance with another popular MDM method, Decision Tree (DT). Results showed that NBC outperformed DT by reaching an accuracy rate of 92.8%. This study could also show empirically that NBC does not need a big dataset to be able to achieve a high accuracy rate and that NBC could handle the problem of missing values just fine."
2019
S-Pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Fauziyyah Aulia Siwi
"Tugas akhir ini membahas mengenai Jeffrey prior dalam penaksiran parameter scale distribusi Weibull menggunakan data yang tersensor kanan maupun yang tidak tersensor. Pada Jeffrey prior, posterior yang akan didapatkan hanya berdasarkan data yang diketahui. Pada tugas akhir ini juga akan dibahas mengenai Bayesian Central Limit Theorem yang dapat dipakai untuk mencari credible interval. Sebagai pembanding untuk taksiran dengan Jeffrey prior, akan dicari juga taksiran parameter scale distribusi Weibull dengan conjugate prior. Sebagai ilustrasi, akan dilakukan simulasi dengan data yang berdistribusi Weibull. Setelah taksiran telah didapatkan, akan dihitung MSE dan MIL pada masing-masing taksiran. Hal tersebut dilakukan untuk mengetahui seberapa baik taksiran yang dihasilkan oleh Jeffrey prior.

This paper discusses about Jeffrey prior in estimating the scale parameter of Weibull distribution using right censored data well as exact data. In Jeffrey prior, the posterior will be obtained only based on data. This paper will also discuss about the Bayesian Central Limit Theorem that can be used to find a credible interval. As a comparison of the Jeffrey prior estimate,the estimator using conjugate prior will also be considered. For the illustration, simulation with Weibull distributed data (θ, τ) will be performed. Once the estimate have been obtained, MSE and MIL on each estimate will be calculated. This is done to measure the performace of the estimate produced by Jeffrey prior."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2012
S45425
UI - Skripsi Membership  Universitas Indonesia Library
<<   1 2 3 4 5 6 7 8 9 10   >>