Ditemukan 113554 dokumen yang sesuai dengan query
Amanda Walidya
"Analisis regresi linier berganda adalah suatu teknik statistik untuk memodelkan dan menganalisis hubungan antara variabel respon dan variabel-variabel regresor. Pada umumnya, penaksiran parameter pada model regresi linier berganda menggunakan metode OLS (Ordinary Least squares) yang menghasilkan taksiran least squares. Pada model regresi linier berganda dimungkinkan kondisi multikolinieritas yang menyebabkan variansi taksiran least squares menjadi besar sehingga taksiran least squares tidak stabil. Salah satu metode alternatif penaksiran parameter model regresi linier berganda untuk kasus multikolinieritas adalah metode ridge yang menghasilkan taksiran ridge. Taksiran ridge bergantung pada sebuah konstanta bias k yang disebut konstanta bias ridge. Metode generalized ridge merupakan pengembangan dari metode ridge, dengan menerapkan Dekomposisi Spektral untuk memperoleh bentuk kanonik, kemudian ditambahkan beberapa konstanta bias sebanyak jumlah variabel regresor yang diperoleh dari proses iterasi. Taksiran generalized ridge menghasilkan mean square error yang lebih kecil dari mean square error taksiran least squares.
Analysis of regression is a statistical technique for modeling and analizing the relationship between the response variable and regressor variables. This skripsi is modeling the relationship between one response variable and several regressor variables when there is no linear relationship among the regressors variable. The ordinary least squares method is used to estimate regression coefficient. Multicollinearity result in large variance for the least squares estimators of the regression coefficient, and the estimators also will be unstable. Ridge method is the most common method to overcome this problem. Ridge estimator depends on biasing parameter k called constant of ridge. Generalized ridge is an extension of the ordinary ridge method by applying spectral decompotition to obtain the canonical form, then adding biasing parameters as many as number of regressor variables that specified by iteration. The advantage of generalized ridge estimator over the least squares estimator is generalized ridge estimator has less scalar mean square error (mse) than mse of least squaress estimator."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2013
S54349
UI - Skripsi Membership Universitas Indonesia Library
Effrida Betzy Stephany
"Analisis regresi linier adalah suatu teknik dalam statistika untuk memodelkan dan menganalisis hubungan linier antara variabel respon dengan variabel regresor. Metode penaksiran parameter regresi yang umum digunakan adalah metode ordinary least square (OLS) yang menghasilkan taksiran yang dinamakan taksiran least square. Dalam analisis regresi linier berganda, masalah yang sering terjadi adalah multikolinieritas. Multikolinieritas membuat penaksiran dengan menggunakan metode OLS menghasilkan taksiran least square yang tidak stabil, sehingga pada skripsi ini akan dibahas metode lain untuk mengatasi permasalahan ini. Metode yang diperkenalkan untuk mengatasi multikolinieritas diantaranya adalah metode GRR yang menghasilkan taksiran generalized ridge. Taksiran ini merupakan taksiran yang bias. Metode ini masih memiliki kekurangan, yaitu bias yang dihasilkan tidak dijamin akan selalu bernilai kecil. Untuk itu, Singh, Chaubey, dan Dwivedi (1986) memperkenalkan metode Jackknife Ridge Regression (JRR) yang menghasilkan taksiran Jackknife Ridge Regression. Taksiran ini akan mereduksi bias yang dihasilkan oleh taksiran generalized ridge sehingga terkait dengan data yang digunakan, nilai mean square error taksiran ini lebih kecil dibanding taksiran generalized ridge maupun taksiran least square.
Regression linear analysis is a statistical technique for modeling and investigating the linear relationship between the response variable and regressor variable. Ordinary least square (OLS) method is commonly used to estimate parameters and yields an estimator named least square estimator. Most frequently occurring problem in multiple linear regression analysis is the presence of multicollinearity. Estimation using OLS method in multicolinearity caused an unstable least square estimator, therefore this undergraduate thesis will explain other method which can solve this problem such as GRR method that yields a bias estimator, named generalized ridge estimator. Unfortunately, this method still has a shortcoming because the bias in resulting estimator is not always guaranteed to be small. To solve this problems, Singh, Chaubey, and Dwivedi (1986) introduced Jackknife Ridge Regression (JRR) method that yields Jackknife Ridge Regression estimator. This estimator will reduce the bias of generalized ridge estimator, thus related to the data used, the resulting mean square error value of this estimator is smaller than the two methods."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2014
S57991
UI - Skripsi Membership Universitas Indonesia Library
Rumere, Faransina A.O.
"Analisis regresi merupakan salah satu teknik dalam statistika yang digunakan untuk mengetahui hubungan antar variabel respon dan satuatau lebih variabel regressor. Metode penaksiran parameter regresi yang umum digunakan adalah metode least square. Dalam penaksiran parameter regresi, banyak permasalahan yang muncul salah satunya adalah multikolinearitas. Multikolinearitas menghasilkan taksiran yang tidak stabil, sehingga diperlukan metode lain untuk mengatasi multikolinearitas yang diperkenalkan oleh Hoerl dan Kennard 1970 yaitu metode ridge regression dengan cara kerjanya adalah menambahkan konstanta bias ridge pada matriks X 39;X. Sarkar 1992 dan Grob 2003 mengembangkan metode tersebut dengan memanfaatkan informasi prior dari parameter - dan memperkenalkan metode restricted ridge regression. Berger 1980 mendefinisikan informasi prior untuk parameter - adalah suatu informasi non sampel yang muncul dari pengalaman masa lalu dan keputusan dari ahli dengan situasi yang hampir sama dan memuat parameter ? yang sama. Dalam skripsi ini penggunaan metode restricted ridge regression diaplikasikan untuk mengatasi multikolinearitas pada data Portland Cement dan menghasilkan MSE yang lebih kecil dibandingkan metode least square dan ridge regression.
Regression analysis is a technique in stastisticsto analyse the relationship between a response variable and one or more regressor variable's. Ordinary Least Square method is commonly used to estimate parameter's. Most frequently occurring problem in multiple linier regression analysis is the presence of multicolinearity. Multicollinearityin least square estimation produces estimation with large variance, so another method is needed to overcome the multicollinearity. Hoerl and Kennard 1970 introduced a new method called ridge regression by addingaconstant bias ridge to matrix X 39 X. Sarkar 1992 and Gro 2003 developed a method usingthe prior information of the parameter and introduced the restricted ridge regression method. Berger 1980 defined prior information of the parameter as a non sample information arising from past experiences and based on the opinions of an expertice with similar situations and containing the same parameters. This thesis will explain the use of restricted ridge regression method to overcome the presence of multicolinearity in regression model for Portland Cement dataset and produce smaller MSE than least square and ridge regression estimator."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2017
S-Pdf
UI - Skripsi Membership Universitas Indonesia Library
Widya Rhesi Apriani
"Analisis regresi adalah sebuah teknik dalam statistika untuk menyelidiki dan memodelkan hubungan antara variabel respon dan variabel regresor. Metode penaksiran parameter regresi yang umum digunakan adalah metode ordinary least square (OLS) yang menghasilkan taksiran yang dinamakan taksiran least square. Dalam penaksiran parameter regresi, banyak permasalahan yang muncul, salah satunya adalah multikolinieritas. Penaksiran dengan menggunakan metode OLS dalam kasus multikolinieritas menghasilkan taksiran least square yang tidak stabil, sehingga pada skripsi ini akan dibahas metode lain guna mengatasi permasalahan ini. Metode yang diperkenalkan dapat mengatasi multikolinieritas diantaranya yaitu metode ridge, metode Liu, dan metode GRR. Namun, ketiga metode ini menimbulkan permasalahan lain pada saat dilakukan penaksiran parameter, salah satunya ada pemilihan konstanta optimal yang sulit ditentukan dan nilai PRESS (Prediction Error Sum of Square) yang besar. Untuk itu, Liu dan Gao (2011) memperkenalkan taksiran linearized ridge regression (LRR) yang memiliki kelebihan dibandingkan ketiga metode sebelumnya yaitu pemilihan konstanta optimal yang mudah ditentukan dan juga nilai PRESS yang minimum diantara ketiga metode tersebut.
Regression analysis is a statistical technique for investigating and modeling the relationship between the response variable and regressor variable. Ordinary least square (OLS) method is commonly used to estimate parameters and give an estimator named least square estimator. In regression parameter estimation, there are many problems such as multicolinearity. Estimation using OLS method in multicolinearity caused an unstable least square estimator, therefore this research will explain other methods which can solve this problem such as ridge method, Liu method, and GRR method. Unfortunately, these methods cause another problem when estimation parameter is done, such as hardly obtaining the optimal constants and the large value of PRESS (Prediction Error Sum of Squares). To solve this problems, Liu and Gao (2011) introduced Linearized Ridge Regression (LRR) estimator which has superiority amongs those prior methods which easily obtains the optimal contants and the minimum value of PRESS."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2014
S56776
UI - Skripsi Membership Universitas Indonesia Library
Yeni Pitrianingsih
"Analisis regresi merupakan salah satu teknik dalam statistika yang digunakan untuk menginvestigasi dan memodelkan hubungan antara variabel respon dan variabel regresor. Pada skripsi ini akan dimodelkan hubungan satu variabel respon dengan beberapa variabel regresor menggunakan model regresi linier berganda dimana antar variabel regresor tidak saling bergantung linier. Adanya multikolinieritas menyebabkan taksiran least square tidak stabil dan bisa memberikan informasi yang salah. Taksiran ridge adalah taksiran parameter model regresi yang umumnya digunakan untuk mengatasi hal tersebut. Tetapi ketika terjadi multikolinieritas yang kuat, variansi taksiran ridge tidak berbeda jauh dengan variansi taksiran least square. Masalah lainnya adalah konstanta taksiran ridge yang sulit untuk ditentukan. Untuk mengatasi masalah tersebut, Kejian Liu (1998) memperkenalkan taksiran Liu yang memiliki dua kelebihan dibandingkan taksiran ridge yaitu skalar mean square error (mse) yang lebih kecil dibandingkan mse taksiran ridge dan konstanta taksiran Liu yang mudah ditentukan.
Regression analysis is a statistical technique for investigating and modelling the relationship between the response variable and regressor variable. This skripsi modelling the relationship between one response variable and several regressor when there is no linear relationship between the regressors. In presence of multicollinearity, the least square estimator is unstable and may gives misleading information. Ridge estimator is the most common estimator to overcome this problem. But when there exist severe multicollinearity, variance of ridge estimator almost same with variance of least square estimator. The other problem is a constant of ridge estimator is difficult to specified. To solve this problem, Kejian Liu (1998) proposed Liu estimator that have two advantages over the ridge estimator are Liu estimator has less scalar mean square error (mse) than mse of ridge estimator and a constant of Liu estimator can specified easily."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2013
S46049
UI - Skripsi Membership Universitas Indonesia Library
Anis Yuli Yasinta
"Model regresi linier berganda adalah model yang dapat digunakan untuk menaksir nilai-nilai suatu variabel terikat berdasarkan lebih dari satu variabel bebas pada data. Metode yang dapat digunakan untuk menaksir model regresi linier berganda adalah maximum likelihood estimator MLE . Namun, MLE memiliki kelemahan, yaitu sensitif terhadap data yang mengandung outlier dan memiliki waktu proses running time yang relative lama. Metode yang digunakan untuk mengatasi kelemahan tersebut adalah metode parallel. Metode parallel adalah metode yang membagi data menjadi beberapa kelompok. Salah satu metode pengelompokan yang sering digunakan untuk mencari banyak atau jumlah cluster adalah k-means clustering.
Pada tugas akhir ini, proses MLE dilakukan pada setiap cluster, sehingga metode ini disebut parallel maximum likelihood estimator. Data yang digunakan pada tugas akhir ini berasal dari bankruptcy data bank32nh . Bank32nh adalah data mengenai antrian pada suatu bank XYZ yang terdiri dari 4500 observasi, 1 variabel terikat, dan 31 variabel bebas. Dari hasil aplikasi data, parallel maximum likelihood estimator memiliki waktu proses running time yang lebih singkat dan nilai mean square error MSE yang lebih kecil.
Multiple linear regression model can be used to estimate the value between one dependent variable and more than one independent variables on the data. A method that can be used to estimate the parameters of the model is the maximum likelihood estimator MLE. However, MLE has weakness e.i sensitive to the data that contains outlier and has a relatively long running time. To overcome these weaknesses the parallel method is used. In the parallel method, the data is devided into several groups. One of the known clustering methods is "k means clustering". In this study, the MLE process did on each cluster, so that this method is called the parallel maximum likelihood estimator. The current data used for this research is from bankruptcy data bank32nh . Bank32nh is a dataset about the queue at a XYZ bank which consist of 4500 observations, one dependent variable, and 31 independent variables from experimental results, parallel maximum likelihood estimator the running time is faster and has smaller mean square error MSE."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2018
S-Pdf
UI - Skripsi Membership Universitas Indonesia Library
Dwi Oktaviyanti
"Dalam bidang ekonomi, peneliti sering tertarik untuk mencari taksiran particular dari sebuah model regresi linier berganda. Namun, keberadaan omitted variables di dalam model menyebabkan mean dari error pada model tersebut bernilai tidak nol. Hal ini mengakibatkan taksiran particular least square bersifat bias. Oleh karena itu, menurut Ryo Uemukai (2010) ada cara lain untuk mencari taksiran particular dari model regresi yang memiliki omitted variables yaitu Regresi Ridge (RR). Pada skripsi ini akan dicari taksiran particular dari sebuah model regresi linier berganda yang memiliki omitted variables dengan menggunakan OLS dan RR. Selain itu, akan dilihat pengaruh omitted variables terhadap kedua taksiran particular tersebut, dari segi bias serta MSE. Untuk melihat taksiran mana yang lebih baik, peneliti membandingkan nilai MSE taksiran particular least square dengan MSE taksiran particular ridge. Pada tugas akhir ini juga akan dijelaskan syarat – syarat yang harus dipenuhi agar MSE taksiran particular ridge memiliki nilai yang lebih kecil dibandingkan MSE taksiran particular least square.
In Economic studies, researcher often interested in searching for a particular estimation over a multiple linier regression model. But, the existence of omitted variables in the model causing mean value of the error from model has no zero. This caused the particular least square estimation biased. Ryo Uemukai (2010) then pointed out that there’s other way to estimate the particular estimation from regression model with omitted variables, called Ridge Regression (RR). In this paper, we will estimate the particular estimation from a multiple linier regression model using OLS and RR. Omitted variables’ effect towards both of the particular estimation will also be observed, based on bias and MSE value. To decide which estimation is better, researcher compare the MSE least square and MSE ridge. This paper also explains the condition that must be fullfiled so that MSE of particular ridge estimations smaller than least square."
Depok: Fakultas Matematika Dan Ilmu Pengetahuan Alam Universitas Indonesia, 2014
S56328
UI - Skripsi Membership Universitas Indonesia Library
Budi Rahayu
"Asumsi-asumsi pada Model Linier Yang Umum {Generalized Linier Model atau disingkat GLM) merupakan perluasan dari asumsi-asumsi pada model linier klasik. Pada tugas akhir ini akan ditunjukkan bahwa parameter ? untuk model linier yang umum yang mempunyai nilai-nilai yang tidak diketahui dapat ditaksir dengan menggunakan prosedur iterative weighted least square. Salah satu contoh model linier yang umum (GLM) yaitu model regresi digunakan terhadap data polusi udara di daerah teluk San Fransisco. Dengan menggunakan data tersebut dapat ditunjukkan sensitifitas model regresi yang ditaksir terhadap asumsi distribusi probabilitas error c yang berbeda (yaitu terhadap distribusi probabilitas Normal dan Gamma). Selain itu dapat ditunjukkan pula mengenai model probabilitas yang cocok untuk menggambarkan data polusi udara tersebut."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 1992
S-pdf
UI - Skripsi Membership Universitas Indonesia Library
Muhammad Faisal As Saddiky
"Generalized Estimating Equation (GEE) adalah metode penaksiran parameter model regresi yang pengamatan-pengamatannya saling berkorelasi, yang dapat disebabkan oleh lokasi atau kelompok, yang biasa disebut sebagai data terklaster. Penaksiran parameter dalam metode GEE menggunakan suatu fungsi yang dibangun dari bentuk umum distribusi keluarga eksponensial yang erat kaitannya dengan Generalized Linear Model (GLM). Ada dua model pendekatan dalam menganalisis data terklaster menggunakan metode GEE yaitu Population Averaged (PA) dan Clustered Specific (CS).
Tugas akhir ini membahas mengenai bagaimana menaksir parameter model regresi linier Clustered Specific Generalized Estimating Equation (CS-GEE) pada data terklaster, serta aplikasinya pada data kemiskinan di Provinsi Jawa Timur. Uji kesesuaian model regresi linier CS-GEE yang digunakan adalah Uji Wald dengan menggunakan Naïve standard error.
Generalized Estimating Equation (GEE) is a regression model parameter estimation method where correlation exist in the observations due to the locations or groups, used known as clustered data. Parameter estimation of GEE method using a function constructed from a general form of exponential family distributions that closely related to the Generalized Linear Model (GLM). There are two models approach in analyzing the clustered data that is Population Averaged (PA) and Clustered Specific (CS). This skripsi discusses about how to estimate linear regression model parameters of Clustered Specific Generalized Estimating Equation (CS-GEE) on clustered data, as well as its application on the poverty data in East Java. Goodness of fit testing of this model is Wald test by using the Naïve standard error."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2013
S53997
UI - Skripsi Membership Universitas Indonesia Library
Dian Kurniawati
"Berkson Measurement error model merupakan model regresi dimana nilai dari variabel prediktor yang terobservasi telah ditentukan sebelumnya dan mengandung error pengukuran atau error observasi. Penaksiran parameter model regresi dengan kasus Berkson Measurement error dapat dilakukan dengan beberapa metode diantaranya dengan metode OLS dan metode Minimum Distance. Metode yang digunakan dalam tugas akhir ini adalah metode Minimum Distance berdasarkan momen pertama dan kedua dari variabel respon diberikan variabel prediktor terobservasi yang diperkenalkan oleh Wang (2003). Berdasarkan teorema kekonsistenan yang dinyatakan Wang (2003), penaksir Minimum Distance bersifat konsisten dan dibuktikan berdasarkan lemma dari kekonsistenan Ekstremum Estimator. Dalam tugas akhir ini, metode Minimum Distance diterapkan untuk menaksir parameter model regresi polinomial Berkson. Penaksir parameter model diperoleh dengan mensubstitusikan taksiran dari parameter-parameter baru yang muncul pada momen pertama dan kedua dari variabel respon diberikan nilai variabel prediktor terobservasi.
Berkson measurement error model is a regression model where the value of the observed predictor variable was determined and contained error of measurement or error of observation.The parameter estimation of regression model with Berkson measurement error case can be estimated with several methods such as by OLS method and Minimum Distance methods. The method used in this minithesis is the Minimum Distance based on the first two conditional moment of the response variable given the value of observed predictor variable that introduced by Wang (2003). Based on the theorem of consistency that was stated by Wang (2003), the Minimum Distance estimator was consistent and it was proved based on the consistency of Ekstremum Estimator theorem. In this minithesis, the Minimum Distance method is applied to estimate parameters polinomial Berkson regression model. Parameter estimator model is obtained by substituting the value of new parameter estimators that appear on the first two conditional moment of the response variable given the value of observed predictor variable."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2012
S45359
UI - Skripsi Membership Universitas Indonesia Library