Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 148080 dokumen yang sesuai dengan query
cover
Tanjung, Alfian Rizqy
"Terdapat beberapa cara untuk memprediksi harga saham, ada yang menggunakan analisis runtun waktu, harga saham terdahulu, maupun menggunakan indikator teknis. Indikator teknis merupakan perhitungan matematis terhadap harga atau volume transaksi saham yang hasilnya dapat digunakan untuk memahami kecenderungan harga saham. Regresi ridge merupakan suatu metode regresi yang mampu mengatasi masalah dimana variabel-variabel regresornya tidak bebas linier. Regresi kernel ridge merupakan kombinasi antara regresi ridge dengan metode kernel dengan tujuan agar dapat memberikan hasil prediksi yang lebih baik. Pada skripsi ini, metode regresi ridge dan regresi kernel ridge akan diimplementasikan untuk memprediksi harga saham pada 12 perusahaan. Hasil percobaan menunjukkan bahwa metode regresi kernel ridge memberikan akurasi yang lebih baik daripada metode regresi ridge untuk beberapa perusahaan.

There are various way for predicting stock prices, some using time series analysis, past stock prices, or technical indicator. Technical indicator is a mathematical calculation over the stock prices or stock transaction volume that can be used to understand the stock price trend. Ridge regression is a regression method that can be used to solve the problem when some of the regressor variables are linearly dependent. Kernel ridge regression is a combination of ridge regression and kernel method in purpose to get better prediction. This skripsi will implement ridge regression and kernel ridge regression for stock prices forecasting of 12 companies. The result shows that kernel ridge regression gives better accuracy for stock price forecasting than ridge regression for some companies."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2013
S46703
UI - Skripsi Membership  Universitas Indonesia Library
cover
Rumere, Faransina A.O.
"Analisis regresi merupakan salah satu teknik dalam statistika yang digunakan untuk mengetahui hubungan antar variabel respon dan satuatau lebih variabel regressor. Metode penaksiran parameter regresi yang umum digunakan adalah metode least square. Dalam penaksiran parameter regresi, banyak permasalahan yang muncul salah satunya adalah multikolinearitas. Multikolinearitas menghasilkan taksiran yang tidak stabil, sehingga diperlukan metode lain untuk mengatasi multikolinearitas yang diperkenalkan oleh Hoerl dan Kennard 1970 yaitu metode ridge regression dengan cara kerjanya adalah menambahkan konstanta bias ridge pada matriks X 39;X. Sarkar 1992 dan Grob 2003 mengembangkan metode tersebut dengan memanfaatkan informasi prior dari parameter - dan memperkenalkan metode restricted ridge regression. Berger 1980 mendefinisikan informasi prior untuk parameter - adalah suatu informasi non sampel yang muncul dari pengalaman masa lalu dan keputusan dari ahli dengan situasi yang hampir sama dan memuat parameter ? yang sama. Dalam skripsi ini penggunaan metode restricted ridge regression diaplikasikan untuk mengatasi multikolinearitas pada data Portland Cement dan menghasilkan MSE yang lebih kecil dibandingkan metode least square dan ridge regression.

Regression analysis is a technique in stastisticsto analyse the relationship between a response variable and one or more regressor variable's. Ordinary Least Square method is commonly used to estimate parameter's. Most frequently occurring problem in multiple linier regression analysis is the presence of multicolinearity. Multicollinearityin least square estimation produces estimation with large variance, so another method is needed to overcome the multicollinearity. Hoerl and Kennard 1970 introduced a new method called ridge regression by addingaconstant bias ridge to matrix X 39 X. Sarkar 1992 and Gro 2003 developed a method usingthe prior information of the parameter and introduced the restricted ridge regression method. Berger 1980 defined prior information of the parameter as a non sample information arising from past experiences and based on the opinions of an expertice with similar situations and containing the same parameters. This thesis will explain the use of restricted ridge regression method to overcome the presence of multicolinearity in regression model for Portland Cement dataset and produce smaller MSE than least square and ridge regression estimator.
"
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2017
S-Pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Ngantung Erland Jeremia
"Analisis regresi adalah salah satu metode yang digunakan dalam menganalisisdata. Metode yang sering digunakan untuk menaksir parameter dalam modelregresi linier adalah ordinary least square OLS. Metode OLS akan memberikantaksiran terbaik ketika semua asumsinya terpenuhi. Namun pada kenyataannya,asumsi tersebut seringkali tidak terpenuhi. Asumsi yang seringkali tidak terpenuhiadalah adanya multikolinieritas dan adanya pencilan outlier. Multikolinieritasakan membuat variansi taksiran parameter regresi menjadi sangat besar, sedangkanoutlier akan membuat taksiran parameter menjadi bias. Jika kedua pelanggaranasumsi ini terjadi pada data yang akan dianalisis digunakan robust jackknife ridgeregression. Robust jackknife ridge regression adalah regresi yang punya sifatrobust sehingga tidak terpengaruh oleh outlier dan menggunakan metode ridgeuntuk mengatasi masalah multikolinieritas serta menggunakan metode jackknifeuntuk mereduksi bias yang dihasilkan metode ridge. Metode yang digunakanuntuk mencapai sifat robust adalah MM-estimation sehingga taksiran yangdihasilkan punya breakdown point serta efficiency yang tinggi.

Regression Analysis is one of many methods used for analyzing data. Method thatusually used for estimating parameter in linear regression model is ordinary leastsquare OLS . OLS will give best estimator when all the assumptions are met. Butin reality, sometimes not all the assumptions are met. Assumptions that usuallyviolated are multicollinearity and outlier. Multicollinearity will make variance ofthe estimated parameter become large, while outlier will make the estimatedparameter become biased. If this two violation of assumptions happened, robustjackknife ridge regression is used. Robust jackknife ridge regression is regressionthat have robust property so that it will not affected by outlier and using ridgemethod to handle multicollinearity with jackknife method to reduce biased fromridge method. Method used to achieve robust property is MM estimation so thatthe estimated parameter have high breakdown point and high efficiency.
"
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2017
S68662
UI - Skripsi Membership  Universitas Indonesia Library
cover
Yuniaty
"Prediksi harga saham memiliki manfaat terhadap investor untuk dapat melihat bagaimana investasi saham pada sebuah perusahaan di masa yang akan datang. Prediksi harga saham membantu para investor dalam pengambilan keputusan. Untuk melakukan prediksi harga saham digunakan pendekatan analisis teknis dengan menggunakan metode ridge regresi dan kernel ridge regresi. Ridge regresi merupakan metode regresi yang dapat mengatasi terjadinya masalah multikolinieritas. Kernel ridge regresi merupakan kombinasi antara metode kernel dan ridge regresi dengan memetakan input data ke ruang yang berdimensi lebih tinggi. Pada skripsi ini, diimplementasikan metode ridge regresi dan kernel ridge regresi untuk memprediksi harga saham dengan variabel-variabel regresornya merupakan nilai harga saham pada k-hari sebelumnya. Hasil implementasi pada data yang digunakan dalam skripsi ini menunjukkan bahwa metode kernel ridge regresi memberikan tingkat akurasi rata-rata yang lebih baik dibandingkan metode ridge regresi.

Prediction of stock prices has benefits for investors to be able to see how the stock investment in a company in the future. Prediction of stock prices help investors in making decisions. Prediction of stock price used technical analysis approach using kernel ridge regression and ridge regression. Ridge regression is a regression method that can solve the multicollinearity problem. Kernel ridge regression is a combination of ridge regression and kernel methods to map the input data into a higher dimensional space. In this skripsi, the method is implemented to predict the stock price which is the variables regressors based on a value stock price on the previous day. The result of implementation, in this skripsi, indicates that kernel ridge regression method better than ridge regression method.
"
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2013
S53891
UI - Skripsi Membership  Universitas Indonesia Library
cover
Effrida Betzy Stephany
"Analisis regresi linier adalah suatu teknik dalam statistika untuk memodelkan dan menganalisis hubungan linier antara variabel respon dengan variabel regresor. Metode penaksiran parameter regresi yang umum digunakan adalah metode ordinary least square (OLS) yang menghasilkan taksiran yang dinamakan taksiran least square. Dalam analisis regresi linier berganda, masalah yang sering terjadi adalah multikolinieritas. Multikolinieritas membuat penaksiran dengan menggunakan metode OLS menghasilkan taksiran least square yang tidak stabil, sehingga pada skripsi ini akan dibahas metode lain untuk mengatasi permasalahan ini. Metode yang diperkenalkan untuk mengatasi multikolinieritas diantaranya adalah metode GRR yang menghasilkan taksiran generalized ridge. Taksiran ini merupakan taksiran yang bias. Metode ini masih memiliki kekurangan, yaitu bias yang dihasilkan tidak dijamin akan selalu bernilai kecil. Untuk itu, Singh, Chaubey, dan Dwivedi (1986) memperkenalkan metode Jackknife Ridge Regression (JRR) yang menghasilkan taksiran Jackknife Ridge Regression. Taksiran ini akan mereduksi bias yang dihasilkan oleh taksiran generalized ridge sehingga terkait dengan data yang digunakan, nilai mean square error taksiran ini lebih kecil dibanding taksiran generalized ridge maupun taksiran least square.

Regression linear analysis is a statistical technique for modeling and investigating the linear relationship between the response variable and regressor variable. Ordinary least square (OLS) method is commonly used to estimate parameters and yields an estimator named least square estimator. Most frequently occurring problem in multiple linear regression analysis is the presence of multicollinearity. Estimation using OLS method in multicolinearity caused an unstable least square estimator, therefore this undergraduate thesis will explain other method which can solve this problem such as GRR method that yields a bias estimator, named generalized ridge estimator. Unfortunately, this method still has a shortcoming because the bias in resulting estimator is not always guaranteed to be small. To solve this problems, Singh, Chaubey, and Dwivedi (1986) introduced Jackknife Ridge Regression (JRR) method that yields Jackknife Ridge Regression estimator. This estimator will reduce the bias of generalized ridge estimator, thus related to the data used, the resulting mean square error value of this estimator is smaller than the two methods.
"
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2014
S57991
UI - Skripsi Membership  Universitas Indonesia Library
cover
Vara Wardhani
"Tugas Akhir ini membicarakan cara menghadapi masalah multikolinieritas dengan bantuan metode regresi ridge. Penaksiran dengan metode Regresi Ridge memberikan ketepatan (presisi) yang lebih baik daripada penaksiran dengan metode Kuadrat Terkecil Biasa (Ordinary Least Square), walaupun taksiran Regresi Ridge adalah bias. Kelebihtepatan penaksiran dengan metode Regresi Ridge terhadap metode Kuadrat Terkecil Biasa dilihat dari rata-rata kuadrat residualnya. Dibicarakan pula metode Regresi Ridge untuk pemilihan variabel penjelas mana yang akan dimasukkan dalam model regressi serta contoh penggunaan metode Regresi Ridge dalam menaksir pengaruh lag dalam marketing."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 1991
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Dini Rahayu
"Masalah yang sering terjadi dalam penelitian adalah adanya missing value padahal data yang lengkap diperlukan untuk mendapatkan hasil analisis yang menggambarkan populasi. Dalam pengolahan data, missing value sering terjadi pada analisis regresi. Analisis regresi merupakan suatu model prediksi dengan melihat hubungan antara variabel respon dan variabel prediktor. Missing value dalam analisis regresi dapat ditemukan baik pada variabel respon maupun variabel prediktor. Penelitian ini membahas imputasi missing value yang terjadi pada kedua variabel tesebut dengan menggunakan imputasi regresi. Algoritma Expectation Maximization (EM) merupakan metode penaksiran parameter regresi dengan menggunakan metode Maximum Likelihood Estimaton (MLE) pada data yang memiliki missing value. Untuk menyeimbangkan hasil taksiran parameter model regresi untuk setiap variabel, dilakukan proses penyeimbangan (balance process) untuk mendapatkan hasil taksiran parameter yang konvergen. Simulasi taksiran nilai variabel respon dan prediktor yang hilang dilakukan pada berbagai variasi persentase missingness. Metode penaksiran parameter regresi dengan menggunakan algoritma EM, dapat menghasilkan model yang menjelaskan data sebesar 87% hingga terjadi missing sebanyak 60%.

The problem that often occurs in research is the existence of missing values even though complete data is needed to obtain the results of analysis that describe the population. In processing data, missing values often occur in regression analysis. Regression analysis is a prediction model by looking at the relationship between response variables and predictor variables. Missing values in regression analysis can be found in both the response variable and predictor variable. This study discusses the imputation of missing values that occur in both variables using regression imputation. The Expectation Maximization (EM) algorithm is a method of estimating regression parameters using the Maximum Likelihood Estimaton (MLE) method on data that has missing value. To balance the estimated parameters of the regression model for each variable, a balance process is performed to obtain the results of the convergent parameter estimates. The estimated simulation of the value of the response variable and missing predictor was carried out in various variations in the percentage of missingness. The method of estimating regression parameters using the EM algorithm, can produce a model that explains the data by 87% until there is missing as much as 60%."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2019
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Olive, David J
"This text covers both multiple linear regression and some experimental design models. The text uses the response plot to visualize the model and to detect outliers, does not assume that the error distribution has a known parametric distribution, develops prediction intervals that work when the error distribution is unknown, suggests bootstrap hypothesis tests that may be useful for inference after variable selection, and develops prediction regions and large sample theory for the multivariate linear regression model that has m response variables. A relationship between multivariate prediction regions and confidence regions provides a simple way to bootstrap confidence regions. These confidence regions often provide a practical method for testing hypotheses. There is also a chapter on generalized linear models and generalized additive models. There are many R functions to produce response and residual plots, to simulate prediction intervals and hypothesis tests, to detect outliers, and to choose response transformations for multiple linear regression or experimental design models."
Switzerland: Springer International Publishing, 2017
e20528414
eBooks  Universitas Indonesia Library
cover
Bogor: Departemen Pertanian dan IPB, 1985
519.536 IND a
Buku Teks  Universitas Indonesia Library
cover
Bambang Kustituanto
Jogjakarta: BPFE, 1984
519 BAM s
Buku Teks  Universitas Indonesia Library
<<   1 2 3 4 5 6 7 8 9 10   >>