Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 13953 dokumen yang sesuai dengan query
cover
Gauss, Carl Friedrich, 1777-1855
"In the 1820s Gauss published two memoirs on least squares, which contain his final, definitive treatment of the area along with a wealth of material on probability, statistics, numerical analysis, and geodesy. These memoirs, originally published in Latin with German Notices, have been inaccessible to the English-speaking community. Here for the first time they are collected in an English translation. For scholars interested in comparisons the book includes the original text and the English translation on facing pages. More generally the book will be of interest to statisticians, numerical analysts, and other scientists who are interested in what Gauss did and how he set about doing it. An Afterword by the translator, G. W. Stewart, places Gauss's contributions in historical perspective."
Philadelphia: Society for Industrial and Applied Mathematics, 1995
e20451046
eBooks  Universitas Indonesia Library
cover
Erma Harviani
"Dalam penerapan analisis regresi seringkali terdapat efek dependensi spasial (lokasi) yaitu nilai observasi variabel dependen pada suatu lokasi bergantung pada nilai observasi di lokasi lain. Karateristik ini dinamakan spasial lag. Bentuk dependensi lain adalah spasial error yaitu error pada suatu lokasi dipengaruhi oleh error pada lokasi sekitarnya. Model regresi yang melibatkan efek dependensi spasial disebut model spasial dependen. Dalam kenyataannya tidak tertutup kemungkinan spasial dependen pada data cross section memiliki kedua kararateristik dependensi spasial. Tugas akhir ini membahas tentang prosedur mengestimasi parameter model dengan kedua jenis spasial dependen, yaitu spasial lag sekaligus spasial error dengan metode Generalized Spatial Two Stage Least Squares (GS2SLS). Metode ini menggunakan Two Stage Least Squares, Generalized Moment, dan transformasi Cochrane-Orcutt. Taksiran yang dihasilkan bersifat konsisten. Kata Kunci: Spasial Lag, Spasial Error, Two Stage Least Squares, Generalized Moment, Transformasi Cochrane-Orcutt."
Depok: Universitas Indonesia, 2008
S27774
UI - Skripsi Open  Universitas Indonesia Library
cover
Paramita Ayu Pawestri
"Partial Least Squares Regression adalah salah satu teknik regresi yang memerhatikan pola hubungan antara variabel respon dan variabel prediktor. Teknik tersebut dapat digunakan saat terdapat korelasi tinggi antara variabel prediktor, banyaknya variabel prediktor yang melebihi jumlah observasi dan efek random pada variabel prediktor. PLSR dengan menggunakan algoritma NIPALS, membentuk komponen yang merupakan kombinasi linier berbobot dari variabel prediktor yang digunakan untuk memprediksi variabel respon dengan metode Ordinary Least Squares, dimana komponen yang terbentuk ortogonal atau tidak saling berkorelasi dan banyaknya komponen yang terbentuk akan lebih sedikit dari banyaknya variabel prediktor.

Partial Least Squares Regression is one of technique that takes into account the pattern of relationship between response variable and predictor variables. The technique can be used when there is high correlation between predictors variables, the number of predictors variables exceed the number of observation and random effects on predictor variables. PLS using NIPALS algorithm, which is component forming a weigthed linear combination of predictor variables use to predict response variable by the method of Ordinary Least Squares, in which the component are formed orthogonal or not correlated each other and the number will be fewer than the number of predictor variables."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2012
S43661
UI - Skripsi Open  Universitas Indonesia Library
cover
Huffel, Sabine van
"This is the first book devoted entirely to total least squares. The authors give a unified presentation of the TLS problem. A description of its basic principles are given, the various algebraic, statistical and sensitivity properties of the problem are discussed, and generalizations are presented. Applications are surveyed to facilitate uses in an even wider range of applications. Whenever possible, comparison is made with the well-known least squares methods.
A basic knowledge of numerical linear algebra, matrix computations, and some notion of elementary statistics is required of the reader; however, some background material is included to make the book reasonably self-contained."
Philadelphia: Society for Industrial and Applied Mathematics, 1991
e20451176
eBooks  Universitas Indonesia Library
cover
Rimbun Budiman
"Data Panel merupakan kombinasi dua jenis data yaitu data cross section dan data time series. Tujuan dari penulisan tugas akhir ini adalah mencari taksiran parameter pada model regresi untuk data panel yang tidak lengkap (incomplete panel data regression models) dengan komponen error satu arah (one-way error component). Selain itu model regresi tersebut merupakan random effect models, yang berarti perbedaan karakteristik individu dan waktu diakomodasikan pada komponen error dari model.
Metode yang digunakan untuk menaksir parameter adalah metode Feasible Generalized Least Squares (FGLS). Pada metode tersebut, matriks kovarians error tidak diketahui, sehingga perlu dilakukan penaksiran terhadap komponen variansi yang terdapat pada matriks kovarians error tersebut. Metode yang digunakan untuk menaksir komponen variansi adalah modifikasi metode penaksiran ANOVA yang diusulkan oleh Wallace dan Hussain."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2008
S-Pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Lawson, Charles L.
"The material covered includes Householder and Givens orthogonal transformations, the QR and SVD decompositions, equality constraints, solutions in nonnegative variables, banded problems, and updating methods for sequential estimation. Both the theory and practical algorithms are included. The easily understood explanations and the appendix providing a review of basic linear algebra make the book accessible for the non-specialist."
Philadelphia: Society for Industrial and Applied Mathematics, 1995
e20443248
eBooks  Universitas Indonesia Library
cover
Rizqa Fatika Fajrianti
"Prinsip parsimoni adalah prinsip yang menyatakan bahwa jika terdapat beberapa penjelasan untuk suatu fenomena, maka penjelasan paling sederhanalah yang harus dipilih. Prinsip ini digunakan dalam analisis data untuk memilih model yang paling efisien dalam menjelaskan variabilitas data dengan parameter seminimal mungkin. Namun pada beberapa kondisi, data bisa saja melibatkan pengukuran atau variabel yang cukup banyak. Data berdimensi tinggi dapat menyebabkan kompleksitas dan kesulitan dalam analisis, sehingga reduksi dimensi pada data penting untuk dilakukan. Principal Component Analysis (PCA) adalah salah satu metode yang dapat digunakan untuk melakukan reduksi dimensi, dengan mengekstraksi variabel baru dan mengurangi pengaruh dari variabel yang tidak relevan. Namun, metode PCA tidak toleran terhadap missing value, sehingga algoritma Nonlinear Iterative Partial Least Squares (NIPALS) dapat digunakan dalam mengatasi data yang mengandung missing value. Performa dari algoritma NIPALS dievaluasi menggunakan nilai normalized root mean square error (NRMSE) dan koefisien korelasi Pearson. Kemudian, performa dari algoritma ini dibandingkan dengan dua metode lain, meliputi Probabilistic Principal Component Analysis (PPCA) dan SVDImpute. Setelah dilakukan percobaan sebanyak seratus kali pada data survei COVIDiSTRESS, didapatkan hasil bahwa algoritma NIPALS memiliki performa yang lebih baik dan stabil dalam melakukan reduksi dimensi dibandingkan SVDImpute dan PPCA pada data dengan missing value sebesar 1% hingga 15%.

The principle of parsimony, states that if there are multiple explanations for a phenomenon, the simplest explanation should be chosen. This principle is applied in data analysis to select the most efficient model that explains the variability of the data with minimal parameters. However, in some cases, the data may involve a large number of measurements or variables. High-dimensional data can lead to complexity and difficulties in analysis, therefore dimensionality reduction is important. Principal Component Analysis (PCA) is one method that can be used for dimensionality reduction by extracting new variables and reducing the influence of irrelevant variables. However, PCA is not tolerant to missing values, so the Nonlinear Iterative Partial Least Squares (NIPALS) algorithm can be used to handle data with missing values. The performance of the NIPALS algorithm is evaluated using the normalized root mean square error (NRMSE) and Pearson correlation coefficient. Subsequently, the performance of this algorithm is compared with two other methods, including Probabilistic Principal Component Analysis (PPCA) and SVDImpute. After conducting a hundred trials on the COVIDiSTRESS survey data, it was found that the NIPALS algorithm performed better and was more stable in dimension reduction compared to SVDImpute and PPCA algorithms on data with missing values ranging from 1% to 15%."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Sinaga, Marshal Arijona
"Tugas Akhir ini menelaah least square adversarial autoencoder yang menggunakan least square generative adversarial network sebagai diskriminatornya. Diskriminator tersebut meminimalkan fungsi Pearson χ 2 divergence antara distribusi variabel laten dan suatu distribusi apriori. Adanya diskriminator memungkinkan autoencoder untuk membangkitkan data yang memiliki karakteristik yang menyerupai sampel pembelajarannya. Penelitian ini dilakukan dengan membuat program yang memodelkan least square adversarial autoencoder. Program memodelkan dua jenis autoencoder yaitu unsupervised least square adversarial autoencoder dan supervised least square adversarial autoencoder dengan memanfaatkan dataset MNIST dan FashionMNIST. Unsupervised least square adversarial autoencoder menggunakan variabel laten berdimensi 20 sementara supervised least square adversarial autoencoder menggunakan variabel laten masing-masing berdimensi 2, 3, 4, dan 5. Program diimplementasikan menggunakan framework PyTorch dan dieksekusi menggunakan Jupyter Notebook. Seluruh aktivitas pemrograman dilakukan pada environment cloud yang disediakan oleh Floydhub dan Tokopedia-UI AI Center yang masing-masing menggunakan GPU NVIDIA Tesla K80 dan NVIDIA Tesla V100 sebagai perangkat komputasinya. Proses pembelajaran pada unsupervised least square adversarial autoencoder berlangsung selama dua jam sementara pada supervised least square adversarial autoencoder berlangsung selama enam jam. Berdasarkan hasil eksperimen, nilai mean squared error unsupervised least square adversarial autoencoder untuk masing-masing dataset MNIST dan FashionMNIST adalah 0.0063 dan 0.0094. Sementara itu, nilai mean squared error supervised least square adversarial autoencoder pada dataset MNIST sebesar 0.0033. Selanjutnya, nilai Frechet Inception Distance unsupervised least square adversarial autoencoder untuk masing-masing dataset MNIST dan FashionMNIST adalah 15.7182 dan 38.6967. Sementara itu, nilai Frechet Inception Distance supervised least square adversarial autoencoder pada dataset MNIST sebesar 62.512. Hasil tersebut menunjukkan bahwa least square adversarial autoencoder mampu merekonstruksi citra dengan baik, namun kurang mampu membangkitkan citra dengan kualitas sebaik sampel pembelajarannya.

This Final Project (Tugas Akhir) investigates the least square adversarial autoencoder that uses least square generative adversarial network as its discriminator. The discriminator minimizes the Pearson χ 2 divergence between the latent variable distribution and the prior distribution. The presence of discriminator allows the autoencoder to generate data that has characteristics that resemble the original data. Python programs were developed to model the least square adversarial autoencoder. This programs try to model two types of autoencoder namely unsupervised least square adversarial autoencoder and supervised least square adversarial autoencoder by utilizing MNIST dataset and FashionMNIST dataset. The unsupervised least square adversarial autoencoder uses latent variables of dimension 20 while the supervised least square adversarial autoencoder uses latent variables with dimensions of 2, 3, 4, and 5, respectively. This programs were implemented using PyTorch and executed using Jupyter Notebook. All of the programming activities are carried out in the cloud environment provided by Floydhub and Tokopedia-UI AI Center, respectively using NVIDIA Tesla K80 GPU and NVIDIA Tesla V100 GPU as their computing resource. Training time in unsupervised least square adversarial autoencoder lasts for two hours while in supervised least square adversarial autoencoder lasts for six hours. The Results of experiments show that the mean squared error of unsupervised least square adversarial autoencoder for MNIST dataset and FashionMNIST dataset are 0.0063 and 0.0094, respectively. Meanwhile, the mean squared error of supervised least square adversarial autoencoder for MNIST dataset is 0.0033. Furthermore, the Frechet Inception Distance scores of unsupervised least square adversarial autoencoder for MNIST dataset and FashionMNIST dataset are 15.7182 and 38.6967, respectively. Meanwhile, the value of Frechet Inception Distance score of supervised least square adversarial autoencoder in MNIST dataset is 62.512. These results indicate that the least square adversarial autoencoder is able to reconstruct the image properly, but is less able to generate images with the same quality as the learning sample."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2020
TA-pdf
UI - Tugas Akhir  Universitas Indonesia Library
cover
Hadi Ismail
"Investasi saham menjanjikan imbal hasil yang cukup tinggi, namun mengandung risiko yang juga cukup tinggi. Untuk mengantisipasi tingginya risiko tersebut, banyak investor melakukan perlindungan nilai (hedging) saham mereka dengan cara membeli opsi terhadap saham yang mereka miliki. Salah satu jenis opsi adalah opsi put Amerika, dengan opsi ini, pemegang opsi (holder) memiliki hak untuk menjual saham pada harga tertentu dalam jangka waktu tertentu. Ciri khusus opsi ini adalah, holder bebas menjual pada saat sebelum atau ketika jatuh tempo. Karena itu penentuan harga opsi merupakan hal yang penting dalam perdagangan opsi.
Salah satu metode untuk menentukan nilai opsi adalah metode Least-Square Monte Carlo (LSM) yang dikemukakan oleh Longstaff dan Schwartz (2001). Metode ini bertujuan untuk menentukan waktu eksekusi optimal opsi put Amerika dengan cara simulasi. Metode LSM ini akan diimplementasikan untuk menilai harga opsi put saham Microsoft."
Depok: Universitas Indonesia, 2008
S27764
UI - Skripsi Open  Universitas Indonesia Library
cover
Rahmat Febriyanto
"ABSTRACT
Model Generalized Space Time Autoregressive adalah suatu model spatio temporal yang merupakan pengembangan model Space Time Autoregressive (STAR). Model STAR adalah model spatio temporal dengan asumsi parameter-parameter sama untuk setiap lokasi. Model GSTAR dibentuk sebagai pengembangan dari model STAR yang memungkinan untuk mengestimasi parameter yang berbeda untuk setiap lokasinya. Borovkova, Lopuhaa dan Ruchjana (2002) mengembangkan model Generelized Space Time Autoregressive (GSTAR) dimana paramater-parameter pada model, berbeda untuk setiap lokasi. Metode kuadrat terkecil (least square method) digunakan untuk mengestimasi parameter pada model GSTAR. Metode kuadrat terkecil merupakan metode pendugaan parameter yang meminimumkan jumlah kuadrat error. Penggunaan model GSTAR pada data penyakit Hepatitis A di 5 kotamadya DKI Jakarta pada tahun 2011-2017 menghasilkan model GSTAR(4,1) sebagai model yang dipilih.

ABSTRACT
Generalized Space Time Autoregressive(GSTAR) model is a spatio temporal model which is the development of the Space Time Autoregressive (STAR) model. The STAR model is a spatio temporal model assuming the same parameters for each location. The GSTAR model was formed as a development of the STAR model which makes it possible to estimate different parameters for each location. Borovkova, Lopuhaa and Ruchjana (2002) developed the Generelized Space Time Autoregressive (GSTAR) model where parameters in the model differ for each location. The least square method is used to estimate the parameters in the GSTAR model. The least squares method is a parameter estimation method that minimizes the number of squared errors. The use of the GSTAR model on Hepatitis A data in 5 DKI Jakarta municipalities in 2011-2017 produced the GSTAR (4.1) model as the chosen model."
2019
S-Pdf
UI - Skripsi Membership  Universitas Indonesia Library
<<   1 2 3 4 5 6 7 8 9 10   >>