Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 67 dokumen yang sesuai dengan query
cover
Graceilla Puspita Arum
Abstrak :
Data runtun waktu keuangan umum digunakan oleh investor untuk menganalisis pergerakan harga suatu aset investasi. Generalized Autoregressive Conditional Heteroskedasticity (GARCH) adalah model runtun waktu yang biasa digunakan untuk menganalisis data keuangan. GARCH dapat menangkap pengelompokkan volatilitas yang menjadi karakteristik pada data-data keuangan. Pada dunia perekonomian terdapat keterkaitan antara suatu data keuangan dengan data keuangan yang lain. Oleh karena itu dikembangkan model multivariat GARCH (MGARCH) untuk memperlihatkan informasi tentang pergerakan bersama dua variabel atau lebih serta menggambarkan interaksi antardata keuangan yang diteliti. Pada skiripsi ini dibahas versi multivariat dari GARCH, yaitu Baba Engle Kroner dan Kraft (BEKK) GARCH. Pembahasan dimulai dari bagaimana pembentukan struktur varian kovarian bersyarat model BEKK MGARCH, penaksiran parameter, sampai analisis data menggunakan model BEKK MGARCH dengan asumsi error model berdistribusi normal multivariat. Metode yang digunakan untuk mengestimasi parameter adalah metode maximum likelihood. Penurunan analitik pada metode maximum likelihood dibantu dengan sifat yang ada pada quasi maximum likelihood di mana penurunan fungsi likelihood dilakukan dengan menurunkan setiap elemen pada matriks varian kovarian bersyaratnya. Namun estimasi secara analitik tidak dapat digunakan karena persamaan yang non linear, maka digunakan penyelesaian secara numerik menggunakan algoritma quasi-Newton Broyden, Fletcher, Goldfarb, dan Shanno (BFGS). Kemudian model diimplementasikan pada data harian harga penutupan saham BMRI dan BBCA. Hasil analisis menunjukkan bahwa volatilitas saham BMRI dan BBCA tanggal 01 April 2021 sampai dengan 31 Maret 2022 dipengaruhi oleh shock perusahaan sendiri pada masa lampau. ......Financial time series data has been widely used by investors to analyze the movement of any asset pricing. Generalized Autoregressive Conditional Heteroskedasticity (GARCH) is a time series model that usually used to analyze financial datas. GARCH can capture the volatility clustering phenomenon found in most financial datas. In the economic world, there is relation between one to another financial data. Hence, GARCH model has been developed into its multivariate version called multivariate GARCH (MGARCH) to capture the information about comovement also the relationship between two or more variables. In this undergraduate thesis, we explain Baba Engle Kroner and Kraft (BEKK) multivariat GARCH, starting from how the structure of variance and covariance developed, parameter estimation, to implementation of BEKK MGARCH model assuming the error model has multivariate normal distribution. Parameter estimation will be done using the maximum likelihood method with property of quasi maximum likelihood. Parameter estimation can not be solved analytically because the likelihood function is non linear, so we used numerically method called quasi-Newton with Broyden, Fletcher, Goldfarb, dan Shanno (BFGS) algorithms. Then, this BEKK MGARCH model will be used to check the volatility spillover between BMRI and BBCA stock return. The analysis in chapter 4 shows that there is no volatility spillover between BMRI and BBCA. The volatility of their return is affected by their own past shock.
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2022
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Dini Rahayu
Abstrak :
Masalah yang sering terjadi dalam penelitian adalah adanya missing value padahal data yang lengkap diperlukan untuk mendapatkan hasil analisis yang menggambarkan populasi. Dalam pengolahan data, missing value sering terjadi pada analisis regresi. Analisis regresi merupakan suatu model prediksi dengan melihat hubungan antara variabel respon dan variabel prediktor. Missing value dalam analisis regresi dapat ditemukan baik pada variabel respon maupun variabel prediktor. Penelitian ini membahas imputasi missing value yang terjadi pada kedua variabel tesebut dengan menggunakan imputasi regresi. Algoritma Expectation Maximization (EM) merupakan metode penaksiran parameter regresi dengan menggunakan metode Maximum Likelihood Estimaton (MLE) pada data yang memiliki missing value. Untuk menyeimbangkan hasil taksiran parameter model regresi untuk setiap variabel, dilakukan proses penyeimbangan (balance process) untuk mendapatkan hasil taksiran parameter yang konvergen. Simulasi taksiran nilai variabel respon dan prediktor yang hilang dilakukan pada berbagai variasi persentase missingness. Metode penaksiran parameter regresi dengan menggunakan algoritma EM, dapat menghasilkan model yang menjelaskan data sebesar 87% hingga terjadi missing sebanyak 60%.
The problem that often occurs in research is the existence of missing values even though complete data is needed to obtain the results of analysis that describe the population. In processing data, missing values often occur in regression analysis. Regression analysis is a prediction model by looking at the relationship between response variables and predictor variables. Missing values in regression analysis can be found in both the response variable and predictor variable. This study discusses the imputation of missing values that occur in both variables using regression imputation. The Expectation Maximization (EM) algorithm is a method of estimating regression parameters using the Maximum Likelihood Estimaton (MLE) method on data that has missing value. To balance the estimated parameters of the regression model for each variable, a balance process is performed to obtain the results of the convergent parameter estimates. The estimated simulation of the value of the response variable and missing predictor was carried out in various variations in the percentage of missingness. The method of estimating regression parameters using the EM algorithm, can produce a model that explains the data by 87% until there is missing as much as 60%.
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2019
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Irmanda Arfiani Mecca
Abstrak :
Skripsi ini membahas tingkat seismisitas, kerapuhan batuan, dan tingkat periode ulang gempa bumi Jawa bagian barat dengan batas koordinat 105º1’11”-106º7’12” Bujur Timur dan 5º7’50”-7º1’11’’ Lintang Selatan. Analisis pengamatan menggunakan data kejadian gempa bumi selama periode 1981-2021, kedalaman h≤300 km, dan magnitudo 𝑀≥2. Metode yang digunakan adalah Magnitude Frequency Relation (MFR) dengan hasil nilai MC sebesar 4.8. Serta metode Maximum Likelihood dengan hasil nilai b sebesar 0.5 - 1.3 dan nilai a sebesar 3.5 – 8.0. Sedangkan nilai periode ulang gempa bumi yang didapatkan berbeda-beda tergantung besaran magnitudo pada wilayah penelitian. Pada gempa bumi dengan magnitudo 𝑀 = 5.0 dan 𝑀 = 5.5, secara berturutturut memiliki kisaran periode ulang gempa sekitar 1-4 tahun dan 2-7 tahun. Beda halnya dengan gempa bumi magnitudo 𝑀 = 6.0 dan 𝑀 = 6.5, memiliki kisaran periode ulang gempa sekitar 4-14 tahun dan 6-16 tahun. ......This thesis discusses the level of seismicity, rock fragility, and the rate of return period for West part of the Java’s earthquake with coordinate boundaries of 105º1’11”- 106º7’12” East Longitude and 5º7’50”-7º1’11’’ South Latitude. Observational analysis uses earthquake data for the period 1981-2021, depth h≤300 km, and magnitude 𝑀≥2. The methods are used Magnitude Frequency Relation (MFR) with MC value of 4.8, also the Maximum Likelihood method with the results of a b value of 0.5 - 1.3 and a value of 3.5 – 8.0. While the value of the earthquake return period obtained varies depending on the magnitude of the study area. Earthquakes with a magnitude of 𝑀 = 5.0 and 𝑀 = 5.5, respectively, have an earthquake return period range of about 1-4 years and 2-7 years. Unlike the case with earthquakes of magnitude 𝑀 = 6.0 and 𝑀 = 6.5, they have a return period of around 4-14 years and 6-16 years.
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2022
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Poppy Ramadhani
Abstrak :
ABSTRAK
Item response theory atau yang sering disingkat sebagai IRT memberikan estimasi kemampuan peserta yang lebih tepat jika dibandingkan dengan classical test theory. Estimasi yang dihasilkan pada IRT bergantung pada ketepatan model yang digunakan. Pemilihan model IRT dapat dilakukan setelah didapatkan hasil confirmatory factor analysis dengan melihat nilai model fit. Model dengan nilai good fit yang lebih baik akan menjadi model yang terpilih. Pemilihan model fit dengan langkah ini disebut sebagai pemilihan model melalui data empirik. Pemilihan model dan struktur dapat dibantu dengan melihat nature dari sebuah tes. Seperti pada tes seleksi dengan bentuk pilihan maka model IRT yang tepat digunakan untuk mengestimasi adalah model 3 parameter logistik. Kesalahan dalam memilih struktur dan model IRT terkadang tidak dapat dihindari karena ketidaktahuan peneliti. Diantara estimator yang ada dalam IRT terdapat satu estimator yang dikenal memiliki robust standar error atau dapat menghasilkan standar eror yang kecil jika digunakan pada model IRT yang tidak tepat. Estimator ini dinamakan maximum likelihood with robust standard errors. Memperkecil standar eror berarti memperkecil ketidakakuratan estimasi yang disebabkan oleh kesalahan pemilihan model. Keakuratan MLR akan disandingkan dengan maximum likelihood estimator dalam mengestimasi. MLE dikenal dengan propertinya yang asimptotik jika digunakan pada sampel besar. Hasil yang didapat memperlihatkan bahwa MLR dapat menghasilkan akurasi yang lebih baik pada model dengan sampel kecil sedangkan pada sampel besar MLE dan MLR memberikan hasil yang tidak berbeda.
ABSTRACT
Item response theory gives more acurrate estimates of latent trait compared to classical test theory. These estimates are independent to any sample and test. But the result of estimates are depend on which model is used. That is why the selection of model in IRT is very important. The wrong model will cause the estimates inflate or underrated. Before a data can be calculated with IRT model we need to check the appropriate model and structure first. To know what structure will be used we first check the data using confirmatory factor analysis. The result will show which structure fits the data more, is it first order or second order data. To select the IRT model we do a fit of model testing. This is a trial and error step. Usually in fit model testing we propose more than one model to be tested. As not all models can be included for being tested, there are the chance for using a wrong model. Using a wrong structure and model sometimes can not be helped. In IRT there are estimator named maximum likelihood with robust standard error which is specialized to estimate parameters when the model is wrong. This can be done because of MLR is using Huber Sandwich method as estimator. In this research MLR is being compared to MLE to estimate a second order data which is treated as first order data. The error is being accompanied with IRT model variations (1-PL, 2-PL, and 3-PL) and three samples variations (350, 500, and 2000). As 2 x 3 x 3 combination models, we will have 18 models in result. The results showing that MLR produces smaller standard. But MLE is quite good too when the sample being used is as big as 2000
2016
T45841
UI - Tesis Membership  Universitas Indonesia Library
cover
Anis Yuli Yasinta
Abstrak :
Model regresi linier berganda adalah model yang dapat digunakan untuk menaksir nilai-nilai suatu variabel terikat berdasarkan lebih dari satu variabel bebas pada data. Metode yang dapat digunakan untuk menaksir model regresi linier berganda adalah maximum likelihood estimator MLE . Namun, MLE memiliki kelemahan, yaitu sensitif terhadap data yang mengandung outlier dan memiliki waktu proses running time yang relative lama. Metode yang digunakan untuk mengatasi kelemahan tersebut adalah metode parallel. Metode parallel adalah metode yang membagi data menjadi beberapa kelompok. Salah satu metode pengelompokan yang sering digunakan untuk mencari banyak atau jumlah cluster adalah k-means clustering. Pada tugas akhir ini, proses MLE dilakukan pada setiap cluster, sehingga metode ini disebut parallel maximum likelihood estimator. Data yang digunakan pada tugas akhir ini berasal dari bankruptcy data bank32nh . Bank32nh adalah data mengenai antrian pada suatu bank XYZ yang terdiri dari 4500 observasi, 1 variabel terikat, dan 31 variabel bebas. Dari hasil aplikasi data, parallel maximum likelihood estimator memiliki waktu proses running time yang lebih singkat dan nilai mean square error MSE yang lebih kecil. ......Multiple linear regression model can be used to estimate the value between one dependent variable and more than one independent variables on the data. A method that can be used to estimate the parameters of the model is the maximum likelihood estimator MLE. However, MLE has weakness e.i sensitive to the data that contains outlier and has a relatively long running time. To overcome these weaknesses the parallel method is used. In the parallel method, the data is devided into several groups. One of the known clustering methods is "k means clustering". In this study, the MLE process did on each cluster, so that this method is called the parallel maximum likelihood estimator. The current data used for this research is from bankruptcy data bank32nh . Bank32nh is a dataset about the queue at a XYZ bank which consist of 4500 observations, one dependent variable, and 31 independent variables from experimental results, parallel maximum likelihood estimator the running time is faster and has smaller mean square error MSE.
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2018
S-Pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Syafi`i
Abstrak :
Penelitian ini bertujuan untuk mengetahui faktor-faktor yang mempengaruhi realisasi kredit, baik dari sisi penawaran maupun permintaan. Data yang digunakan dalam kajian empiris ini merupakan data runtun waktu triwulanan periode 1993:3 sampai dengan 2004:2 atau 44 observasi. Alat analisis yang digunakan adalah maximum likelihood estimation dengan switching regression. Hasil estirnasi memberikan informasi bahwa seluruh variabel independen yang digunakan memiliki koefisien yang sesuai dengan hipotesis penelitian dan seluruh variabel independen berpengaruh signifikan terhadap penawaran dan permintaan kredit. Berdasarkan pengujian diketahui bahwa lambatnya pertumbuhan kredit perbankan setelah mengalami penurunan yang cukup tajam pada saat krisis moneter merupakan salah satu faktor yang menyebabkan proses pertumbuhan ekonomi belum dapat kembali pada tingkat sebelum krisis. Sebelum krisis moneter, terdapat kecenderungan terjadinya ekses permintaan kredit (excess demand equilibria), yaitu realisasi kredit dipengaruhi oleh sisi penawaran. Ekses permintaan kredit ini tarjadi karena kondisi makro ekonomi cukup kondusif sehingga mendorong dunia usaha untuk mengajukan permintaan kredit, yang tidak diimbangi dengan penawaran kredit dalam jumlah yang sebanding. Sementara itu, mulai akhir 1999 s.d tahun 2004 terdapat kecenderungan terjadinya ekses penawaran kredit (excess supply equilibria), yang artinya realisasi kredit dipengaruhi oleh sisi permintaan. Ekses penawaran kredit ini antara lain dikarenakan tingginya suku bunga kredit yang diperhitungkan oleh perbankan dan kondisi nilai tukar yang belum stabil. Selain itu juga diketahui bahwa permintaan kredit lebih sensitif terhadap suku bunga dibandingkan dengan penawaran kredit.
Depok: Universitas Indonesia, 2005
T20253
UI - Tesis Membership  Universitas Indonesia Library
cover
Bariqi Abdillah
Abstrak :
ABSTRAK Pelacakan multi objek merupakan salah satu topik penting pada bidang ilmu komputer yang memiliki banyak aplikasi, diantaranya adalah sebagai sistem pengawasan, navigasi robot, analisis bidang olahraga, autonomous driving car, dan lain-lain. Salah satu permasalahan utama pelacakan multi objek adalah oklusi. Oklusi adalah objek yang tertutupi oleh objek lainnya. Oklusi dapat menyebabkan ID antar objek tertukar. Penelitian ini membahas oklusi pada pelacakan multi objek serta penyelesaiannya dengan Network Flow. Diberikan data deteksi objek-objek pada setiap frame-nya, tugas pelacakan multi objek adalah mengestimasi pergerakan setiap objek kemudian menghubungkan objek-objek hasil estimasi dengan objek-objek pada frame berikutnya yang bersesuaian atau yang lebih dikenal dengan asosiasi data. Pandang setiap objek pada sebuah frame sebagai node, kemudian ada edge yang menghubungkan setiap node pada frame satu dengan frame lainnya, arsitektur seperti ini pada teori graph dikenal dengan Network Flow. Kemudian cari himpunan edge yang memberikan peluang terbesar transisi dari suatu frame ke frame berikutnya, atau pada dunia optimisasi lebih dikenal dengan max-cost network flow. Edge pada kasus ini berisikan informasi seberapa besar peluang suatu node berpindah ke node pada frame setelahnya. Perhitungan peluang berdasarkan jarak posisi dan kemiripan fitur, fitur yang digunakan adalah fitur CNN. Penulis memodelkan max-cost network flow sebagai permasalahan maximum likelihood yang kemudian diselesaikan dengan algoritme Hungarian. Data yang digunakan pada penelitian ini adalah 2DMOT2015. Hasil evaluasi performa menunjukkan sistem yang dibangun memberikan akurasi 20.1% dengan ID yang tertukar sebanyak 3084 dan pemrosesan frame yang cepat, mencapai 215.8 frame/second.
ABSTRACT


Multi object tracking is one of the most important topics of computer science that has many applications, such as surveillance system, navigation robot, sports analysis, autonomous driving car, and others. One of the main problems of multi-object tracking is occlusion. Occlusion is an object that is covered by other objects. Occlusion may cause the ID between objects to be switched. This study discusses occlusion on multi-object tracking and its completion with network flow. Given objects detection on each frame, the task of multi object tracking is to estimate the movement of objects and then connect the estimation objects corresponding to the objects in the next frame or well known as the data association. Notice that each object on a frame as a node, then there is an edge connecting each node on a frame with other frames, this architecture in graph theory is known as network flow. Then find the set of edges that provide the greatest probaility of transition from one frame to the next, or to the optimization problem well known as max-cost network flow. Edge contains information on how probabiltity a node moves to the node in the frame afterwards. This probability calculation is based on position distance and similarity feature between frames, the feature used is CNN feature. We modeled max-cost network flow as the maximum likelihood problem which was then solved with the Hungarian algorithm. The data used in this research is 2DMOT2015. Performance evaluation results show that the system built gives accuracy 20.1% with the ID switch is 3084 and fast computational process on 215.8 frame/second.

2018
T52044
UI - Tesis Membership  Universitas Indonesia Library
cover
Ramzy Mohammad
Abstrak :

Distribusi Generalized Exponential diperkenalkan oleh Rameshwar D. Gupta dan Debasis Kundu pada tahun 2007. Distribusi  Generalized Exponential tersebut merupakan hasil generalized distribusi Exponential. Skripsi ini menjelaskan distribusi  Generalized Exponential Marshall Olkin yang merupakan hasil dari perluasan distribusi Generalized Exponential menggunakan metode Marshall Olkin. Distribusi Generalized Exponential Marshall Olkin lebih fleksibel dari distribusi sebelumnya terutama pada fungsi hazardnya yang memiliki berbagai bentuk baik monoton (naik atau turun) maupun non monoton (bathub atau upside down bathup) sehingga dapat memodelkan data survival dengan lebih baik. Sifat fleksibelitas ini disebabkan karena penambahan parameter baru ke dalam distribusi Generalized Exponential. Selanjutnya dijelaskan beberapa karakteristik dari distribusi Generalized Exponential Marshall Olkin antara lain fungsi kepadatan peluang (fkp), fungsi distribusi kumulatif, fungsi hazard, momen ke-n, mean, dan variansi. Penaksiran parameter dilakukan dengan metode maximum likehood. Pada bagian aplikasi ditunjukkan data survival yang berasal dari data Aarset (1987) berdistribusi Generalized Exponential Marshall Olkin. Selanjutnya distribusi Generalized Exponential Marshall Olkin dibandingkan dengan distribusi Alpha Power Weibull untuk mencari distribusi mana yang lebih cocok dalam memodelkan data Aarset (1987). Dengan menggunakan AIC dan BIC distribusi Generalized Exponential Marshall Olkin lebih cocok dalam memodelkan data Aarset (1987).

 


Generalized Exponential distribution was introduced by Rameshwar D. Gupta and Debasis Kundu in 2007. Generalized Exponential distribution was generated by generalized transformation of the Exponential distribution. This thesis explained the Generalized Exponential Marshall-Olkin distribution which is the result of the expansion of the Generalized Exponential distribution using the Marshall-Olkin method. The Generalized Exponential Marshall-Olkin distribution has a more flexible form than the previous distribution, especially in its hazard function which has various forms that it can represent survival data better. The flexibility characteristic is due to the addition of new parameters to the Generalized Exponential distribution. Futhermore, some characteristics of the Generalized Exponential Marshall-Olkin distribution was explained such as, the probability density function(PDF), cumulative distribution function, survival function, hazard function, moment, mean, and variance. Parameter estimation was conducted by using the maximum likelihood method. In the application section was shown survival data from Aarset data (1987) which distributed Generalized Exponential Marshall-Olkin distribution. Futhermore, Generalized Exponential Marshall-Olkin distribution was compared with Alpha Power Weibull disstribution to decided theprominent distribution in modeling Aarset data (1987). Using AIC and BIC, Generalized Exponential Marshall-Olkin distribution more suitable in modeling Aarset data (1987).

Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2020
S-Pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Imam Ahmadi
Abstrak :
Tugas akhir ini membahas tentang distribusi Weibull-Pareto yang merupakan distribusi probabilitas kontinu yang dibangun dengan menggunakan metode Transformed-Transformer. Distribusi Weibull-Pareto dapat menggambarkan data yang menceng kanan, menceng kiri, atau simetris serta dapat menggambarkan data yang mempunyai light-tailed maupun heavy-tailed. Pembahasan meliputi fungsi kepadatan probabilitas, fungsi distribusi, fungsi survival, dan fungsi hazard. Kemudian dicari karakteristik-karakteristik dari distribusi Weibull-Pareto yang meliputi modus, persentil, dan fungsi pembangkit momen. Terakhir dicari taksiran parameter dari distribusi ini dengan menggunakan metode Alternative Maximum Likelihood (AML). Simulasi data juga dilakukan sebagai ilustrasi. ......This paper discusses about Weibull-Pareto distribution, the continuous probability distribution which arised by Transformed-Transformer method. The Weibull-Pareto distribution gives a good fit to right skew, left skew, or symmetric. In particular, Weibull-Pareto distribution can solve light tailed or heavy tailed problem. At first, we study about probability density function, cumulative distribution function, survival function, and hazard function. Then, we find the characteristic of Weibull-Pareto distribution, that is mode, percentile, and moment generating function. Finally, we estimate the parameters of Weibull-Pareto distribution using Alternative Maximum Likelihood (AML) method. Simulation data is used as illustration.
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2015
S57837
UI - Skripsi Membership  Universitas Indonesia Library
cover
Karimah Najiyah
Abstrak :
ABSTRAK
Penggunaan lahan di Jawa Barat khususnya di kabupaten Bandung mengalami perubahan yang signifikan yang disebabkan oleh meningkatnya jumlah pembangunan dan pemukiman. Indonesia merupakan salah satu negara yang rawan bencana, bencana alam ini mengakibatkan wilayahnya menjadi cepat berubah. Memantau penggunaan lahan dan tutupan lahan penting untuk memitigasi jika terjadi bencana alam. Untuk mendapatkan informasi klasifikasi tutupan dan penggunaan lahan dapat memanfaatkan teknologi penginderaan jauh. Penelitian ini menggunakan data satelit ALOS-2/ PALSAR-2 untuk membandingkan klasifikasi penggunaan dan tutupan lahan dengan dua metode yaitu Minimum Distance dan Maximum Likelihood. Metode Minimum Distance menggunakan teknik jarak minimal menggunakan vektor rata-rata endmember sedangkan Metode Maximum Likelihood selain rata-rata, juga memperhitungkan informasi variansi pada variable yang diukur. Hasil analisis menunjukan klasifikasi penggunaan dan tutupan lahan yang baik adalah metode Maximum Likelihood dengan hasil akurasi sebesar 68,6233% pada tahun 2014 dan 64,7608% pada tahun 2016. Sedangkan Metode Minimum Distance memiliki akurasi hanya sebesar 48,2307% pada tahun 2014 dan 43,4902% pada tahun 2016
ABSTRAK
Land use in West Java, especially in Bandung regency, changes significantly caused by rapid development and sattlement. Since Indonesia is one of the country that is prone to disaster, natural disasters often occur and impact the land changes rapidly. The monitoring land use and land cover classification is important to mitigate any disasters if occured. To obtain land use and land cover classification profile, remote sensing technology can be used. In this research we use ALOS-2/PALSAR-2 satellite data to derive land use and land cover classification maps using two methods, i.e. Minimum Distance and Maximum Likehood. Minimum Distance uses minimum distance technique to measure endmember average vector while Maximum Likehood calculates variance information of measuring variable as well as the average. The analysis results showed that Maximum Likehood method is better for land use and land cover classification in Bandung regency with accuracy of 68,6233% in 2014 and 64,7608% in 2016 respectively while Minimum Distance method resulted in 48,2307% in 2014 and 43,4902% in 2016 respectively.
2016
S63645
UI - Skripsi Membership  Universitas Indonesia Library
<<   1 2 3 4 5 6 7   >>