Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 4338 dokumen yang sesuai dengan query
cover
Wayongkere, Agnes Gabriella
"Data hitung merupakan contoh data diskrit non negatif yang sering dijumpai di penerimaan data. Analisis yang biasa digunakan dalam pemodelan data hitung adalah Analisis regresi poisson, dimana salah satu asumsi dari regresi ini adalah equidispersion yaitu ketika mean dan varians datanya sama. Namun dalam praktiknya, keadaan overdispersi lebih umum daripada equidispersion. Data berpengalaman Overdispersi ini tentunya membutuhkan penanganan khusus untuk dapat dianalisis. Model Regresi yang dapat menangani masalah dispersi berlebih ini adalah model Quasi-regresi. Poisson, dimana model ini memperhitungkan elemen parameter dispersi penyebabnya varians data tidak sama dengan mean. Metode yang digunakan dalam penilaian Parameter dari model regresi Quasi-Poisson adalah Maximum Quasi-Likelihood yang bukan perhatikan secara khusus bentuk distribusi variabel respon. Perhitungan numerik yang digunakan dalam penelitian ini adalah Newton Raphson setara dengan Iterative Weighted Least Square (IWLS). Tujuan dari penelitian ini adalah dengan mengaplikasikan metode estimasi Maximum Quasi-Likelihood dalam melakukan estimasi Parameter regresi Quasi-Poisson. Hasil studi kasus pada data yang bermasalah pada di atas menunjukkan bahwa, dalam kasus penyebaran berlebih, metode regresi Quasi-Poisson Kemungkinan Kuasi Maksimum menyajikan model yang lebih baik daripada Regresi Poisson.
Calculated data is an example of non-negative discrete data that is often found in data reception. The analysis commonly used in calculating data modeling is regression analysis, where one of the assumptions of this regression is equidispersion, which is when the mean and variance of the data are the same. In practice, however, the overdispersion state is more generally equidispersion. Experienced data. This overdispersion certainly requires special handling to be analyzed. A regression model that can address this excess dispersion problem is a Quasi-regression model. Poisson, where this model takes into account the dispersion parameter because the variance of the data is not the same as the mean. The method used in the sample The parameter of the Quasi-Poisson regression model is the Maximum Quasi-Likelihood which is not a specific form of the distribution of the response variable. The numerical calculation used in this study is Newton Raphson equivalent to the Iterative Weighted Least Square (IWLS). The purpose of this study is to apply the Quasi-Likelihood Maximum method in estimating Quasi-Poisson regression parameters. The results of the case study on the problematic data above show that, in case of excess spread, the Quasi-Poisson regression method of Quasi-Maximum Likelihood presents a better model than Poisson Regression."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2019
S-Pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Dimas Bayu Ichsandya
"Tanah longsor merupakan salah satu kejadian alam paling merugikan yang terjadi setiap tahun di Kabupaten Pacitan. Penelitian ini bertujuan untuk menganalisis aspek fisik yang berperan sebagai faktor penyebab tanah longsor serta membuat analisis tingkat kerawanan tanah longsor menggunakan metode regresi logistik di Kabupaten Pacitan. Digunakan 468 titik longsor hasil inventarisasi BPBD Kabupaten Pacitan, survei lapang, dan interpretasi citra satelit yang kemudian dibagi menjadi 80% sebagai basis data uji dan 20% sebagai validasi model. Analisis probabilitas kejadian tanah longsor menggunakan nilai koefisien 14 aspek fisik menghasilkan bahwa aspek fisik berupa lereng, aspek/arah hadap lereng, curah hujan, penggunaan tanah, jenis tanah, dan litologi memiliki nilai koefisien positif. Sedangkan pada aspek fisik berupa ketinggian, topographic wetness index (TWI), profile curvature, plan curvature, jarak dari patahan, jarak dari jalan, jarak dari jalan, dan normalized difference vegetation index (NDVI) yang memiliki nilai koefisien negatif. Dihasilkan lima tingkat kerawanan tanah longsor di Kabupaten Pacitan, yaitu; sangat rendah (43,219.8 Ha), rendah (32,256.9 Ha), sedang (24,133.8 Ha), tinggi (20,590.7 Ha), dan sangat tinggi (18,787.6 Ha). Tingkat kerawanan longsor sangat tinggi mendominasi wilayah bagian tengah sampai Timur Kabupaten Pacitan di Kecamatan Kebonagung, Arjosari, Tulakan, dan Pacitan dengan ciri wilayah memiliki rata-rata lereng 23.2°, tersusun atas batuan dalam Formasi Arjosari dengan jenis tanah aluvial dan penggunaan tanah semak belukar, curah hujan rata-rata 2,384.64 mm/tahun, jarak dari patahan rata-rata 693.4 m, jarak dari sungai rata-rata 499.87 m, nilai topographic wetness index (TWI) rata-rata 4.79, dan profile curvature sebesar -0.04 atau cembung. Sementara itu, tingkat kerawanan longsor sangat rendah dominan berada pada pada bagian Barat Kabupaten Pacitan di Kecamatan Donorojo, Punung, dan Pringkuku dengan ciri wilayah memiliki rata-rata lereng 11.05°, tersusun atas batuan sedimen gamping dari Formasi Wonosari dengan jenis tanah litosol dan penggunaan tanah tegalan/ladang, curah hujan rata-rata 2,042.63 mm/tahun, jarak dari patahan 3,222.57 m, jarak dari sungai rata-rata 2,216.60 m, nilai topographic wetness index (TWI) rata-rata 5.5, dan profile curvature 0.06 atau cekung. Validasi model menggunakan data uji dengan AUROC bernilai 0.876. Dihasilkan validasi tingkat kerawanan menggunakan data validasi dengan akurasi sebesar 0.781 dan presisi sebesar 0.755.

Landslides are one of the most detrimental natural events that occur every year in the Pacitan Regency. This study analyzes the physical aspects that act as factors causing landslides and the level of landslide susceptibility using the logistic regression method in Pacitan Regency. Four hundred sixty-eight landslide points were used from the BPBD inventory in Pacitan Regency, field surveys, and interpretation of satellite imagery and separated with 80% as test data and 20% as model validation. The probability analysis of landslides using 14 physical aspects coefficient results that slopes, aspects/directions towards the slopes, rainfall, land use, soil types, and lithology have positive coefficients values. Meanwhile, the physical aspects include elevation, topographic wetness index (TWI), profile curvature, plan curvature, distance from fault, distance from road, distance from road, and normalized difference vegetation index (NDVI), have negative coefficients values. Five levels of landslide susceptibility were generated in Pacitan Regency, namely, very low (43.219.8 Ha), low (32.256.9 Ha), medium (24.133.8 Ha), high (20.590.7 Ha), and very high (18.787.6 Ha). Very high level of landslide susceptibility dominates the central to the eastern part of Pacitan Regency in Kebonagung, Arjosari, Tulakan, and Pacitan Districts with regional characteristics having an average slope of 23.2°, composed of rocks in the Arjosari Formation with alluvial soil types, and shrub land use, rainfall the average rainfall is 2,384.64 mm/year, the distance from the fault is 693.4 m, the distance from the river is 499.87 m, the topographic wetness index (TWI) value is 4.79, and the curvature profile is -0.04 or convex. Meanwhile, the very low level of landslide susceptibility is dominated in the western part of Pacitan Regency in Donorojo, Punung, and Pringkuku Subdistricts, with regional characteristics having an average slope of 11.05°, composed of limestone sedimentary rocks from the Wonosari Formation with litosol soil types and dry farming land use. /field, the average rainfall is 2,042.63 mm/year, the distance from the fault is 3,222.57 m, the distance from the river is 2,216.60 m on average, the topographic wetness index (TWI) value is 5.5 on average, and the curvature profile is 0.06 or concave. Validation of the model using test data with AUROC worth 0.876. Vulnerability validation using validation data resulted in an accuracy of 0.781 and a precision of 0.755."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2021
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Rizkiani Febrianti
"Estimasi parameter pada model regresi logistik pada umumnya menggunakan metode maximum likelihood dengan iterasi Newton Raphson. Pada model regresi logistik, estimasi parameter menggunakan metode maximum likelihood tidak dapat digunakan apabila ukuran sampel kecil dan proporsi kejadian sukses kecil. Permasalahan yang muncul saat ukuran sampel kecil dan proporsi sukses kecil, jika menggunakan metode maximum likelihood adalah proses iterasi yang tidak konvergen. Oleh sebab itu dalam kondisi tersebut, metode maximum likelihood tidak dapat digunakan untuk estimasi parameter.
Salah satu cara untuk mengatasi ketidakkonvergenan pada iterasi tersebut adalah menggunakan modifikasi score function. Modifikasi score function dapat digunakan untuk mendapatkan estimasi parameter model regresi logistik dengan melakukan modifikasi pada fungsi likelihood. Contoh aplikasi diberikan untuk menunjukkan bahwa kemungkinan estimasi parameter model regresi logistik dengan ukuran sampel kecil dan proporsi sukses kecil menggunakan metode maximum likelihood dengan iterasi Newton Raphson memberikan hasil yang tidak konvergen dan hal ini dapat diselesaikan dengan menggunakan modifikasi score function.

The maximum likelihood method with Newton Raphson iteration is used in general to estimate the parameter on logistic regression model. This parameter estimation using the maximum likelihood method cannot be used if the size of the sample and proportion of successful events are small. It is because the iteration process will not convergent to some point. Therefore, the maximum likelihood method cannot be used to estimate the parameter.
One of the ways to resolve this convergent problem is using the score function modification. This modification is used to obtain the parameter estimation on logistic regression model by doing some modification on the likelihood function. The example of parameter estimation, using maximum likelihood method with small size of sample and proportion of successful events, is given to show may be the iteration process is not convergent and this can be solved with modification score function.
"
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2018
S-Pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Baini Sulhi
"ABSTRAK
Tesis ini menganalisis frekuensi dan severitas klaim yang merupakan dua risiko utama dalam asuransi umum. Penentuan harga kontrak asuransi dari pemegang polis dengan mengalikan ekspektasi frekuensi klaim dan severitas klaim. Net Premium tersebut merupakan estimasi dari kerugian agregat dari suatu grup polis yang memodelkannya mengasumsikan frekuensi dan severitas klaim saling bebas. Namun, dalam beberapa kasus, terdapat dependensi antara dua variabel tersebut. Untuk mengatasi masalah dependensi tersebut, pada tesis ini digunakan model copula berbasis regresi untuk membangun distribusi bersama. Hal ini dengan menggabungkan marginal generalized linear model dari frekuensi dan rata-rata severitas klaim menggunakan copula. Parameter dari distribusi ditaksir menggunakan metode maksimum likelihood. Kemudian pemilihan copula terbaik yang akan digunakan dalam membangun distribusi bersama dilakukan dengan melihat nilai log-likelihood paling besar dan Root Mean Square Error (RMSE) yang paling kecil. Hasil didapat bahwa model copula Clayton berbasis regresi yang dipilih. Terakhir, estimasi frekuensi dan rata-rata severitas klaim dihitung dan dihasilkan kerugian polis berdasarkan nilai estimasi mean dari distribusi bersamanya.

ABSTRACT
This thesis analyzes the frequency and severity of claim which are the two main risks in general insurance. Determination of insurance contract prices from policyholders by multiplying expected frequency of claims and severity of claims. The Net Premium is an estimate of the aggregate loss of a policy group that models it assuming the frequency and severity of the claims are independent. However, in some cases, there are dependencies between the two variables. To overcome this dependency problem, this thesis uses copula-based regression model to build a joint distribution. This is by combining the marginal generalized linear model of frequency and the average severity of claims using copula. The parameters of the distribution are estimated using the maximum likelihood method. Further, the selection of the best copula that will be used in building a joint distribution is done by looking at the greatest log-likelihood value and smallest value of Root Mean Square Error (RMSE). The result is clayton copula based regression model is chosen. Finally, estimatie of the frequency and average severity of claims is calculated and policy losses are generated based on the estimated mean value of the joint distribution."
Depok: Fakultas Ekonomi dan Bisnis Universitas Indonesia, 2020
T-Pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Muhammad Faisal As Saddiky
"Generalized Estimating Equation (GEE) adalah metode penaksiran parameter model regresi yang pengamatan-pengamatannya saling berkorelasi, yang dapat disebabkan oleh lokasi atau kelompok, yang biasa disebut sebagai data terklaster. Penaksiran parameter dalam metode GEE menggunakan suatu fungsi yang dibangun dari bentuk umum distribusi keluarga eksponensial yang erat kaitannya dengan Generalized Linear Model (GLM). Ada dua model pendekatan dalam menganalisis data terklaster menggunakan metode GEE yaitu Population Averaged (PA) dan Clustered Specific (CS).
Tugas akhir ini membahas mengenai bagaimana menaksir parameter model regresi linier Clustered Specific Generalized Estimating Equation (CS-GEE) pada data terklaster, serta aplikasinya pada data kemiskinan di Provinsi Jawa Timur. Uji kesesuaian model regresi linier CS-GEE yang digunakan adalah Uji Wald dengan menggunakan Naïve standard error.

Generalized Estimating Equation (GEE) is a regression model parameter estimation method where correlation exist in the observations due to the locations or groups, used known as clustered data. Parameter estimation of GEE method using a function constructed from a general form of exponential family distributions that closely related to the Generalized Linear Model (GLM). There are two models approach in analyzing the clustered data that is Population Averaged (PA) and Clustered Specific (CS).
This skripsi discusses about how to estimate linear regression model parameters of Clustered Specific Generalized Estimating Equation (CS-GEE) on clustered data, as well as its application on the poverty data in East Java. Goodness of fit testing of this model is Wald test by using the Naïve standard error.
"
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2013
S53997
UI - Skripsi Membership  Universitas Indonesia Library
cover
Fajar Restu Illahi
"Metode well-logging merupakan salah satu metode yang digunakan oleh geofisikawan dalam mendelineasi zona prospek hidrokarbon yang meliputi informasi lapisan dan zona penyebaran hidrokarbon. Akan tetapi dalam data well-logging acapkali nilai well-logging hilang atau tidak lengkap pada interval kedalaman tertentu akibat masalah operasional dalam proses pengeboran. Sehingga untuk mengatasi hal ini diperlukan suatu pendekatan yang dapat dilakukan dengan cepat dan tepat dengan menggunakan metode data mining. Berdasarkan komponen log yang lengkap, nilai log yang hilang dapat diprediksi dengan salah satu algoritma, yaitu regresi random forest. Algoritma ini bekerja dengan cara membuat ensemble pohon keputusan yang dimodelkan dan dilatih dengan parameter yang disesuaikan dan dikombinasikan dengan antarmuka pengguna grafis. Pengombinasian antarmuka grafis dilakukan dalam mempermudah pengguna dalam mengoperasikan dan menginterpretasikan hasil prediksi. Adapun log yang diprediksi merupakan log gamma ray (GR), log bulk density (RHOB), log neutron (NPHI), log sonic (DT), dan log deep resistivity (ILD) pada wilayah kerja Cekungan Sengkang dengan divariasikan prediksi antara per formasi dan blind well. Hasil prediksi yang dihasilkan regresi random forest dalam metode data mining menunjukkan hasil yang akurat untuk log porositas (densitas, sonic, dan neutron) dengan rentang akurasi dari 89% hingga 94%. Sedangkan untuk log lainnya seperti log gamma ray dan resistivitas diperlukan penyusunan parameter dan data latih kembali.

Well-logging method is one of the methods used by geophysicists in delineating the hydrocarbon prospect zone which includes information about layer and distribution zone of hydrocarbons. However, in well-logging data, some values ​​are often missing or incomplete at certain depth intervals due to operational problems in the drilling process. To overcome this we need an approach that can be done quickly and precisely by data mining methods. Based on the complete log component, the missing log value can be predicted using one of the algorithms, namely random forest regression. This algorithm works by creating an ensemble of modeled and trained decision trees with adjusted parameters and combined with a graphical user interface. The combination of a graphical interface is done to make it easier for users to operate and interpret the predicted results. The predicted logs are gamma ray log (GR), bulk density log (RHOB), neutron log (NPHI), sonic log (DT), and deep resistivity log (ILD) in the Sengkang Basin area with varied predictions between formation and blind well. Prediction results generated by random forest regression in the data mining method show accurate results for porosity logs with an accuracy range from 89% to 94%. Meanwhile, for other logs such as gamma ray and resistivity logs, it is necessary to compile parameters and data train."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2021
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Wardiman
Yogyakarta: Hanindita, 1987
515.43 WAR h
Buku Teks SO  Universitas Indonesia Library
cover
Imanuel Manginsela Rustijono
"Analisis regresi merupakan salah satu metode yang paling sering digunakan dalam menganalisis data. Pada aplikasinya, seringkali proses analisis dihadapkan dengan masalah keterurutan. Pada tahun 1972 Richard E. Barlow memperkenalkan metode Regresi Isotonik sebagai salah satu metode analisis data yang mempertimbangkan keterurutan. Metode regresi ini digunakan ketika penelitian berhadapan dengan asumsi bahwa ketika nilai variabel independen bertambah, maka nilai variabel dependen juga bertambah. Dengan adanya asumsi ini, maka digunakan fungsi isotonik, yaitu fungsi yang mempertahankan keterurutan naik, untuk menemukan model yang sesuai.
Tujuan dari metode Regresi Isotonik adalah menemukan fungsi g* yang merupakan anggota kelas fungsi isotonik dan memiliki jarak kuadrat minimum terhadap fungsi yang diperoleh dari data pengamatan. Dengan menggunakan prinsip dasar Cumulative Sum Diagram dan Greatest Convex Minorant, g* bisa diperoleh, dimana g* adalah fungsi tangga. Seiring berkembangnya teori pendekatan, interpolasi polinomial juga semakin berkembang dan bisa digunakan untuk smoothing fungsi tangga yang diperoleh dari metode Regresi Isotonik. Fungsi hasil smoothing ini dinamakan Smooth Isotonic Regression. Dalam skripsi ini akan dibahas bagaimana cara memodelkan hubungan antara dua variabel menggunakan metode Regresi Isotonik dan Smooth Isotonic Regression.

Regression analysis is a method in statistics that often used to analyze data. On the application in real world problem, the analysis process is often confronted an order restriction. In 1972, Richard E. Barlow introduced a method named Isotonic Regression as a method that concerns on the order restriction. This method is used when the analysis confront an assumption that the dependent variable value will increase as the independent variable value increase. With this assumption, the regression model is constructed from isotonic function that preserves the order of the variable.
The objective of this method is to find a function g* that has minimum distance to the observation data function and g* is element of class of isotonic function . Using the Cumulative Sum Diagram and Greatest Convex Minorant, appropriate g* can be found and g* is a step function. Polynomial interpolation as the development of approximation theory can be used as a smoothing function to the step function from isotonic regression. This smooth function named Smooth Isotonic Regression. In this paper, these two methods will be explained.
"
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2014
S55716
UI - Skripsi Membership  Universitas Indonesia Library
cover
R. Gunawan Sudarmanto
Yogyakarta: Graha Ilmu, 2005
004 GUN a
Buku Teks  Universitas Indonesia Library
cover
Adi Surya Komala
"Pendahuluan
Karsinoma nasofaring (KNF) merupakan jenis keganasan yang unik dengan distribusi geografis dan etnis tertentu. Daerah Cina Selatan dan Asia Tenggara memiliki insidens kejadian yang tinggi. Indonesia memiliki insidens 5,66 kasus per 100.000 penduduk per tahun. Salah satu penyebab kematian pasien dengan keganasan adalah trombosis. Kadar soluble Platelet-selectin (sP-selectin) yang tinggi dalam plasma, hasil dari aktivasi sel-sel endotel dan trombosit, adalah prediktor kejadian trombosis.
Tujuan
Mengetahui kadar sP-selectin pada berbagai stadium karsinoma nasofaring dan korelasinya dengan hitung trombosit.
Metode
Dilakukan studi potong lintang pada 60 kasus karsinoma nasofaring yang baru terdiagnosis di Rumah Sakit Cipto Mangunkusumo pada periode Maret hingga November 2012. Kadar sP-selectin diukur dengan teknik Enzyme Linked Immunosorbent Assay.
Hasil
Rerata usia adalah 43,9 tahun dengan rasio laki-laki terhadap perempuan 3:1. Jenis patologi terbanyak adalah karsinoma tidak berdiferensiasi (83,3%). Sepuluh persen pasien mengalami trombositosis. Median kadar sP-selectin adalah 45,73 ng/mL dengan rentang interkuartil: 42,02-57,66 ng/mL. Secara statistik terdapat perbedaan kadar sP-selectin diantara stadium IVC dengan stadium lainnya (stadium IVB, p = 0,001 dan kelompok stadium I-IVA, p < 0,001). Hitung trombosit tidak berkorelasi dengan sP-selectin (r: 0,185; p = 0,158).
Simpulan
Terdapat perbedaan kadar sP-selectin pada berbagai stadium karsinoma nasofaring. Hitung trombosit tidak berkorelasi dengan kadar sP-selectin.

Background
Nasopharyngeal carcinoma (NPC) is an unique malignancy because of its geographical and ethnic patterns. South China and South East Asia have the highest incidence, while in Indonesia is about 5.66 cases per 100,000 populations per year. Thrombosis is one of the complications of malignancy. High plasma levels of soluble Platelet-Selectin (sP-selectin) produced by activated endothelial cells and platelets, are predictive of thrombosis.
Objective
To measure sP-selectin levels in various stages of nasopharyngeal carcinoma and its correlation with platelet count.
Methods
This was a cross sectional study including 60 patients with newly diagnosed nasopharyngeal carcinoma at Cipto Mangunkusumo Hospital, Jakarta, Indonesia in period of April to November 2012. Soluble P-selectin levels in various stages of NPC measured with Enzyme Linked Immunosorbent Assay was compared and correlated with platelets count.
Results
From 60 patients of NPC, the mean age was 43.9 years with ratio of men to women was 3:1. The most prevalence histopathology was undifferentiated carcinoma (83.3%). Ten percent of the patients had thrombocytosis. The median level of sP-selectin was 45.73 ng/mL (inter quartile range: 42.02-57.66). Soluble P-selectin levels were statistically significantly higher among patients with stage IVC than other stages (with stage IVB, p = 0.001 and with group of stage I-IVA, p < 0.001). There was no correlation between platelet count and sP-selectin levels (r = 0.185; p = 0.158).
Conclusion
There were different levels of sP-selectin between various stages of nasopharyngeal carcinoma. There was no correlation between platelets count and sP-selectin levels.
"
Jakarta: Fakultas Kedokteran Universitas Indonesia, 2013
T33096
UI - Tesis Membership  Universitas Indonesia Library
<<   1 2 3 4 5 6 7 8 9 10   >>