Hasil Pencarian

Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 6 dokumen yang sesuai dengan query
cover
Yuni Rosita Dewi
"Prediksi klaim merupakan proses penting dalam industri asuransi karena perusahaan asuransi dapat menyiapkan jenis polis asuransi yang tepat untuk masing-masing pemegang polis potensial. Frekuensi prediksi klaim dewasa ini kian meningkat. Sehingga data prediksi klaim yang memiliki volume besar ini disebut big data, baik dari segi jumlah fitur maupun jumlah data pemegang polis. Salah satu alternatif solusi perusahaan asuransi untuk melihat pemegang polis melakukan klaim atau tidak, bisa menggunakan machine learning yang teruji dapat digunakan untuk klasifikasi dan prediksi. Salah satu metode machine learning untuk mengurangi jumlah fitur adalah dengan proses seleksi fitur, yaitu mencari urutan fitur berdasarkan tingkat pentingnya fitur. Metode seleksi fitur yang digunakan adalah Gram-Schmidt Orthogonalization. Metode ini sebelumnya digunakan untuk data tidak terstruktur namun pada penelitian ini diuji pada data terstruktur bervolume besar. Untuk menguji urutan fitur yang diperoleh dari proses seleksi fitur, digunakan Support Vector Machine karena termasuk metode machine learning yang popular untuk klasifikasi. Berdasarkan hasil simulasi, urutan yang diperoleh dari proses Gram-Schmidt Orthogonalization relatif konsisten. Selanjutnya, dapat diketahui fitur-fitur yang paling berpengaruh untuk menentukan pemegang polis klaim atau tidak. Simulasi juga menunjukkan bahwa hanya dengan menggunakan sekitar 26 % fitur, akurasi yang dihasilkan sebanding dengan menggunakan semua fitur.

Claim prediction is an important process in the insurance industry because insurance companies can prepare the right type of insurance policy for each potential policyholder. The frequency of today`s claim predictions is increasing. So that claim prediction data has a large volume called big data, both in terms of the number of features and the number of policyholders. One alternative solution for insurance companies to see whether policyholders claim or not, we can use machine learning that is proven to be used for classification and prediction. One of the machine learning methods to reduce the number of features is the feature selection process, which is to search for sequences of features based on their importance feature. The feature selection method used is Gram-Schmidt Orthogonalization. This method was previously used for unstructured data, but in this research is tested on large volume structured data. Support Vector Machine is used to test the ordered features obtained from the feature selection process because it is a popular machine learning method for classification. Based on a result, the ordered features obtained from the Gram-Schmidt Orthogonalization process is relatively stable. After that, it can also be seen the most important features to determine policyholders claim or not. The simulation also shows that using only about 26 % features, the resulting accuracy is comparable to using all features."
Lengkap +
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2019
T54313
UI - Tesis Membership  Universitas Indonesia Library
cover
Deandra Aulia Rusdah
"Prediksi klaim dan prediksi risiko asuransi dilakukan untuk mengklasifikasikan klaim dan tingkat risiko dalam industri asuransi. Dari sudut pandang pembelajaran mesin, masalah prediksi klaim merupakan klasifikasi dua kelas dan masalah prediksi risiko adalah klasifikasi multi-kelas. Untuk mengklasifikasikan klaim dan risiko, model pembelajaran mesin akan memprediksi berdasarkan data historis. Dalam data historis pemohon asuransi, akan ada kemungkinan nilai yang hilang (missing values) sehingga perlu untuk mengatasi masalah tersebut agar memberikan kinerja yang lebih baik. XGBoost adalah metode pembelajaran mesin yang banyak digunakan untuk masalah klasifikasi dan dapat menangani nilai yang hilang (missing values) tanpa dilakukan proses imputasi terlebih dahulu. Penelitian ini menganalisis kinerja metode XGBoost dalam menangani nilai-nilai yang hilang (missing values) untuk prediksi klaim dan prediksi risiko dalam asuransi dan kinerja tersebut juga dibandingkan dengan metode imputasi standard lainnya, yaitu metode mean dan k-nearest neighbors (KNN). Simulasi menunjukkan bahwa model XGBoost tanpa dilakukan proses imputasi memberikan hasil yang sebanding dengan model XGBoost dengan imputasi

Claim prediction and risk prediction of insurance is carried out to classify claims and the levels of risk in insurance industries. From the machine learning point of view, the problem of claim prediction is a two-class classification, and the problem of risk level prediction is a multi-class classification. To classify the claims and risk, a machine learning model will predict based on historical data. In the insurance applicant's historical data, there will be the possibility of missing values so that it is necessary to deal with these problems to provide better performance. XGBoost is a machine learning method that is widely used for classification problems and can handle missing values without an imputation preprocessing. This study analyzed the performance of the XGBoost model in handling missing values for claim prediction and risk prediction in insurance and the performance is also compared with other standard imputation methods, i.e the mean and k-nearest neighbors (KNN) method. The simulations show that the XGBoost model without any imputation preprocessing gives a comparable result to one of the XGBoost models with an imputation preprocessing."
Lengkap +
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2020
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Karina Chandra Dewi
"Klaim asuransi merupakan salah satu elemen penting dalam bidang jasa asuransi. Klaim severity mengacu pada besarnya dana yang harus dikeluarkan untuk memperbaiki kerusakan yang terjadi. Besarnya klaim asuransi dipengaruhi oleh banyak faktor. Hal ini menyebabkan volume data menjadi sangat besar. Sehingga diperlukan suatu metode yang tepat dalam memprediksi besarnya klaim severity untuk data besar. Salah satu metode yang dapat digunakan untuk menyelesaikan permasalahan tersebut yaitu Random Forest yang merupakan salah satu metode machine learning. Tesis ini mengaplikasikan model Random Forest untuk menyelesaikan masalah prediksi besarnya klaim severity pada asuransi mobil serta menganalisis pengaruh jumlah fitur yang digunakan pada model Random Forest terhadap akurasi model sebagai alternatif solusi terkait Big Data. Hasil simulasi menunjukkan bahwa model Random Forest dapat diterapkan pada kasus prediksi klaim severity yang merupakan kasus regresi dalam konteks machine learning. Dengan menggunakan 1⁄3 dari keseluruhan fitur yang ada, model Random Forest dapat menghasilkan akurasi yang setara dengan akurasi yang diperoleh ketika menggunakan seluruh fitur dalam membangun model, yaitu sekitar 99%. Hasil ini menunjukkan skalabilitas yang baik dari Random Forest terutama ditinjau dari jumlah fitur. Sehingga, model Random Forest dapat digunakan sebagai solusi untuk masalah Big Data terkait volume data.

The insurance claim is one of the important elements in the field of insurance services. Claim severity refers to the amount of fund that must be spent to repair the damage. The amount of insurance claim is influenced by many factors. This causes the volume of data to be very large. Therefore, a suitable method is required. Random Forest, one of the machine learning methods can be implemented to handle this problem. This thesis applies the Random Forest model to predict the amount of this claim severity on car insurance. Furthermore, analysis on the effect of the number of features used on model accuracy is conducted. The simulation result show that the Random Forest model can be applied in cases of prediction of claim severity which is a case of regression in the context of machine learning. Only by using 1⁄3 of the overall features, the accuracy of Random Forest model can produce accuracy that is comparable to that obtained when using all features, which is around 99%. This result confirms the scalability of Random Forest, especially in terms of the number of features. Hence, Random Forest model can be used as a solution to Big Data problems related to data volume."
Lengkap +
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2019
T54306
UI - Tesis Membership  Universitas Indonesia Library
cover
I Gede Pajar Bahari
"Metode Machine Learning sangat bermanfaat untuk menyelesaikan berbagai masalah, terutama pada masalah big data. Salah satu masalah yang terkait dengan big data adalah prediksi klaim asuransi di industri asuransi. XGBoost adalah metode machine learning yang menggunakan pendekatan ensemble learning dengan decision tree sebagai model dasarnya. XGBoost terdiri dari beberapa hyperparameter yang nilainya perlu ditentukan sebelum proses training. Partial grid search adalah optimasi hyperparameter yang biasanya digunakan untuk XGBoost. Random search adalah optimasi hyperparameter yang menentukan nilai hyperparameter secara random. Pada penelitian ini, diterapkan dan dianalisis metode pengoptimalan lain untuk XGBoost, yaitu Bayesian search untuk prediksi pengajuan klaim asuransi (dengan klasifikasi) dan besarnya klaim asuransi yang diajukan (dengan regresi). Tujuan dari penelitian ini yaitu membandingan performa ketiga metode optimasi hyperparameter pada XGBoost: random search, partial grid search, dan Bayesian search pada klasifikasi dan regresi. Hasil simulasi menunjukkan bahwa partial grid search memberikan akurasi yang sedikit lebih baik dibandingkan dengan random search dan Bayesian search. Namun, waktu running pada Bayesian search jauh lebih cepat daripada partial grid search. Random search memiliki akurasi dan waktu komputasi yang sedikit kurang bagus dibandingkan dengan Bayesian search.

Machine Learning Method is very useful for solving various problems, especially in the big data problem. One of the problems associated with big data is the prediction of insurance claims in the insurance industry. XGBoost is a machine learning method that uses an ensemble learning approach with a decision tree as its basic model. XGBoost consists of several hyperparameters which values need to be determined before the training process. Partial grid search is a hyperparameter optimization approach which is usually used for XGBoost. Random search is a hyperparameter optimization method which determines the value of hyperparameter randomly. In this study, another optimization method for XGBoost called Bayesian search is applied and analyzed for predicting insurance claims submissions (by classification) and the size of insurance claims submitted (by regression The purpose of this study is to compare the performance of the three hyperparameter optimization methods on XGBoost: random search, partial grid search, and Bayesian search on classification and regression. The simulation results show that partial grid search gives a slightly better accuracy compared to random search and Bayesian search. However, the running time on Bayesian search is much faster than partial grid search. Random search has an accuracy and computation time that is a little less good compared to Bayesian search."
Lengkap +
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2020
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Gabriella Aileen Mendrofa
"Pilar adalah unit struktural penting yang digunakan untuk memastikan keselamatan penambangan di tambang batuan keras bawah tanah. Oleh karena itu, prediksi yang tepat mengenai stabilitas pilar bawah tanah sangat diperlukan. Salah satu indeks umum yang sering digunakan untuk menilai stabilitas pilar adalah Safety Factor (SF). Sayangnya, batasan penilaian stabilitas pilar menggunakan SF masih sangat kaku dan kurang dapat diandalkan. Penelitian ini menyajikan aplikasi baru dari Artificial Neural Network-Backpropagation (ANN-BP) dan Deep Ensemble Learning untuk klasifikasi stabilitas pilar. Terdapat tiga jenis ANN-BP yang digunakan untuk klasifikasi stabilitas pilar dibedakan berdasarkan activation function-nya, yaitu ANN-BP ReLU, ANN-BP ELU, dan ANN-BP GELU. Dalam penelitian ini juga disajikan alternatif pelabelan baru stabilitas pilar dengan mempertimbangkan kesesuaiannya dengan SF. Stabilitas pilar diperluas menjadi empat kategori, yaitu failed dengan safety factor yang sesuai, intact dengan safety factor yang sesuai, failed dengan safety factor yang tidak sesuai, dan intact dengan safety factor yang tidak sesuai. Terdapat lima input yang digunakan untuk setiap model, yaitu pillar width, mining height, bord width, depth to floor, dan ratio. Hasil penelitian menunjukkan bahwa model ANN-BP dengan Ensemble Learning dapat meningkatkan performa ANN-BP dengan average accuracy menjadi 86,48% dan nilai F2 menjadi 96,35% untuk kategori failed dengan safety factor yang tidak sesuai.

Pillars are important structural units used to ensure mining safety in underground hard rock mines. Therefore, precise predictions regarding the stability of underground pillars are required. One common index that is often used to assess pillar stability is the Safety Factor (SF). Unfortunately, such crisp boundaries in pillar stability assessment using SF are unreliable. This paper presents a novel application of Artificial Neural Network-Backpropagation (ANN-BP) and Deep Ensemble Learning for pillar stability classification. There are three types of ANN-BP used for the classification of pillar stability distinguished by their activation functions: ANN-BP ReLU, ANN-BP ELU, and ANN-BP GELU. This research also presents a new labeling alternative for pillar stability by considering its suitability with the SF. Thus, pillar stability is expanded into four categories: failed with a suitable safety factor, intact with a suitable safety factor, failed without a suitable safety factor, and intact without a suitable safety factor. There are five inputs used for each model: pillar width, mining height, bord width, depth to floor, and ratio. The results showed that the ANN-BP model with Ensemble Learning could improve ANN-BP performance with an average accuracy of 86.48% and an F2-score of 96.35% for the category of failed with a suitable safety factor."
Lengkap +
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2022
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Reri Nandar Munazat
"Seiring meningkatnya tren kecelakaan kerja selama periode 2007-2017 serta berjalannya kembali kegiatan usaha secara normal pascapandemi COVID-19, lini usaha asuransi kompensasi pekerja menjadi sangat potensial untuk dikembangkan. Sebagai komponen penting dalam model bisnis asuransi, severitas klaim perlu diprediksi seakurat mungkin karena berpengaruh terhadap penetapan tarif premi bagi tertanggung serta bermanfaat dalam mekanisme pengamatan klaim selama proses penyelesaian klaim. Proses prediksi ini dikategorikan sebagai masalah regresi yang biasanya ditangani oleh model-model pembelajaran mesin untuk data tabular. Namun dalam perkembangan studi pembelajaran mesin, terdapat upaya untuk memanfaatkan model Convolutional Neural Network (CNN) untuk melakukan prediksi terhadap data tabular dengan cara mentransformasikan data tersebut ke dalam representasi gambarnya, salah satunya melalui algoritma Image Generator for Tabular Data (IGTD). Penelitian ini bertujuan untuk menguji akurasi model CNN berbasis algoritma IGTD dalam memprediksi klaim asuransi kompensasi pekerja serta membandingkan performa model tersebut dengan model Multi-Layer Perceptron, Random Forest, serta eXtreme Gradient Boosting. Hasil simulasi dengan metode repeated holdout sebanyak lima iterasi menunjukkan bahwa model CNN dapat memprediksi klaim dengan baik meskipun secara umum belum mampu menyaingi model-model non-CNN secara signifikan.

Along with the increasing trend of work accidents during 2007-2017 period as well as the resumption of business activities normally after the COVID-19 pandemic, the workers’ compensation insurance business line has great potential to be developed. As an important component in the insurance business model, the claim severity needs to be predicted as accurate as possible because it affects the determination of premium rates for the insured and is useful in the claim watching mechanism during the claim settlement process. This prediction process is categorized as a regression problem which is usually handled by machine learning models for tabular data. However, in the development of machine learning studies, there are emerging efforts to utilize the Convolutional Neural Network (CNN) model to predict tabular data by transforming the data into its image representation, one of which is through Image Generator for Tabular Data (IGTD) algorithm. This study aims to test the accuracy of the CNN model based on the IGTD algorithm in predicting workers’ compensation insurance claims and to compare the model performance with the Multi-Layer Perceptron, Random Forest, and eXtreme Gradient Boosting models. The simulation result using the repeated holdout method for five iterations shows that the CNN model can well predict the claims, although in general, it has not been able to significantly compete with non-CNN models."
Lengkap +
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2022
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library