Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 8278 dokumen yang sesuai dengan query
cover
Rio Fandi Dianco
"Naluri alamiah manusia untuk mendapatkan keuntungan sebesar mungkin dengan pengorbanan yang kecil telah memicu terjadinya kompetisi diantara para penyedia jasa asuransi untuk memberikan premi asuransi serendah mungkin sesuai dengan risiko dari pengguna jasa asuransi. Menanggapi hal ini, dibentuk alat ukur risiko yaitu teori kredibilitas. Teori kredibilitas Buhlmann-Straub merupakan salah satu alat ukur risiko yang sering digunakan dalam industri asuransi. Teori ini akan memberikan setiap individu nilai premium sebagai rata-rata berbobot dari rata-rata klaim individu dan rata-rata klaim kelompok. Teori ini berhasil dalam menjustifikasi besaran bobot yang harus diberikan dan tidak diperlukan asumsi bahwa setiap klaim memiliki ukuran risiko yang homogen. Sayangnya, pengaplikasian teknik ini belum memanfaatkan informasi dari masing-masing individu seperti umur, tempat tinggal, dan lain sebagainya yang berkaitan dengan risiko individu. Menanggapi hal ini, dibentuk regression tree credibility model yang mengkombinasikan teori kredibilitas Buhlmann-Straub dengan algoritme machine learning yaitu regression tree. Model ini akan memanfaatkan informasi setiap individu untuk mengelompokkan setiap individu. Sayangnya, regression tree terkenal sebagai model yang cenderung memiliki variansi tinggi. Menanggapi ini, tugas akhir ini akan mengajukan random forest credibility model yang mengkombinasikan teori kredibilitas Buhlmann-Straub dengan algoritme random forest, yaitu algoritme yang dikembangkan dari regression tree dengan variansi yang lebih rendah. Kemudian, tugas akhir ini akan membandingkan peforma random forest credibility model dengan teori kredibilitas Buhlmann-Straub dan regression tree credibility model pada data asuransi kesehatan Amerika serikat. Melalui data ini, telah ditunjukkan bahwa random forest credibility model memiliki peforma yang lebih baik dibandingkan model lainnya dengan nilai rata-rata prediction error 10$ lebih rendah dibandingkan regression tree credibility model dan 20$ lebih rendah dibandingkan teori kredibilitas Buhlmann-Straub.

Man's desire to gain more profit with less sacrifice has driven the insurer to give a reasonable amount of premium based on individual risk. Thus the insurer builds a model to quantify the risk. One of this model is called credibility theory and Buhlmann-Straub is one the models that is widely used. This particular model assigns each individual amount of premium based on the weighted average of mean of individual amount claim and mean of group's amount of claim. This model accommodates the choice of value of the weight to be assigned and also each claim does not need to have the same amount of constant measuring exposure of risk.  Unfortunately, this model lacks the ability to utilize the individual information such as age, gender, and the others. To handle this, regression tree credibility model is proposed. Combining Buhlmann-Straub credibility theorem with regression tree, this model has the capability to utilize the information to further improve the calculation of individual premium.  Unfortunately, regression tree is a model with high variance. Thus this thesis propose random forest credibility model which combines Buhlmann-Straub credibility theorem with random forest algorithm, the development algorithm of regression tree which has lower variance. Furthermore, this thesis will compare the performance of random forest credibility model against Buhlmann-Straub credibility theorem and regression tree credibility model on United State of America's health insurance data. Through this data, random forest credibility model is proven to be a better model with the value of average prediction error 10$ lower than regression tree model and 20$ lower than Buhlmann-Straub credibility theorem."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2020
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Adang Suhendra
"Dibahas pembentukan algoritma paralel perhitungan perkalian matriks pada komputer SIMD dengan model jaringan keterhubungan elemen prosesor berbentuk pohon, mesh dimensi 2 dan hiperkubus. Masing-masing model tersebut terdiri dari O(n), O(n2) dan O(n3) elemen prosesor. Kompleksitas waktu dari algoritma paralel perhitungan perkalian matriks adalah O(n2 + log2n) pada model keterhubungan pohon, O(n) pada model keterhubungan mesh dimensi 2 dan O(log2n) pada model keterhubungan hiperkubus."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 1993
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Eby Kartiati
"Dalam tuqas akhir ini dibahas mengenai pemodelan masalah perhitungan pesanan materi iklan yang masuk pada suatu biro iklan agar didapat sejumlah maksimum materi yang siap pakai, sesuai kapasitas yang ada. Algoritma yang digunakan adalah algoritma maksimum Low minimum cut yang disesuaikan agar dapat menyelesaikan masalah lalu lintas kerja dalam pembuatan materi ikian ini.
"
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 1991
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Ernastuti
"Odd-even-transposition adalah suatu algoritma paralel yang merupakan pengembangan dari algoritma sekuensial ―bubble sort‖. Algoritma odd-even-transposition ini didesain khusus untuk model jaringan array linier (homogen). Untuk n elemen data, kompleksitas waktu dari algoritma bubble sort adalah O(n2), sedangkan pada odd-even-transposition yang bekerja di atas n prosesor adalah (n). Ada peningkatan kecepatan waktu pada kinerja algoritma paralel ini sebesar n kali dibanding algoritma sekuensialnya. Hypercube dimensi k adalah model jaringan non-linier (non-homogen) terdiri dari n = 2k prosesor, di mana setiap prosesor berderajat k. Model jaringan Fibonacci cube dan extended Lucas cube masing-masing merupakan model subjaringan hypercube dengan jumlah prosesor < 2k prosesor dan maksimum derajat prosesornya adalah k. Pada paper ini, diperlihatkan bagaimana algoritma odd-even-transposition dapat dijalankan juga pada model jaringan komputer cluster non-linier hypercube, Fibonacci cube, dan extended Lucas cube dengan kompleksitas waktu O(n).
Odd-even-transposition is a parallel algorithm which is the development of sequential algorithm ―bubble sort‖. Odd-even transposition algorithm is specially designed for linear array network model (homogeneous). For n data elements, the time complexity of bubble sort algorithm is O(n2), while the odd-even-transposition that works with n processor is (n). There in an increase in the speed of time on the performance of this parallel algorithms for n times than its sequential algorithm. K-dimensional hypercube is a non-linear network model (non-homogeneous) consists of n = 2k processors, where each processor has k degree . Network model of Fibonacci cube and extended Lucas cube are the hypercube sub-network model with the number of processors <2k processors and maximum processor degree is k. In this paper, it is shown how the odd-even-transposition algorithm can also be run on non-linear hypercube cluster, Fibonacci cube, and extended Lucas cube computer network model with time complexity O(n)."
Universitas Gunadarma, Pusat Studi Komputasi Matematika, 2010
PDF
Artikel Jurnal  Universitas Indonesia Library
cover
Nathanael Matthew
"Smartphone telah dikembangkan sebagai alat deteksi pothole oleh berbagai penelitian karena potensinya dalam memberikan manfaat pengumpulan data secara crowdsourcing tanpa memerlukan suatu infrastruktur khusus dan mahal. Namun, metode deteksi pothole berbasis smartphone memiliki tantangan dalam menghadapi berbagai ketidakpastian intrinsik dalam mengukur sinyal yang dihasilkan oleh perangkat smartphone berbeda. Ketangguhan metode dalam menghadapi ketidakpastian intrinsik tersebut diperlukan agar potensi pengumpulan data secara crowdsourcing dapat tercapai. Meskipun telah banyak penelitian yang menghasilkan kinerja deteksi yang memuaskan, berbagai macam faktor ketidakpastian masih mencegah ketangguhan penuh dari metode deteksi pothole tersebut. Penelitian menanggapi faktor-faktor ketidakpastian potensial sebagai faktor prediktor dalam mengembangkan model deteksi berbasis algoritma Random Forest dengan memanfaatan sudut Euler untuk menyelaraskan percepatan akselerometer terhadap percepatan vektor gravitasi; menerapan profil matriks untuk mengurangi kesalahan pelabelan pothole dan memberikan apriori untuk klasifikasi secara efisien; dan diskritisasi temporal pada data sensor dengan penghalusan data tersegmentasi berdasarkan jarak roda platform deteksi (Zona Deteksi). Ketangguhan metode dibuktikan dengan eksperimen faktorial bertingkat dengan variasi spesifikasi perangkat sensor, variasi rute dan tingkatan pothole, serta variasi ketersediaan sensor. Eksperimen membuktikan bahwa faktor-faktor ketidakpastian memiliki efek signifikan secara statistik, namun tidak mempengaruhi kinerja model-model yang dihasilkan. Selain tangguh, kinerja model klasifikasi yang dihasilkan menunjukkan hasil serupa atau bahkan lebih baik dari metode lain yang ada saat ini.

Smartphones have been developed as a pothole detection tool by various studies due to their potential in providing crowdsourced data collection without the need for special and expensive infrastructure. However, a reliable smartphone-based pothole detection method is challenging to develop due to various uncertainties in measuring the signal generated by different smartphone devices. A robust method is needed to deal with said uncertainties so crowdsourced data collection potential can be achieved. Although many studies have yielded satisfactory performance, various uncertainty factors still prevent the full robustness of the existing pothole detection methods. This study endeavors to address the potential uncertainty factors as predictors in developing a pothole detection model with Random Forest algorithm. This is done by incorporating Euler angles to align the relevant sensor data to gravitational vector acceleration; matrix profile to reduce pothole labeling errors and provide a priori for efficient classification; and temporal discretization of sensor data with data segment-smoothing based on detection platform wheelbase (Detection Zone). The robustness of the proposed method is proven using multilevel factorial experiment with variations of sensor device specifications, variations in routes and levels of potholes, and variations in sensor availability. The conducted experiment proves the statistical significance of the simulated uncertainty factors does not affect the performance of the resulting models. Besides showing robustness, the performance of the resulting classification models shows promising results that are comparable to or better than other currently available smartphone-based pothole methods."
Depok: Fakultas Teknik Universitas Indonesia, 2022
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Ramlah
"Prediksi dengan model mesin learning regresi telah banyak digunakan untuk penelitian. Salah satu model mesin learning yang digunakan untuk prediksi adalah random forest regressor. Mesin learning membutuhkan data training untuk mempelajari pola dan hubungan antar data. Model regressor yang sedangkan dikembangkan dalam bidang medis saat ini adalah model yang dapat memprediksi dosis pada perencanaan IMRT. Data perencanaan dalam format DICOM (format asli data) dieksport ke bentuk CVS (Comma Separated Values). Kemudian data dibagi menjadi data training dan testing yang dipilih secara random. Algoritma yang digunakan untuk memprediksi adalah random forest yang akan di training menggunakan 7-fold validation dan kemudian model akan di uji dengan data baru yaitu data testing yang belum pernah dilihat oleh model. Data yang dievaluasi yaitu parameter untuk mendapat HI (Homogenety Index) untuk organ target, dan dosis mean dan max untuk OAR (Organ At Risk). Random forest mampu memprediksi nilai sebenarnya dengan kesalahan dievaluasi menggunakan MAE pada fitur PTV D2 (0,012), D50 (0,015) dan D98 (0,018) serta pada fitur OAR (mean dan  max) paru kanan (0,104 dan 0,228), paru kiri (0,094 dan 0,27), jantung (0,088 dan 0,267), spinal cord (0,069 dan 0,121) dan (V95) Body (0,094).

Predictions with machine learning regression models have been widely used for research. One of the machine learning models used for prediction is the random forest regressor. Machine learning requires training data to determine patterns and relationships between data. Nowadays, the regressor model that being developed in the medical field is able to predict dose in IMRT planning. Planning data in DICOM format (original data format) was exported to CVS (Comma Separated Values) format. Then, the data was divided into training and testing data which were selected randomly. The algorithm used to predict is a random forest that was trained using 7-fold validation and the model was evaluated with new data, namely testing data that have not been seen by the model. The evaluated data are parameters to obtain HI (Homogenety Index) for target organs, and mean and max doses for OAR (Organ At Risk). Random forest was able to predict the true value with errors and it was evaluated using MAE for PTV D2 (0,012), D50 (0,015) and D98 (0,018), for OAR (mean and  max) right lung (0,104 and 0,228), left lung (0,094 and 0,27), heart (0,088 and 0,267), spinal cord (0,069 and 0,121) and (V95) Body (0,094).
"
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2021
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Fakultas Teknik Universitas Indonesia, 1995
S38530
UI - Skripsi Membership  Universitas Indonesia Library
cover
"Permodelan turbulen yang dlgunakan adalah model aljabar sedemana (model nol persamaan), yang disajikan da!am bentuk PDE. Persamaan-persamaan dlfferensial yang diselesaikan adalah persamaan kontinitas, momentum dan energL Kemudian dengan metode Beda Hingga secara implisit. persamaan-persamaan tersebut diubah kedalam persamaan numerik dan diselesaikan dengan metode TDMA {rridiagonaf Matrices Algorithm) secara numerik.Hasil akhir dari penyelesaien Sistem Persamaan Dlfferensial akan diperoleh distribusi temperatur udara pada penampang melintang dengan jarak 0,61 m; 1,22 m dan 1,83 m dari sisi masuk ruang annulus. Dari hasil penelitian in! dapat dinyataka.n bahwa kesesuaian antara data numerik dan data eksperimen yang cukup baik terjadi pada jarak 'dari sisi masuk ruang anulus sebesar 1,22 m. Untuk penelitian selanjutnya dengan lema yang sama.sebaiknya hanya di!akukan pada jarak dari sisi masuk tuang anurus 1,22 m saja, mesklpun metode yang digunakan berbeda"
Fakultas Teknik Universitas Indonesia, 1999
LP.pdf
UI - Laporan Penelitian  Universitas Indonesia Library
cover
Karina Chandra Dewi
"Klaim asuransi merupakan salah satu elemen penting dalam bidang jasa asuransi. Klaim severity mengacu pada besarnya dana yang harus dikeluarkan untuk memperbaiki kerusakan yang terjadi. Besarnya klaim asuransi dipengaruhi oleh banyak faktor. Hal ini menyebabkan volume data menjadi sangat besar. Sehingga diperlukan suatu metode yang tepat dalam memprediksi besarnya klaim severity untuk data besar. Salah satu metode yang dapat digunakan untuk menyelesaikan permasalahan tersebut yaitu Random Forest yang merupakan salah satu metode machine learning. Tesis ini mengaplikasikan model Random Forest untuk menyelesaikan masalah prediksi besarnya klaim severity pada asuransi mobil serta menganalisis pengaruh jumlah fitur yang digunakan pada model Random Forest terhadap akurasi model sebagai alternatif solusi terkait Big Data. Hasil simulasi menunjukkan bahwa model Random Forest dapat diterapkan pada kasus prediksi klaim severity yang merupakan kasus regresi dalam konteks machine learning. Dengan menggunakan 1⁄3 dari keseluruhan fitur yang ada, model Random Forest dapat menghasilkan akurasi yang setara dengan akurasi yang diperoleh ketika menggunakan seluruh fitur dalam membangun model, yaitu sekitar 99%. Hasil ini menunjukkan skalabilitas yang baik dari Random Forest terutama ditinjau dari jumlah fitur. Sehingga, model Random Forest dapat digunakan sebagai solusi untuk masalah Big Data terkait volume data.

The insurance claim is one of the important elements in the field of insurance services. Claim severity refers to the amount of fund that must be spent to repair the damage. The amount of insurance claim is influenced by many factors. This causes the volume of data to be very large. Therefore, a suitable method is required. Random Forest, one of the machine learning methods can be implemented to handle this problem. This thesis applies the Random Forest model to predict the amount of this claim severity on car insurance. Furthermore, analysis on the effect of the number of features used on model accuracy is conducted. The simulation result show that the Random Forest model can be applied in cases of prediction of claim severity which is a case of regression in the context of machine learning. Only by using 1⁄3 of the overall features, the accuracy of Random Forest model can produce accuracy that is comparable to that obtained when using all features, which is around 99%. This result confirms the scalability of Random Forest, especially in terms of the number of features. Hence, Random Forest model can be used as a solution to Big Data problems related to data volume."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2019
T54306
UI - Tesis Membership  Universitas Indonesia Library
cover
Ryan Fathurrachman
"ISPA atau infeksi saluran pernapasan akut adalah infeksi yang menyerang saluran pernapasan, baik saluran pernapasan atas maupun bawah. Salah satu penyakit yang termasuk dalam ISPA adalah pneumonia. Pneumonia merupakan infeksi paru-paru yang dapat memengaruhi kesehatan manusia secara serius. Pneumonia memengaruhi paru-paru bagian bawah dan menjadi penyebab area tersebut dipenuhi cairan lendir atau nanah. Pneumonia dikarenakan oleh berbagai agen patogen seperti virus, bakteri, dan jamur. Bakteri yang paling sering menyebabkan pneumonia adalah Streptococcus pneumoniae. Selain itu, Mycobacterium tuberculosis juga merupakan bakteri penyebab pneumonia di beberapa negara Asia. Berdasarkan hasil radiologi, pneumonia mirip dengan pneumonia tuberkulosis. Diagnosis dini sangat berperan penting dalam pengelolaan dan pengobatan efektif untuk penyakit ini. Dengan adanya kemajuan di bidang bioinformatika, sekuens protein menjadi salah satu pendekatan yang potensial untuk mendeteksi pneumonia secara cepat dan akurat. Oleh karena itu, penelitian ini adalah pendeteksian penyakit pneumonia dengan sekuens protein. Ekstraksi fitur untuk menjadi data numerik dibutuhkan pada penelitian ini dengan metode discere Penelitian ini menggunakan metode ensemble dari model Random Forest dan Support Vector Machine (SVM) dengan weighted majority algorithm (WMA) untuk mendeteksi penyakit pneumonia menggunakan sekuens protein Streptococcus pneumoniae dan Mycobacterium tuberculosis sebagai pembanding yang didapatkan melalui situs UniProt. Hasil penelitian ini menunjukkan bahwa metode ensemble model Random Forest dan model SVM dengan metode WMA memiliki kinerja terbaik dengan perbandingan data training dan data testing sebesar 80:20 didapat nilai akurasi sebesar 99,17%, nilai sensitivitas sebesar 99,65%, nilai spesifisitas sebesar 97,56%, dan nilai ROC-AUC sebesar 98,61%.

Infection of Acute Respiratory (ARI) is an infection that attacks the respiratory tract, affecting both the upper and lower respiratory tracts. One of the diseases included in ARI is pneumonia. Pneumonia is a lung infection that can seriously impact human health. It affects the lower part of the lungs and causes the area to fill with mucus or pus. Pneumonia can be caused by various pathogens such as viruses, bacteria, and fungi. The bacterium most commonly causing pneumonia is Streptococcus pneumoniae. Additionally, Mycobacterium tuberculosis is also a bacterial cause of pneumonia in several Asian countries. Based on radiological results, pneumonia is similar to tuberculosis pneumonia. Early diagnosis is crucial in the management and effective treatment of this desease. With advancements in bioinformatics, protein sequence has become a potential approach for the rapid and accurate detection of pneumonia. Therefore, this research focuses on the detection of pneumonia using protein sequences. Feature extraction is required to convert the data into numerical form using discere method. This research uses an ensemble method combining Random Forest and Support Vector Machine (SVM) models with the weighted majority algorithm (WMA) to detect pneumonia using protein sequences of Streptococcus pneumoniae and Mycobacterium tuberculosis for comparison. This protein sequences obtained from the UniProt website. The results of this research indicate that the ensemble method of Random Forest and SVM with WMA achieved the best performance with a training to testing data ratio of 80:20 with 99,17% accuracy, 99,65% sensitivity, 97,56% specificity, and 98,61% ROC-AUC score."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
<<   1 2 3 4 5 6 7 8 9 10   >>