Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 245270 dokumen yang sesuai dengan query
cover
Kheisya Amanda
"Dalam industri perbankan, penilaian kredit yang akurat merupakan kunci dalam mengelola risiko kredit. Perkembangan ekonomi digital telah membawa inovasi dalam proses pemberian kredit yang ditandai dengan munculnya Layanan Jasa Pinjam Meminjam Uang Berbasis Teknologi Informasi. Hal ini membuat bank dihadapkan pada tantangan penilaian kredit yang lebih kompleks. Seiring perkembangan ilmu pengetahuan dan teknologi, algoritma machine learning telah terbukti memiliki kinerja yang unggul dalam proses penilaian kelayakan kredit. Penelitian ini menggunakan dua algoritma boosting, yaitu AdaBoost dan XGBoost dalam klasifikasi kinerja pembayaran pinjaman kredit. Kinerja pembayaran pinjaman kredit dibedakan menjadi dua kelas, yaitu Good dan Bad dengan kriteria Good adalah debitur yang melakukan pembayaran pinjaman kredit tidak lebih dari 3 bulan dari batas jatuh tempo dan Bad adalah debitur yang melakukan pembayaran pinjaman kredit lebih dari 3 bulan dari batas jatuh tempo. Dalam implementasi metode, digunakan data riwayat pembayaran pinjaman kredit khususnya untuk produk Kredit Usaha Mikro (KUM) digital yang diperoleh dari PT Bank X Tbk. dengan jumlah data berjumlah 2190 observasi. Jumlah observasi yang termasuk dalam kelas Good mencapai 89,36% dari total keseluruhan observasi, menyisakan 10,64% yang termasuk dalam kelas Bad. Pada penelitian ini digunakan metode Syntetic Minority Oversampling Technique (SMOTE) untuk mengatasi dataset yang tidak seimbang. Kinerja metode dievaluasi menggunakan nilai metrik accuracy, sensitivity, specificity, dan AUC-ROC dengan mempertimbangkan proporsi data training yang berbeda, mulai dari 50% sampai dengan 90%. Untuk meningkatkan keandalan hasil, simulasi metode dilakukan sebanyak lima kali. Hasil penelitian ini menunjukkan bahwa XGBoost mengungguli AdaBoost dalam klasifikasi kinerja pembayaran pinjaman kredit, terbukti dari perolehan kinerja yang lebih baik pada mayoritas metrik evaluasi dan kelima simulasi yang dilakukan, dengan rata-rata accuracy sebesar 87,71%, sensitivity sebesar 92,29%, specificity sebesar 44,21%, dan AUC-ROC sebesar 81,16%.

In the banking industry, accurate credit assessment is key to managing credit risk. The development of the digital economy has brought innovations in the credit granting process, marked by the emergence of Financial Technology-Based Money Lending Services. This presents banks with more complex credit assessment challenges. With the advancement of science and technology, machine learning algorithms have proven to be superior in the process of creditworthiness assessment. This research utilizes two boosting algorithms, namely AdaBoost and XGBoost, in classifying credit loan payment performance. The performance of credit loan payments is divided into two classes: Good and Bad, where Good refers to debtors who make credit loan payments no more than 3 months past the due date, and Bad refers to those making payments more than 3 months past the due date. In the implementation of the method, data on credit loan payment history, specifically for digital Micro Business Credit (KUM) products obtained from PT Bank X Tbk., were used, totaling 2190 observations. The number of observations classified as Good accounted for 89.36% of the total, leaving 10.64% in the Bad category. This study employed the Synthetic Minority Oversampling Technique (SMOTE) to address the imbalanced dataset. The performance of the method was evaluated using the metrics of accuracy, sensitivity, specificity and AUC-ROC, considering different proportions of training data, ranging from 50% to 90%. To enhance the reliability of the results, the method simulation was conducted five times. The findings indicate that XGBoost outperforms AdaBoost in classifying credit loan payment performance, as evidenced by its superior performance across all evaluation metrics and all five simulations, achieving an average accuracy of 87.71%, sensitivity of 92.29%, specificity of 44,12%, and AUC-ROC of 81.16%."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Ruth Intan Davina
"Ketidakseimbangan data merupakan tantangan umum dalam klasifikasi, di mana salah satu kelas memiliki ukuran sampel yang jauh lebih sedikit dibandingkan kelas lainnya dalam suatu dataset. Kondisi ini dapat menghasilkan klasifikasi yang memiliki akurasi prediksi yang tinggi untuk kelas mayoritas, tetapi cenderung rendah untuk kelas minoritas yang memiliki kontribusi kecil terhadap kesalahan total. Dalam aplikasi dunia nyata, kesalahan klasifikasi pada kelas minoritas sering kali memiliki konsekuensi yang lebih serius, seperti pada kasus deteksi serangan siber pada sistem keamanan jaringan. Kegagalan dalam mendeteksi serangan siber (false negative) dapat membuka celah keamanan yang berakibat fatal. Untuk menangani masalah ketidakseimbangan data, berbagai metode telah dikembangkan, termasuk pendekatan ensemble seperti SMOTEBoost (Synthetic Minority Oversampling Technique and Boosting) dan RUSBoost (Random Undersampling and Boosting). Pada penelitian skripsi ini dilakukan studi empiris pada data serangan malware dari dataset AWID3 menggunakan metode SMOTEBoost dan RUSBoost dan dibandingkan performanya dengan algoritma dasarnya, AdaBoost. Simulasi dilakukan dengan berbagai kombinasi hyperparameter dan variasi proporsi data training dan testing untuk mengevaluasi kinerja model secara komprehensif. Hasil penelitian menunjukkan bahwa metode SMOTEBoost dan RUSBoost memiliki kinerja yang sebanding dalam mendeteksi kelas minoritas, di mana nilai recall mencapai 0,99, dan lebih unggul dari metode AdaBoost dengan nilai recall 0,87-0,88. Penelitian tambahan yang dilakukan untuk mengevaluasi kinerja masing-masing metode pada berbagai jenis ketidakseimbangan menunjukkan bahwa kinerja metode AdaBoost menurun seiring dengan meningkatnya ketidakseimbangan relatif, sedangkan metode SMOTEBoost dan RUSBoost tetap stabil dengan kinerja yang baik. Namun, ukuran sampel minoritas yang terbatas atau absolute rarity memiliki dampak pada penurunan kinerja metode SMOTEBoost dan RUSBoost.

Imbalanced data is a common challenge in classification tasks, where one class has significantly fewer instances compared to others within a dataset. This condition can result in classification models with high predictive accuracy for the majority class but tend to perform poorly on the minority class, which contributes little to the overall error rate. In real-world applications, misclassifications errors on the minority class often bear more severe consequences, such as in the case of detecting cyber attacks in network security systems. Failure to detect cyber attacks (false negatives) can lead to security breaches with fatal consequences. To address the imbalanced data problem, various methods have been developed, including ensemble approaches such as SMOTEBoost (Synthetic Minority Oversampling Technique and Boosting) and RUSBoost (Random Undersampling and Boosting). In this thesis research, an empirical study was conducted on malware attack data from the AWID3 dataset using the SMOTEBoost and RUSBoost, and their performance was compared with their base algorithm, AdaBoost. Simulations were carried out with various combinations of hyperparameter and different train-test split to comprehensively evaluate the model’s performance. The research results showed that SMOTEBoost and RUSBoost methods had comparable performance in detecting the minority class, achieving remarkable recall values of 0.99, outperformed the AdaBoost method, which had recall values ranging from 0.87 to 0.88. Additional research conducted to evaluate the performance of each method on various types of imbalance showed that the performance of the AdaBoost method decreased as the relative imbalance increased, while the SMOTEBoost and RUSBoost methods maintained a stable and robust performance. However, a limited number of minority instances or absolute rarity had a negative effect on the performance of the SMOTEBoost and RUSBoost methods."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Joan Bidadari Annandale
"Penyakit Alzheimer adalah penyakit progresif yang dimulai dengan hilangnya ingatan ringan dan berkembang hingga hilangnya kemampuan bicara dan respon terhadap lingkungan. Penyakit ini belum dapat disembuhkan, dan pengobatan saat ini hanya berfungsi mengurangi gejala sementara. Oleh karena itu, penting untuk mengidentifikasi risiko utama pengembangan Alzheimer dan memberikan diagnosis yang tepat guna mendukung penelitian lebih lanjut. Model regresi Cox-Proportional Hazard sering digunakan untuk menangani data survival tersensor, tetapi saat ini, machine learning menunjukkan potensi besar. Dua model machine learning, Random Survival Forest dan Gradient Boosting Survival Analysis, mampu menangani data survival dan data tersensor tanpa memerlukan asumsi parameter. Kedua model ini juga menghindari overfitting dan lebih mudah diinterpretasi dibandingkan model non-parametrik lainnya. Hasil pada data Alzheimer menunjukkan bahwa Gradient Boosting Survival Analysis memiliki performa terbaik dengan nilai C-index 0.8503, diikuti oleh Random Survival Forest dengan nilai 0.8286. Model regresi Cox-PH memiliki kinerja terendah dengan nilai C-index 0.8092, dan data Alzheimer yang digunakan tidak memenuhi asumsi proportional hazard. Model Gradient Boosting Survival Analysis dan Random Survival Forest mengidentifikasi CDRSB dan FDG sebagai risiko terpenting, sedangkan model Cox-PH mengidentifikasi AV45 dan FDG.

Alzheimer's disease is a progressive disease that begins with mild memory loss and progresses to loss of speech and response to the environment. There is no cure for the disease, and current treatments only temporarily reduce symptoms. Therefore, it is important to identify the main risk factors for developing Alzheimer's and provide an accurate diagnosis to support further research. The Cox-Proportional Hazard regression model is often used to handle censored survival data, but currently, machine learning shows potential. Two machine learning models, Random Survival Forest and Gradient Boosting Survival Analysis, are able to handle survival data and censored data without requiring parameter assumptions. Both models also avoid overfitting and are easier to interpret than other non-parametric models. The results on Alzheimer's data show that Gradient Boosting Survival Analysis has the best performance with a C-index value of 0.8503, followed by Random Survival Forest with a value of 0.8286. The Cox-PH regression model has the lowest performance with a C-index value of 0.8092, and the data used does not meet the proportional hazard assumption. The Gradient Boosting Survival Analysis and Random Survival Forest models identified CDRSB and FDG as the most important risks, while the Cox-PH model identified AV45 and FDG."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Salma Mazaya Fasya
"Penuaan merupakan kumpulan perubahan biologis pada tubuh manusia yang terjadi secara bertahap dan dapat meningkatkan risiko terjadinya penyakit bahkan kematian. Hingga saat ini, usia kronologis menjadi indikator penuaan yang paling umum digunakan dalam dunia kesehatan. Akan tetapi, munculnya konsep usia biologis diyakini mampu memberikan pengukuran yang lebih akurat terkait penuaan pada manusia dibandingkan dengan usia kronologis. Usia biologis dipengaruhi oleh berbagai faktor yang disebut biomarker. Penelitian ini berfokus pada prediksi usia biologis berdasarkan usia kronologis dan fitur (biomarker) lainnya dengan memanfaatkan metode machine learning Extreme Gradient Boosting (XGBoost) dan Support Vector Regression (SVR). Dataset yang digunakan berupa data pemeriksaan medis oleh Kementerian Kesehatan RI. Pada dataset tersebut dilakukan data preprocessing, seleksi fitur menggunakan Spearman’s Rank Correlation Coefficient, dan pembangunan model. Model dievaluasi menggunakan metrik evaluasi pada model regresi yaitu Root Mean Square Error (RMSE), Coefficient of Determination , dan Adjusted . Ketiga metrik ini masing-masing menghitung selisih nilai prediksi dengan nilai aktual dan menunjukkan seberapa baik variabel dependen dapat dijelaskan oleh variabel independen pada model. Dengan metode XGBoost diperoleh nilai RMSE 8,0560, 0,2894, dan Adjusted 0,2006 untuk data pria, serta RMSE 6,3851, 0,4252, dan Adjusted 0,3938 untuk data wanita. Dengan metode SVR, diperoleh RMSE 8,0697, 0,2870, dan Adjusted 0,1979 untuk data pria, serta RMSE 6,7147, 0,3643, dan Adjusted sebesar 0,3296. Metode XGBoost lebih unggul dalam memprediksi usia biologis baik pada model pria maupun wanita dibandingkan metode SVR. Usia kronologis dan biomarker (fitur) lainnya terkait kesehatan juga ditemukan berpengaruh positif terhadap usia biologis seorang individu.

Aging is a collection of biological changes in the human body that occur gradually and can increase the risk of disease and even death. Until now, chronological age is the most commonly used indicator of aging in the medical sector. However, the emergence of the concept of biological age is believed to be able to provide a more accurate measurement of aging in humans compared to chronological age. Biological age is influenced by various factors called biomarkers. This research focuses on predicting biological age based on chronological age and other features (biomarkers) by utilizing the Extreme Gradient Boosting (XGBoost) and Support Vector Regression (SVR) machine learning methods. The dataset used is medical examination data by the Indonesian Ministry of Health. Data preprocessing was performed on this dataset, followed by feature selection using the Spearman Rank Correlation Coefficient, and subsequent model development. The model is evaluated using evaluation metrics in the regression model, namely Root Mean Square Error (RMSE), Coefficient of Determination , and Adjusted . These three metrics each calculate the difference between the predicted and actual values and indicate how well the dependent variable can be explained by the independent variables in the model. Using the XGBoost method, RMSE values were obtained of 8,0560, 0,2894, and Adjusted 0,2006 for male data, as well as RMSE 6,3851, 0,4252, dan Adjusted 0,3938 for female's data. Using the SVR method, RMSE 8,0697, 0,2870, and Adjusted 0,1979 were obtained for male data, as well as RMSE 6.7147, 0.3643, and Adjusted of 0,3296 for female's data. The XGBoost method demonstrates better performance in predicting biological age for both male and female models compared to the SVR method. Chronological age and other health-related biomarkers (features) were also found to have a positive impact on an individual's biological age."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Bagus Nurhuda
"Seiring bertambahnya jumlah pelanggan listrik di Indonesia menjadikan persentase kerugian dari susut non-teknis pada Perusahaan Listrik Negara (PLN) semakin besar tiap tahunnya yang menyebabkan berkurangnya keuntungan. Berbagai upaya telah dilakukan oleh PLN dengan membentuk tim Penertiban Pemakaian Tenaga Listrik (P2TL) berdasarkan informasi indikasi pencurian dan kelainan maupun pemilihan manual pada pelanggan pascabayar. Namun upaya yang dilakukan PLN sejauh ini masih belum efektif dalam penentuan Target Operasi (TO) karena membutuhkan waktu yang lama dengan hasil akurasi yang kecil. Tujuan dari penelitian ini adalah untuk menganalisis efektivitas dari data pemakaian listrik (kWh) pelanggan dalam pemodelan machine learning menggunakan algoritma Extreme Gradient Boosting (XGBoost) menggunakan metode feature engineering dan hyperparameter tuning. Hasil dari penelitian ini membuktikan bahwa penggunaan riwayat pemakaian listrik efektif dalam pemodelan hingga tingkat akurasi mencapai 80% pada penggunaan data jam nyala dan 82% pada penggunaan data gabungan jam nyala dengan metode statistik dan bantuan hyperparameter tuning. Dengan hasil ini dapat membantu PLN untuk menentukan TO pada pelanggan pascabayar dengan lebih mudah dan efisien menggunakan teknologi machine learning.

As the number of electricity customers in Indonesia increases, the percentage of non-technical losses in PLN (Perusahaan Listrik Negara) has been growing every year, leading to a decrease in profits. Various efforts have been made by PLN through the establishment of the Penertiban Pemakaian Tenaga Listrik (P2TL) team based on indications of theft or abnormalities and manual selection of postpaid customers. However, PLN's efforts so far have been ineffective in determining the Operational Target (TO) due to the long time required and low accuracy. The aim of this research is to analyze the effectiveness of customer electricity usage data (kWh) in machine learning modeling using the Extreme Gradient Boosting (XGBoost) algorithm with feature engineering and hyperparameter tuning methods. The results of this study demonstrate that the use of electricity usage history is effective in modeling, achieving an accuracy rate of 80% when using on/off hours data and 82% when using a combination of on/off hours data with statistical methods and the assistance of hyperparameter tuning. These findings can assist PLN in determining the TO for postpaid customers more easily and efficiently using machine learning technology."
Depok: Fakultas Teknik Universitas Indonesia, 2022
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Adhitya Dwi Nugraha
"Ledakan batu merupakan kecelakaan destruktif yang cukup sering terjadi pada tambang bawah tanah. Seiring dengan berkembangnya teknologi, machine learning hadir sebagai alternatif solusi yang dapat dimanfaatkan dalam langkah preventif atas kasus ledakan batu. Penelitian ini menggunakan GWO-SVM dan XGBoost sebagai model machine learning dalam klasifikasi ledakan batu dan intensitasnya pada tambang bawah tanah. Grey Wolf Optimization (GWO) digunakan sebagai optimizer dari parameter SVM. Intensitas ledakan batu dibedakan atas tidak ada ledakan batu, lemah, sedang dan kuat. Dalam implementasi model, digunakan 467 kasus ledakan batu yang dikumpulkan dari berbagai sumber. Fitur yang digunakan pada penelitian ini meliputi tegangan maksimal tangensial, kekuatan tekan uniaksial, kekuatan tarik uniaksial, koefisien tegangan, koefisien kerapuhan batuan, dan indeks regangan elastis. Sebelum implementasi model dilakukan data preprocessing yang meliputi imputasi missing values, menghapus outlier, normalisasi fitur dan resampling data. Kinerja model dievaluasi berdasarkan nilai metrik accuracy, precision, recall, dan f1-score dengan memerhatikan running time dan proporsi data training berkisar dari 50% hingga 90%. Hasil penelitian menunjukkan bahwa GWO-SVM mengungguli XGBoost baik dalam klasifikasi ledakan batu dengan accuracy 98.0392%, precision 97.8495%, recall 98.2609%, dan f1-score 98.0161% serta klasifikasi intensitas ledakannya dengan accuracy 75.8242%, precision 75.1473%, recall 75.3115%, dan f1-score 75.2150%.

Rockburst is a destructive accident that frequently occurs in underground mines. With the advancement of technology, machine learning has emerged as an alternative solution that can be utilized to measures against rockbursts. This research employs GWO-SVM and XGBoost as machine learning models for the classification of rockburst and its intensity in underground mines. Grey Wolf Optimization (GWO) is used as an optimizer for SVM parameters. The intensity of a rockburst is classified into four categories: no rockburst, weak, moderate, and strong. The implementation of the model utilizes 476 cases of rockburst collected from various sources. The features used in this study include maximum tangential stress, uniaxial compressive strength, uniaxial tensile strength, stress coefficient, rock brittleness coefficient, and elastic strain index. Before implementing the model, data preprocessing is conducted, which includes imputing missing values, removing outliers, feature normalization, and data resampling. The performance of the model is evaluated based on metrics such as accuracy, precision, recall, and f1-score with various training data proportions ranging from 50% to 90%. The research results indicate that GWO-SVM outperforms XGBoost in both the classification of rockburst with 98.0392% accuracy, 97.8495% precision, 98.2609% recall, and 98.0161% f1-score as well as intensity with 75.8242% accuracy, 75.1473% precision, 75.3115% recall, and 75.2150% f1-score.
"
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Randolf
"Maraknya keberadaan minimarket di Jakarta khususnya di daerah perumahan seperti di kawasan Perumnas Klender Jakarta Timur membuat pihak manajemen dari suatu minimarket di daerah tersebut ingin melakukan kebijakan-kebijakan untuk meningkatkan penjualan. Salah satu kebijakannya adalah dengan merancang discount untuk pembelian suatu kombinasi produk tertentu. Untuk melakukan hal tersebut harus diketahui kombinasi produk apa yang diminati oleh pelanggan, Salah satu caranya dengan Metode Kaidah Asosiasi. Metode Kaidah Asosiasi menggunakan algoritma Apriori untuk menghasilkan aturan-aturan asosiasi. Aturan asosiasi ini akan memberikan informasi mengenai kombinasi produk yang diminati oleh pelanggan, sehingga pihak manajemen dapat melakukan kebijakan-kebijakan untuk menarik para pelanggan berbelanja di minimarketnya.
Kata kunci : Data transaksi, itemset, frequent, algoritma Apriori, support, confidence, aturan asosiasi.
ix + 39 hlm ; lamp
Bibliografi : 8 (1995-2006)"
Depok: Universitas Indonesia, 2008
S27765
UI - Skripsi Open  Universitas Indonesia Library
cover
Arista Nurbaya
"Efisiensi prosedural kerja yang melibatkan relevansi antar data yang kompleks dan dalam kuantitas yang besar adalah sangat diperlukan. Salah satu solusi adalah dengan menggunakan fasilitas mesin database AS/400 yangmenyediakaii sarana untuk mengolah data kapasitas besar sesuai dengan keinginan pengguna dari operasi sistem yang tersedia. Dalam skripsi ini dibahas tentang dasar-dasar database relational, tujuannya adalah mempelajari fasilitas database relational yang terintegrasi pada AS/400. Database relational merupakan suatu cara untuk melihat data dengan model relational berkenaan dengan aspek data seperti struktur data, integritas data dan manipuiasi data. Pembahasan lebih jauh akan mengungkap seluk beluk tabel jamak, arsutektur database dan fasilitas database. Pada skripsi ini dibuat suatu rancangan aplikasi database untuk keperluan pembelian material menggunakan dasar-dasar database relational untuk membangun relasi antar data yang disediakan oleh AS/400. Algoritma yang dibangun mempertimbangkan mapping database relational dalam menuungkan kebutuhan pengolahan data yang diperlukan dalam proses pembelian. Selanjutnya program aplikasi ini dikembangkan dengan membangun program tambahan P/O error list sebagai sarana database material yang diabaakan dalam program aplikasi OSL supaya dapat dengan mudah diolah kembali jika diperlukan. Sistem AS/400 yang dipakai sebagai mesin database menyediakan fasilitas database relational tcrintegrasi akan mcmberikan data secara sama dan konsisten schingga dapat dibangun program aplikasi database yang cfisien. Respon waktu proses adalah salah situ sarana untuk mcngetahui parameter tersebut, mcskipun sistem dengan banyak pengguna seperti AS/400 akan bmariasi responnya sciring dengan beban data dan sistem. Dari hasil uji coba didapatkan bahwa program inti OSL akan menggunakan utilitas sistem 47 % dan memiliki efisiensi sekitar 20% dibandingkan dengan program aplikasi pembehan acuan."
Depok: Fakultas Teknik Universitas Indonesia, 2004
S40007
UI - Skripsi Membership  Universitas Indonesia Library
cover
Gianinna Ardaneswari
"Dalam bioinformatika penelusuran basis data sekuens digunakan untuk mencari kemiripan antara sebuah sekuens dengan sekuens lainnya pada suatu basis data sekuens Salah satu algoritma untuk menghitung skor kemiripan yang optimal adalah algoritma Smith Waterman yang menggunakan pemrograman dinamik Algoritma ini memiliki kompleksitas waktu kuadratik yaitu O n2 sehingga untuk data yang berukuran besar membutuhkan waktu komputasi yang lama Komputasi paralel diperlukan dalam penelusuran basis data sekuens ini agar waktu yang dibutuhkan lebih cepat dan memiliki kinerja yang baik Dalam skripsi ini akan dibahas implementasi paralel untuk algoritma Smith Waterman menggunakan bahasa pemrograman CUDA C pada GPU dengan NVCC compiler pada Linux Selanjutnya dilakukan analisis kinerja untuk beberapa model paralelisasi tersebut yaitu Inter task Parallelization Intra task Parallelization dan gabungan keduanya Berdasarkan hasil simulasi yang dilakukan paralelisasi dengan gabungan kedua model menghasilkan kinerja yang lebih baik dari model lainnya Paralelisasi dengan model gabungan menghasilkan rata rata speed up sebesar 313x dan rata rata efisiensi sebesar 0 93

In bioinformatics sequence database searches are applied to find the similarity between a sequence with other sequences in a sequence database One of the algorithms to compute the optimal similarity score is Smith Waterman algorithm that uses dynamic programming This algorithm has a quadratic time complexity O n2 which requires a long computation time for large sized data In this occasion parallel computing is essential to solve this sequence database searches in order to reduce the running time and to increase the performance In this mini thesis we discuss the parallel implementation of Smith Waterman algorithm using CUDA C programming language with NVCC compiler on Linux Furthermore we run the performance analysis using three parallelization models including Inter task Parallelization Intra task Parallelization and a combination of both models Based on the simulation results a combination of both models has better performance than the others In addition parallelization using combination of both models achieves an average speed up of 313x and an average efficiency with a factor of 0 93"
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2013
S52395
UI - Skripsi Membership  Universitas Indonesia Library
cover
Rini Juwita
"Seiring dengan meningkatnya jumlah permintaan terhadap produk dan persaingan bisnis yang tinggi, peranan jaringan distribusi produk sangat berpengaruh dalam menjaga eksistensi usaha. Untuk menjamin kelancaran distribusi, maka perlu ditentukan jumlah dan lokasi titik distribusi (distribution points) yang optimal. Semakin banyak jumlah distribution points, akan lebih memberikan kepastian terpenuhinya demand di wilayah tersebut, akan tetapi juga akan membutuhkan biaya yang lebih besar. Demikian sebaliknya. Oleh karena itu diperlukan suatu studi untuk menentukan jumlah dan lokasi yang optimal dari distribution points agar perusahaan dapat meminimumkan biaya distribusi produknya. Metode yang digunakan adalah Algoritma Tabu Search dengan pendekatan centre of gravity.

Along with the increasing number of requests for product and the high competition of business nowadays, the role of distribution network is very important in maintaining the existence of the business. To ensure the distribution will be going smoothly, it is necessary to determine the number and location of distribution points. The more distribution points we have, the more demand will be covered in the region, but also will require a greater cost. This also happens to the case of fewer distribution points. Therefore we need a study to determine the optimal number and location of distribution points so that companies can minimize the distribution cost of its products. The method is Tabu Search Algorithm with the center of gravity approach."
Depok: Fakultas Teknik Universitas Indonesia, 2012
S1977
UI - Skripsi Open  Universitas Indonesia Library
<<   1 2 3 4 5 6 7 8 9 10   >>