Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 190222 dokumen yang sesuai dengan query
cover
M. Fatkhul Amin
"Event Extraction merupakan salah satu tugas dalam sistem ekstraksi informasi yang bertujuan untuk menemukan kumpulan informasi event dari suatu dokumen. Informasi tersebut dapat berupa informasi pihak-pihak yang terlibat, tempat kejadian, waktu, dan segala informasi yang terkait dengan event. Penelitian ini bertujuan untuk melakukan proses ekstraksi event (event pertemuan) pada teks berbahasa Indonesia. Dari event pertemuan tersebut, informasi yang dicari adalah informasi pihak yang terlibat (person), tempat (location), serta waktu (time) terjadinya event. Ekstraksi dilakukan dengan menggunakan pendekatan machine learning. Sedangkan metode machine learning yang digunakan adalah association rules, decision tree, dan neural networks. Penelitian bertujuan untuk melihat perbandingan kinerja ketiga metode tersebut terhadap ekstraksi event. Uji coba dilakukan pada artikel-artikel media massa online dari Kompas, Jawa Pos, Republika, dan Sinar Harapan. Pada ekstraksi event, diketahui bahwa metode decision tree menunjukkan kinerja yang lebih baik dibandingkan metode association rules dan metode neural networks dengan F-measure mencapai 83,95%. Metode association rules menunjukkan kinerja yang lebih baik dibandingkan dengan metode neural networks dengan F-measure masing-masing sebesar 82,41% dan 81,57%."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2006
S-Pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Amanda Nydia Augustizhafira
"Analisis sentimen merupakan bagian dari data mining text mining , yaitu proses memahami, mengekstrak, dan mengolah data tekstual secara otomatis untuk mendapatkan informasi. Pada penelitian ini, analisis sentimen diterapkan pada salah satu media sosial, yaitu Twitter. Analisis sentimen tergolong sebagai masalah klasifikasi yang dapat diselesaikan menggunakan salah satu metode machine learning, yaitu Neural Network. Pada machine learning, data dibagi menjadi data pelatihan dan data pengujian yang berasal dari domain yang sama.
Permasalahan utama pada penelitian ini adalah data pelatihan dan data pengujian berasal dari dua domain yang berbeda, sehingga perlu diterapkan pembelajaran lain selain machine learning. Masalah tersebut dapat diselesaikan dengan menggunakan transfer learning. Transfer learning merupakan suatu pembelajaran model yang dibangun oleh suatu data pelatihan dari suatu domain dan diuji oleh suatu data pengujian dari domain yang berbeda dari domain data pelatihan. Simulasi dalam penelitian ini menghasilkan suatu akurasi transfer learning dengan metode Neural Network yang nantinya akan diuji dengan fitur n-gram bi-gram dan tri-gram serta satu metode seleksi fitur, yaitu Extra-Trees Classifier.
Dalam penelitian ini, nilai akurasi transfer learning tertinggi didapat saat hidden layer berjumlah satu. Sebagian besar nilai akurasi tertinggi didapat saat penggunaan 250 neuron pada hidden layer. Fungsi aktivasi ReLU dan tanh menghasilkan nilai akurasi yang lebih tinggi dibandingkan fungsi aktivasi logistic sigmoid. Penggunakan metode seleksi fitur dapat meningkatkan kinerja transfer learning sehingga nilai akurasinya lebih tinggi dibandingkan simulasi tanpa penggunaan metode seleksi fitur.

Sentiment analysis is a part of data mining text mining , which is the process of understanding, extracting, and processing textual data automatically to obtain information. In this research, sentiment analysis is applied to one social media called Twitter. Sentiment analysis is categorized as a classification problem that can be solved using one of machine learning methods, namely Neural Network. In machine learning, data is divided into training data and test data from the same domain.
The main problem in this research is training data and test data come from two different domains, so it is necessary to apply other learning beside machine learning. The problem can be solved by using transfer learning. Transfer learning is a model learning constructed by a training data from a domain and tested by a test data from a different domain from the training data domain. The simulation in this research resulted in an accuracy of learning transfer with Neural Network method which will be tested using n grams bi grams and tri grams and one feature selection method called Extra Trees Classifier.
In this research, the highest value of transfer learning accuracy is obtained when one hidden layer is used. Most of the highest accuracy values are obtained from the use of 250 neurons on the hidden layer. The activation function of ReLU and tanh yield a higher accuracy value than the logical activation function sigmoid . The use of feature selection method can improve the transfer learning performance so that the accuracy value is higher than simulation without the use of feature selection method.
"
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2018
S-Pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Yovan Yudhistira Widyananto
"Keamanan privasi data dan informasi dalam internet sering menjadi topik pembahasan dari waktu ke waktu, hal ini dikarenakan metode penyerangan siber selalu berevolusi menyesuaikan dengan struktur keamanan yang ada, menjadikan bidang keamanan siber menjadi bagaikan kompetisi untuk selalu lebih dahulu dari lawannya. Salah satu contoh implementasi keamanan siber merupakan Intrusion Detection System, dikenal juga dengan IDS. IDS dapat membantu menjaga sebuah jaringan dengan mendeteksi jika ada tanda-tanda penyerangan, namun dengan ini saja tidak cukup untuk memaksimalkan keamanan sebuah jaringan. Dari dasar IDS ini, sebuah proyek mencoba mengembangkan konsepnya dan membuat struktur besar, dan berhasil diciptakan proyek Mata Elang. Struktur Mata Elang dapat menjadi perantara antara internet dengan jaringan yang dilindunginya, dan ketika terjadi serangan, aktivitas tersebut akan dideteksi, ditahan, dan diproses oleh Mata Elang. Sistem deteksi Mata Elang bergantung kepada framework Snort. Sayangnya, Snort tidak memiliki kemampuan untuk beradaptasi di luar dari konfigurasi yang telah diberikan kepadanya. Dalam penelitian ini, penulis akan mengimplementasikan Machine Learning untuk meningkatkan keamanan yang diberikan pada proyek Mata Elang, spesifiknya pada sensornya yang menggunakan Snort. Setelah segala proses perancangan, pembuatan, dan pengujian telah dilakukan, hasil akhir yang didapatkan dari sistem Machine Learning merupakan sistem prediksi yang memuaskan untuk memprediksi kategori serangan bahkan dengan dukungan data yang lemah, namun kemampuan dari aturan Snort yang dihasilkan masih belum diuji dengan matang.

The talk about the security of private data and information will continue to be a relevant topic because of the nature of the concept. Cyberattacks have always been adapting according to the technology and structure that exists at the time, and so cybersecurity will continue to be a competition for gaining the advantage against their contrarian. One of the prime examples in cybersecurity implementation is Intrustion Detection Systems, also known as the shortened term, IDS. IDS can help guard a network by detecting different kinds of anomalies or attacks, although this alone wouldn’t be enough to maximize the level of proper security necessary for a whole network. Under the basic concept of IDS, a project attempts to develop an IDS and create a larger structure. The project was successfully implemented and now titled as Mata Elang. Mata Elang’s structure is an intermediary between an internet connection and the network it is connected to, and when an attack happens, those activities will be detected, interrupted, and then processed by Mata Elang. Mata Elang’s detection system completely relies on the framework Snort. Unfortunately, Snort does not have the capabilities to adapt outside the configurations that has been given to it. In this research, the writer will implement Machine Learning to further increase the security provided by Mata Elang, specifically on the sensors that uses Snort. After every step of the planning, making, and testing has been done the final result of the product was a Machine Learning system that has a satisfactory performance in categorizing the attacks, even with a weak supporting data, however the performance of the snort rules generated by it has not been tested thoroughly.
"
Depok: Fakultas Teknik Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Nofa Aulia
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2019
T51811
UI - Tesis Membership  Universitas Indonesia Library
cover
Richie Ghifari
"Rancang campur beton merupakan proses bertahap dan kompleks untuk mencoba menemukan komposisi bahan terbaik guna menghasilkan beton dengan performa terbaik. Kuat tekan beton merupakan sifat terpenting dalam kualitas beton dibandingkan sifat-sifat lain. Dalam proses pembuatannya, banyak variabel terutama jumlah komposisi material penyusun yang dapat memengaruhi kuat tekan beton. Terdapat beberapa metode konvensional dalam memprediksi beton yang terkadang memberikan hasil prediksi lebih atau kurang dari kuat tekan yang ditargetkan. Diperlukan metode yang akurat dalam memprediksi kuat tekan beton agar dapat memberikan keuntungan secara signifikan terhadap penggunaan bahan. Oleh karena itu, penelitian ini menggunakan Deep Neural Network (DNN) sebagai subbidang dari Machine Learning (ML) dan Artificial Intelligence (AI), untuk memprediksi kuat tekan beton berdasarkan komposisi campuran dan properti materialnya. Penelitian ini menghasilkan formula matematika berupa persamaan yang dihasilkan dari model DNN terbaik dengan melihat aspek error model dan grafik model loss. Terdapat total 2048 model yang dianalisis dengan variasi jumlah variabel input (feature) yang berbeda-beda. Model 280 pada kasus 1 dan model 23 pada kasus 5 merupakan model terbaik yang dihasilkan penelitian ini, dengan masing-masing nilai error model 43,8028 dan 5778,5850 untuk Mean Squared Error (MSE) serta 5,0073 dan 59,8225 Maen Absolute Error (MAE).

Concrete mix design is a gradual and complex process of trying to find the best ingredient composition to produce the best performing concrete. The compressive strength of concrete is the most important property in concrete quality compared to other properties. In the manufacturing process, many variables, especially the amount of material composition, can affect the compressive strength of concrete. There are several conventional methods of predicting concrete that sometimes give predictive results more or less than the targeted compressive strength. An accurate method of predicting the compressive strength of concrete is needed in order to significantly benefit the use of materials. Therefore, this research utilizes Deep Neural Network (DNN), a subfield of Machine Learning (ML) and Artificial Intelligence (AI), to predict the compressive strength of concrete based on its mix composition and material properties. This research produces mathematical formulas in the form of equations generated from the best DNN model by looking at the aspects of model error and model loss graphs. There are a total of 2048 models analyzed with different variations in the number of input variables (features). Model 280 in case 1 and model 23 in case 5 are the best models produced by this study, with model error values of 43.8028 and 5778.5850 for Mean Squared Error (MSE) and 5.0073 and 59.8225 Maen Absolute Error (MAE), respectively.
"
Depok: Fakultas Teknik Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Fernanda Hartoyo
"Bejana tekan merupakan peralatan yang sebagai penampung fluida cair maupun gas dengan temperatur yang memiliki perbedaan dengan lingkungan yang ada di sekitarnya yang memiliki kemungkinan kegagalan yang tinggi yang dapat berpengaruh pada banyak faktor. Kegagalan bejana tekan dapat disebabkan karena adanya fenomena korosi seragam yang menyebabkan keluarnya fluida berbahaya dari peralatan yang memiliki tekanan karena adanya penipisan pada dinding bejana tekan. Hal ini dapat dihindari dengan melakukan inspeksi menggunakan risk-based inspection (RBI) yang mampu meningkatkan keamanan bejana tekan berbasis risiko yang dilakukan pada suatu peralatan berdasarkan prioritas risiko yang mempermudah dalam melakukan inspeksi dengan memperhatikan Probability of Failure dan Consequence of Failure. Salah satu metode untuk menganalisis risiko pada bejana tekan adalah dengan menggunakan metode pembelajaran mesin berbasis deep learning yang akan mengembangkan model penilaian risiko kegagalan bejana tekan minyak dan gas akibat korosi seragam yang dapat mempersingkat waktu, meningkatkan akurasi, efisien dalam melakukan pengolahan data, serta lebih lebih hemat biaya dengan menawarkan akurasi perhitungan yang tinggi. Penelitian menghasilkan program prediksi risiko bejana tekan dengan menggunakan klasifikasi pembelajaran mesin berbasis deep learning untuk memprediksi kegagalan pada peralatan bejana tekan akibat korosi seragam dengan menggunakan metode Risk Based Inspection dengan beberapa parameter model seperti random state senilai 25, learning rate sebesar 0.001, dengan layer berjumlah 3 dan dense 64,32,16, test size sebesar 20% dan batch size sebesar 32, dan epoch dengan nilai 150 menghasilkan akurasi model sebesar 93% yang didapatkan dari validasi confusion matrix. Nilai akurasi 93% bersumber dari 300 data yang didapatkan dari pembuatan dataset dengan berlandaskan standard API RBI 581.

A pressure vessel is an equipment that acts as a container for a liquid or gas with a different temperature from the surrounding environment, a high probability of failure, which can affect many factors. Pressure vessel failure can be caused by uniform corrosion, causing the dangerous liquid to be discharged from the pressure vessel due to thinning the pressure vessel wall. Pressure vessel failure can prevent failure by performing Risk Based Inspection (RBI), improving the safety and reliability of pressure vessels based on the risk performed on the equipment are based on risk priority. RBI facilitates the execution of tests that consider the probability of failure and the consequences of failure. One risk analysis method in pressure vessels is to use deep learning based machine learning to develop a failure risk assessment of pressure vessels due to uniform corrosion. This method can shorten the time, increase accuracy, be efficient in data processing, and be more cost-effective by offering high calculation accuracy. In this study, a risk prediction program of a pressure vessel is completed using a deep learning based machine learning classification to predict failure of pressure vessel using the Risk based Inspection method. This program which obtained the following model parameters such as random state of 25, a learning rate of 0.001, with three layers and dense 64,32,16, test size of 20% and batch size of 32, and an epoch with a value of 150, resulted in a model accuracy of 93% obtained from the validation of the confusion matrix. Program with accuracy of 93% comes from 300 dataset based on the RBI 581 API standard."
Depok: Fakultas Teknik Universitas Indonesia, 2022
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Nagisa Eremia Anju
"Tenaga kerja kesehatan pada masa pandemi bekerja sebagai garda terdepan yang memiliki resiko tertinggi tertular virus corona. Sampai pada hari ini, perawatan dan pemeriksaan kondisi vital pasien COVID-19 masih banyak dilakukan dengan kontak langsung minimal sebanyak empat kali dalam sehari. Hal ini berisiko meningkatkan penyebaran virus hingga menurunkan jumlah tenaga kerja kesehatan. Sampai pada saat ini, hampir seluruh rumah sakit masih menggunakan sphygmomanometer tradisional dengan cuff yang membutuhkan bantuan tenaga medis ataupun tanpa bantuan, namun pengukuran dilakukan secara invasif. Oleh karena itu, dibutuhkan suatu alat yang dapat memonitor kondisi vital pasien tanpa kontak langsung terutama dalam mengukur tekanan darah dan bersifat noninvasif. Penelitian ini bertujuan untuk membuat suatu algoritma pengolahan sinyal plethysmography berbasis ekstraksi fitur dan machine learning untuk prediksi tekanan darah. Dengan menggunakan sensor MAX30102 dan ESP32, sinyal PPG yang didapat dari jari akan dilakukan pre-processing dengan menenerapkan baseline fitting, kemudian deteksi puncak, hingga empat fitur utama sinyal PPG, yaitu systolic peak, diastolic peak, dicrotic notch, dan foot dapat diekstrak. Data ekstraksi fitur sinyal PPG secara ­real-time ini digabungkan menjadi satu dataset dan dimasukkan ke dalam machine learning untuk diprediksi nilai tekanan darahnya. Evaluasi hasil prediksi tekanan darah menunjukkan nilai Mean Absolute Error yang kecil, yaitu 1,56/2,35 yang masih diterima oleh standar ISO 81060-2:2013 sehingga dapat dijadikan fundamental untuk sistem pengukuran tekanan darah noninvasif.

Health workers during the pandemic act as the frontliner who have the highest risk of contracting the coronavirus. Most of the treatment and examination of the vital condition of COVID-19 patients is carried out with direct contact at least four times a day. This increases the risk of virus spreading, moreover reducing the number of health workers. To date, almost all hospitals still require medical assistance to measure blood pressure using the traditional cuff sphygmomanometer or without assistance however, the measurements are carried out invasively. Therefore, a device that can monitor the patient's vital condition without direct contact, especially in measuring blood pressure and non-invasive is needed. This thesis aims to develop a plethysmography signal processing algorithm based on feature extraction and machine learning for blood pressure prediction. By using the MAX30102 and ESP32 sensors, the PPG signal obtained from the finger will be preprocessed by applying a baseline fitting and peak detection, thus the four main features of the PPG signal, namely systolic peak, diastolic peak, dicrotic notch, and foot can be extracted. This real-time PPG signal feature extraction data is then combined into a single dataset and by using machine learning, blood pressure values are predicted. Evaluation of the blood pressure predictions shows a small Mean Absolute Error value, 1.56/2.35 which meets the ISO 81060-2:2013 standard. Hence, the results demonstrate the applicability of the proposed algorithm in predicting blood pressure and can be developed as a noninvasive real-time blood pressure measurement system in the future.
"
Depok: Fakultas Teknik Universitas Indonesia, 2022
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Iryanti Djaja
"Budidaya udang vaname (Litopenaeus vannamei) sangat diminati sehingga permintaan udang ini meningkat setiap tahunnya. Masalah terberat para petambak adalah kegagalan panen yang berakibat kepada keberlangsungan usaha mereka. Perlu adanya usaha perbaikan untuk meningkatkan keberhasilan panen. Penelitian ini bertujuan untuk lebih menggali mengenai penggunaan machine learning dalam prediksi hasil panen dari data kualitas air. Hasil prediksi ini selanjutnya dipakai dan digunakan dalam proses bisnis sehingga dapat meningkatkan produktivitas. Analisis yang digunakan pada penelitian ini adalah analisis kuantitatif dan kualitatif serta perbaikan proses bisnis. Analisis kuantitatif dengan metode big data dan machine learning. Model yang dipakai adalah k-Nearest Neighbor (kNN), Decision Tree (DT) dan Logistic Regression (LR). Analisis kualitatif dilakukan dengan observasi dan interview untuk memperbaiki proses bisnis. Proses bisnis diperbaiki mengikuti BPM Lifecycle dengan memasukan hasil analisis kuantitatif. Dari penelitian ini didapatkan bahwa prediksi machine learning dengan model Decision Tree dari variabel rasio bakteri merugikan dan NH4+ memberikan akurasi tertinggi mencapai 96%. Setelah didapatkan model dan variabel dengan akurasi tertinggi, penelitian ini juga melakukan penerapan ke dalam proses bisnis dengan pendekatan BPM Lifecycle sehingga hasil tersebut dapat diimplementasi dan memberikan hasil yang lebih produktif.

Interest in Vaname shrimp (Litopenaeus vannamei) farming is growing every year. The biggest problem for shrimp farming was the unsuccessful harvest that affected their business sustainability. So, there should be an improvement made to increase the chance of a successful harvest and its productivity. Past research mentioned that vaname shrimp harvest result can be predicted by machine learning approach from water quality data. It gave good accuracy and can be used to have faster decision making. The objective of this research is to deep dive into the utilization of machine learning to predict the successful harvest from water quality data. The predicted result will be utilized in the business process to improve productivity. Analysis that used at this research are quantitative and qualitative with business process improvement. Quantitative analysis used big data methode and machine learning. Models that have been applied are k-Nearest Neighbor (kNN), Decision Tree (DT) dan Logistic Regression (LR). Data that is used for analysis are pH, salinity, NOx, NH4+, and harmful bacteria index. Qualitative analysis was applied by observation and interview with the focus to improve business process. Business processes will be improved using BPM Lifecycle with the utilization of quantitative result. This research showed that prediction machine learning with Decision Tree model from harmful bacteria index and NH4+ giving the best accuracy until 96%. The next step was utilizing the quantitative result at the business process with BPM Lifecycle approach so the result can be implemented and gave more productive result."
Jakarta: Fakultas Ekonomi dan Bisnis Universitas Indonesia, 2023
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Hakim Amarullah
"Proses training model membutuhkan sumber daya komputasi yang akan terus meningkat seiring dengan bertambahnya jumlah data dan jumlah iterasi yang telah dicapai. Hal ini dapat menimbulkan masalah ketika proses training model dilakukan pada lingkungan komputasi yang berbagi sumber daya seperti pada infrastruktur komputasi berbasis klaster. Masalah yang ditimbulkan terutama terkait dengan efisiensi, konkurensi, dan tingkat utilisasi sumber daya komputasi. Persoalan efisiensi muncul ketika sumber daya komputasi telah tersedia, tetapi belum mencukupi untuk kebutuhan job pada antrian ter- atas. Akibatnya sumber daya komputasi tersebut menganggur. Penggunaan sumber daya tersebut menjadi tidak efisien karena terdapat kemungkinan sumber daya tersebut cukup untuk mengeksekusi job lain pada antrian. Selain itu, pada cluster computing juga mem- butuhkan sistem monitoring untuk mengawasi dan menganalisis penggunaan sumber daya pada klaster. Penelitian ini bertujuan untuk menemukan resource manager yang sesuai untuk digunakan pada klaster komputasi yang memiliki GPU agar dapat meningkatkan efisiensi, implementasi sistem monitoring yang dapat membantu analisis penggunaan sumber daya sekaligus monitoring proses komputasi yang sedang dijalankan pada klaster, dan melayani inference untuk model machine learning. Penelitian dilakukan dengan cara menjalankan eksperimen penggunaan Slurm dan Kubernetes. Hasil yang diperoleh adalah Slurm dapat memenuhi kebutuhan untuk job scheduling dan mengatur penggunaan GPU dan resources lainnya pada klaster dapat digunakan oleh banyak pengguna sekaligus. Sedangkan untuk sistem monitoring, sistem yang dipilih adalah Prometheus, Grafana, dan Open OnDemand. Sementara itu, sistem yang digunakan untuk inference model adalah Flask dan Docker.

The amount of computational power needed for the model training process will keep rising along with the volume of data and the number of successful iterations. When the model training process is conducted in computing environments that share resources, such as on cluster-based computing infrastructure, this might lead to issues. Efficiency, competition, and the level of resource use are the three key issues discussed.Efficiency problems occur when there are already computing resources available, yet they are insufficient to meet the demands of high-level workloads. The power of the machine is subsequently wasted. The utilization of such resources becomes inefficient because it’s possible that they would be adequate to complete other tasks on the front lines. A monitoring system is also necessary for cluster computing in order to track and assess how resources are used on clusters. The project seeks to set up a monitoring system that can assist in analyzing the usage of resources while monitoring the com- puting processes running on the cluster and locate a suitable resource manager to be utilized on a computing cluster that has a GPU in order to increase efficiency, also serve inference model in production. Slurm and Kubernetes experiments were used to conduct the investigation. The findings show that Slurm can handle the demands of job scheduling, manage the utilization of GPUs, and allow for concurrent use of other cluster resources. Prometheus, Grafana, and Open OnDemand are the chosen moni- toring systems. Else, inference model is using Flask and Docker as its system constructor.
"
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Muhammad Anis Abdul Aziz
"Proses training model membutuhkan sumber daya komputasi yang akan terus meningkat seiring dengan bertambahnya jumlah data dan jumlah iterasi yang telah dicapai. Hal ini dapat menimbulkan masalah ketika proses training model dilakukan pada lingkungan komputasi yang berbagi sumber daya seperti pada infrastruktur komputasi berbasis klaster. Masalah yang ditimbulkan terutama terkait dengan efisiensi, konkurensi, dan tingkat utilisasi sumber daya komputasi. Persoalan efisiensi muncul ketika sumber daya komputasi telah tersedia, tetapi belum mencukupi untuk kebutuhan job pada antrian ter- atas. Akibatnya sumber daya komputasi tersebut menganggur. Penggunaan sumber daya tersebut menjadi tidak efisien karena terdapat kemungkinan sumber daya tersebut cukup untuk mengeksekusi job lain pada antrian. Selain itu, pada cluster computing juga mem- butuhkan sistem monitoring untuk mengawasi dan menganalisis penggunaan sumber daya pada klaster. Penelitian ini bertujuan untuk menemukan resource manager yang sesuai untuk digunakan pada klaster komputasi yang memiliki GPU agar dapat meningkatkan efisiensi, implementasi sistem monitoring yang dapat membantu analisis penggunaan sumber daya sekaligus monitoring proses komputasi yang sedang dijalankan pada klaster, dan melayani inference untuk model machine learning. Penelitian dilakukan dengan cara menjalankan eksperimen penggunaan Slurm dan Kubernetes. Hasil yang diperoleh adalah Slurm dapat memenuhi kebutuhan untuk job scheduling dan mengatur penggunaan GPU dan resources lainnya pada klaster dapat digunakan oleh banyak pengguna sekaligus. Sedangkan untuk sistem monitoring, sistem yang dipilih adalah Prometheus, Grafana, dan Open OnDemand. Sementara itu, sistem yang digunakan untuk inference model adalah Flask dan Docker.

The amount of computational power needed for the model training process will keep rising along with the volume of data and the number of successful iterations. When the model training process is conducted in computing environments that share resources, such as on cluster-based computing infrastructure, this might lead to issues. Efficiency, competition, and the level of resource use are the three key issues discussed.Efficiency problems occur when there are already computing resources available, yet they are insufficient to meet the demands of high-level workloads. The power of the machine is subsequently wasted. The utilization of such resources becomes inefficient because it’s possible that they would be adequate to complete other tasks on the front lines. A monitoring system is also necessary for cluster computing in order to track and assess how resources are used on clusters. The project seeks to set up a monitoring system that can assist in analyzing the usage of resources while monitoring the com- puting processes running on the cluster and locate a suitable resource manager to be utilized on a computing cluster that has a GPU in order to increase efficiency, also serve inference model in production. Slurm and Kubernetes experiments were used to conduct the investigation. The findings show that Slurm can handle the demands of job scheduling, manage the utilization of GPUs, and allow for concurrent use of other cluster resources. Prometheus, Grafana, and Open OnDemand are the chosen moni- toring systems. Else, inference model is using Flask and Docker as its system constructor.
"
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
<<   1 2 3 4 5 6 7 8 9 10   >>