Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 26131 dokumen yang sesuai dengan query
cover
Herry Susanto
"ABSTRAK
Di Indonesia, salah satu penyebab tingginya biaya BBM adalah adanya tindak pencurian
dan penyelewengan BBM yang sering kali terjadi di tengah lautan. Hal ini bisa terjadi
karena pada saat di tengah lautan, segala kegiatan kapal tersebut tidak bisa dipantau oleh
pusat operasional manajemen kapal. Selain upaya hukum, upaya pengawasan kapal
melalui teknologi terbaru juga terus dilakukan, salah satunya adalah teknologi Vessel
Monitoring System (VMS) berbasis Machine to machine (M2M). Perkembangan
teknologi VMS dan telemetri telah memungkinkan pengawasan kondisi mesin dan
pemakaian BBM kapal yang sedang berlayar secara online dan real time. Dengan
menambah perangkat pengukuran pemakaian bahan bakar tersebut, diharapkan
meningkatkan kecepatan koordinasi dan penanganan di lapangan saat terjadi
ketidakwajaran pemakaian BBM. Kecepatan dalam mengetahui adanya ketidakwajaran
ini sangat penting, karena proses pencurian minyak sering kali dilakukan dalam waktu
singkat. Pencurian minyak dengan modus ilegal tapping di darat hanya memerlukan
waktu 15 menit untuk 2000 liter (2 ton) BBM, sementara di laut diperlukan sekitar 5 jam
untuk memindahkan 12 ton BBM, atau sekitar 2.4 ton per jam untuk sebuah kapal saja.
Masalahnya untuk mengetahui ketidakwajaran tersebut masih tergantung pada analisa
tenaga ahli yang memerlukan waktu yang lama untuk melakukan analisa berbagai
parameter telemetri yang ada. Berdasarkan kondisi di atas, penelitian ini melakukan
analisis statistik terhadap data telemetri terutama data pergerakan kapal dan aktivitas
mesin untuk menentukan koefisien pergerakan kapal, lalu merancang sistem
pengklasifikasi kewajaran pemakaian BBM dengan metode Naive Bayes dan Logistic
Regression. Metode ini dipilih karena bisa memberikan hasil yang baik untuk prediksi
data-­data numerik maupun diskrit. Hasil penelitian ini menunjukkan bahwa data telemetri
dari sistem VMS dapat digunakan untuk mendeteksi adanya ketidakwajaran pemakaian
BBM. Untuk kebutuhan klasifikasi kewajaran pemakaian BBM pada data telemetri kapal,
algoritma pengklasifikasi Naive Bayes memiliki akurasi hingga 92% pada data sampel
dan Logistic Regression mampu mendeteksi dengan akurasi hingga 96% pada data
sampel.

ABSTRACT
In Indonesia, one of the causes of high fuel costs is the occurrence of theft and misuse of
fuel which often occurs in the middle of the ocean. This can happen because when in the
middle of the ocean, all the activities of the ship cannot be monitored by the ship
management operational center. In addition to legal efforts, efforts to monitor ships
through the latest technology are also being carried out, one of which is the Machine to
Machine (M2M) Vessel Monitoring System (VMS) technology. The development of
VMS and telemetry technology has enabled monitoring of engine conditions and fuel
consumption of ships that are sailing online and real time. By adding the fuel consumption
measurement device, it is expected to increase the speed of coordination and handling in
the field when there is an irregularity in the use of fuel. Speed in knowing the existence
of this irregularity is very important, because the process of oil theft is often done in a
short time. Theft of oil by illegal tapping on land only takes 15 minutes for 2000 liters (2
tons) of fuel, while at sea it takes around 5 hours to move 12 tons of fuel, or around 2.4
tons per hour for a ship. The problem is to find out the irregularities that still depend on
the analysis of experts who need a long time to analyze various parameters of existing
telemetry. Based on the above conditions, this study conducted a statistical analysis of
telemetry data, especially ship movement data and machine activity to determine the
coefficient of ship movements, then designed the fuel usage irregularity classification
system with the Naive Bayes and Logistics Regression. This method was chosen because
it can provide good results for predicting numerical and discrete data. The results of this
study indicate that telemetry data from the VMS system can be used to detect any
irregularities in using BBM. For the needs of the fairness classification of BBM usage on
ship telemetry data, the Naive Bayes classification algorithm has an accuracy of up to
92% in sample data and Logistic Regression is able to detect with accuracy up to 96% in
sample data."
2019
T53091
UI - Tesis Membership  Universitas Indonesia Library
cover
Yossi Andreano
"Leadframe merupakan salah satu komponen penting dalam pembuatan sirkuit terpadu. Aplikasi ini membutuhkan spesifikasi kompleks seperti kekuatan tarik dan konduktivitas listrik yang tinggi serta koefisien ekspansi termal yang rendah untuk memastikan performa yang baik. Hal tersebut menjadikan kandidat material yang layak digunakan untuk aplikasi ini menjadi sangat terbatas. Salah satu material yang umum digunakan dalam pembuatan leadframe adalah paduan tembaga. Namun, pengembangan material tersebut untuk memenuhi spesifikasi yang dibutuhkan bukanlah hal yang mudah. Penemuan kandidat paduan tembaga ini membutuhkan banyak uji coba hingga ditemukan kombinasi unsur paduan dan jenis pemrosesan yang optimal. Oleh karena itu, dibutuhkan sebuah pendekatan baru yang dapat mempercepat proses penemuan paduan tembaga baru dengan kombinasi sifat mekanis, elektrik, dan termal yang optimal. Salah satu solusi yang ditawarkan untuk mengatasi permasalahan ini adalah menggunakan metode ML. Pada penelitian ini enam buah model yang terdiri atas lima model ML klasik dan satu model DL dibangun untuk melakukan prediksi struktur material (model P2S) dan prediksi properti material (model S2P). Berdasarkan nilai koefisien determinasi (R2 ) ditemukan dua model P2S dan S2P terbaik adalah BPNN dan XGB. Kemudian, masing-masing model tersebut diintegrasikan untuk membentuk MLDS. Hasil MLDS menunjukkan bahwa program yang dibangun menggunakan model XGB memiliki fluktuasi (standar deviasi) yang lebih rendah dan dapat digunakan untuk memberikan rekomendasi paduan tembaga baru untuk aplikasi leadframe yang sejalan dengan literatur.

The leadframe is one of the crucial components in the manufacturing of Integrated Circuits (ICs). This application requires complex specifications such as high tensile strength and electrical conductivity, as well as low thermal expansion coefficients to ensure optimal performance. These requirements significantly limit the potential materials suitable for this application. One of the materials commonly used in the production of leadframes is copper alloys. However, developing this material to meet the necessary specifications is not easy. Discovering a suitable copper alloy candidate involves a lot of trial and error to find the optimal combination of alloying elements and processing methods. Therefore, a new approach is needed to accelerate the discovery process of new copper alloys with an optimal combination of mechanical, electrical, and thermal properties. One proposed solution to address this issue is the use of machine learning methods. In this study, six models consisting of five classical machine learning models and one deep learning model were developed to predict material structure (P2S model) and material properties (S2P model). Based on the coefficient of determination (R²) values, the best P2S and S2P models were found to be BPNN and XGB, respectively. These models were then integrated to form a Machine Learning Design System (MLDS). The results of the MLDS showed that the program built using the XGB model has lower fluctuation (standard deviation) and could be used to recommend new copper alloys for leadframe applications in line with the literature."
Depok: Fakultas Teknik Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Intan Septia Sari
"Implan tulang pada umumnya terbuat dari material logam, tetapi material logam dapat mengalami degradasi dalam jangka waktu tertentu di lingkungan biologis yang berpotensi menimbulkan efek toksik. Sehingga, dikembangkan pelapisan implan logam dengan hidroksiapatit (HAp, Ca10(PO4)6(OH)2). HAp sintetis berbeda dengan HAp biologis dalam hal sifat mekanik, stabilitas termal, dan laju degradasi. Untuk menutupi kekurangan HAp sintetis, sifat mekanik HAp dapat dioptimalkan dengan penambahan doping. Namun pada umumnya doping dapat menurunkan kristalinitas HAp, jika kristalinitas bernilai sangat rendah dapat menyebabkan pelepasan ion yang didoping secara lokal dan berkontribusi pada biodegradasi. Sehingga, dibutuhkan parameter untuk mencegah hal tersebut terjadi, salah satunya dengan parameter pemrosesan temperature dan waktu proses serta pemilihan doping dan komposisi yang tepat. Penelitian ini bertujuan untuk mengetahui efek penambahan doping dan parameter pemrosesan pada nilai kristalinitas HAp. Model machine learning yang akan digunakan adalah XGB, KNN, ANN, dan CatBoost dengan menggunakan dataset yang dikumpulkan dari penelitian terdahulu. Evaluasi model memperlihatkan XGB memberikan performa terbaik dengan nilai akurasi R2Score tertinggi sebesar 95,6% dengan rata-rata R2Score K-Fold sebesar 83%, dan fitur yang paling berpengaruh terhadap nilai derajat kristalinitas HAp adalah temperatur kalsinasi, waktu dilakukannya kalsinasi, dan penambahan doping Mg.

Bone implants are generally made of metallic materials, but metallic materials can degrade over a period of time in biological environments with potentially toxic effects. Thus, the coating of metal implants with hydroxyapatite (HAp, Ca10(PO4)6(OH)2) was developed. Synthetic HAp differs from biological HAp in terms of mechanical properties, thermal stability and degradation rate. To make up for the shortcomings of synthetic HAp, the mechanical properties of HAp can be optimized by the addition of doping. However, in general, doping can reduce the crystallinity of HAp, if the crystallinity is very low, it can cause local release of doped ions and contribute to biodegradation. Thus, parameters are needed to prevent this from happening, one of which is the processing parameters of temperature and process time as well as the selection of doping and the right composition. This study aims to determine the effect of doping addition and processing parameters on the crystallinity value of HAp. The machine learning models to be used are XGB, KNN, ANN, and CatBoost using datasets collected from previous studies. Model evaluation shows that XGB gives the best performance with the highest R2Score accuracy value of 95.6% with an average R2Score K-Fold of 83%, and the most influential features on the degree of crystallinity value of HAp are calcination temperature, calcination time, and Mg doping addition. "
Depok: Fakultas Teknik Universitas Indonesia, 2025
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Dary Rizki
"Inclining test merupakan proses untuk mengetahui titik berat kapal dengan memindahkan beban uji di atas kapal. Tujuan dari Inclining test pada kapal adalah untuk menentukan tinggi titik berat kapal dan metasentra kapal, yang menjadi dasar perhitungan stabilitas kapal dalam berbagai kondisi pemuatan (load case). Percobaan inclining test umumnya dilakukan dengan dua metode, yaitu langsung di kapal setelah pembangunan selesai dan melalui simulasi komputasi. Namun, metode ini seringkali memerlukan persiapan yang cukup lama. Dengan berkembangnya otomasi dan teknologi, penelitian ini bertujuan untuk mengoptimalkan pengukuran Inclining test dengan lebih cepat dan akurat tanpa menunggu kapal selesai dibangun. Pendekatan yang diambil dalam penelitian ini adalah dengan membuat model Inclining test kapal menggunakan metode Machine Learning. Machine Learning digunakan untuk mempelajari data yang dimasukkan ke dalam sistem, dan memungkinkan mesin menghasilkan output dari percobaan inclining test seperti jika dilakukan langsung di kapal. Penelitian dilakukann dengan menggunakan Google Spreadsheet untuk menyimpan data- data inclining test yang pernah dilakukan, Github sebagai tempat yang digunakan untuk menyiimpan kode pemograman mesin, dan Streamlit sebagai interface untuk data baru yang akan dimasukan, menjalankan kode mesin yang ada di Github dan memperlihatkan hasil prediksi yang dilakukan oleh mesin. Kemudian akan dilakukan pengujian tools dengan 2 tahap dimana mesin akan memprediksi data yang sudah pernah dipelajari dan data baru. Dari penelitian didapatkan bahwa mesin pada saat ini mampu memprediksi data yang pernah dipelajari dengan error MSE sebesar 0.521 namun masih kesulitan memprediksi data baru dengan error mse sebesar 16,88. Mesin menyimpulkan bahwa momen beban merupakan faktor terbesar dalam mempengaruhi kemiringan pada pegujian inclining test kapal.

The Inclining test is a process to determine the center of gravity of a ship by shifting a test load onto the ship. The purpose of the Inclining test on a ship is to establish the height of the ship's center of gravity and metacenter, which serves as the basis for calculating the ship's stability under various loading conditions (load cases). Inclining test experiments are generally conducted using two methods: directly on the ship after construction is completed and through computational simulations. However, these methods often require considerable preparation time. With the advancement of automation and technology, this research aims to optimize Inclining test measurements more quickly and accurately without waiting for the ship's construction to finish. The approach taken in this study involves creating a model of the ship's Inclining test using the Machine Learning method. Machine Learning is utilized to learn from the data entered into the system, allowing the machine to generate output from Inclining test experiments as if conducted directly on the ship. The research is conducted using Google Spreadsheet to store previously conducted Inclining test data, Github as a repository for machine programming code, and Streamlit as an interface for new data entry. It runs the machine code stored in Github and displays the prediction results. The testing of tools is performed in two stages, where the machine predicts data that has been previously learned and new data. From the research, it is found that the machine is currently able to predict previously learned data with an MSE error of 0.521 but faces difficulties in predicting new data with an MSE error of 16,88. Also machine concluded that Weight momen is the biggest factor during ship inclining test."
Depok: Fakultas Teknik Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Aziz Setia Aji
"ABSTRAK
Badan Meteorologi Klimatologi dan Geofisika (BMKG) memiliki tugas pengamatan terhadap magnet bumi yang tersebar di Indonesia. Sensor magnetik bumi BMKG menghasilkan output data real-time. Penelitian ini berfokus pada model predictive maintenance pada sensor magnetik bumi berdasarkan output data sensor. Output data yang dihasilkan adalah dalam bentuk format delimited-space sehingga mudah untuk diproses. Komponen magnetik yang digunakan dalam penelitian ini adalah data komponen total magnet bumi (F) dari sensor. Pemrosesan data menggunakan bahasa pemograman python dan algoritma yang digunakan adalah metode random forest regression dengan membandingkan perbedaan nilai yang dihasilkan dengan data Indoesian Geomagnetic Maps for Epoch 2015.0 untuk kemudian dibuatkan model prediksi terhadap waktu. Proses tersebut digunakan untuk mengetahui apakah data yang dihasilkan masih dalam toleransi atau tidak. Tahapan dalam penelitian ini mulai dari pengumpulan data, pre-processing data, pembuatan model, hingga pengujian model dan validasi terhadap model. Penelitian ini menghasilkan estimasi waktu pemeliharan sebesar 14 hari pada data baseline nilai F dan sebesar 3 hari pada data delta F (ΔF).

ABSTRACT
The Meteorological, Climatological, and Geophysical Agency (BMKG) has the task of observing the earth magnets spread across Indonesia. Earth magnetic sensor of BMKG delivers real-time data output. The study focuses on the predictive maintenance model on the earth's magnetic sensor based on sensor data output. The resulting data output is in the form of delimited-space format so it is easy to process. The magnetic component used in this study is data on the earth's total magnetic component (F) from the sensor. Data processing uses python programming language and the algorithm used is a random forest regression method by comparing the value difference generated with the Indoesian Geomagnetic Maps for Epoch 2015.0 data for later created predictive models against time. The process is used to determine whether the resulting data is still in tolerance or not. The stages in this study range from data collection, pre-processing data, create model, model testing, and model validation. The study resulted in a 14-day maintenance time estimate of the baseline data F-value and 3-day in the delta F (ΔF) data."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2020
T-Pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Hendriawan Alfitodinova
"Sebuah paparan radiasi memiliki dampak yang baik dan buruk bagi kehidupan manusia, maka dari itu diperlukan alat untuk mendeteksi adanya sinar radiasi yang berbahaya atau tidak. Hal tersebut merupakan bentuk preventif dari sebuah malapetaka. Sebuah kejadian pada Chernobyl yang membuat manusia tidak bisa menghuni tempat tersebut lagi. Oleh karena itu, perlu dipelajari bahwa kejadian tersebut bisa saja tidak terjadi apabila disiapkan tindakan preventif. Salah satu hal preventif tersebut adalah dengan melakukan identifikasi radiasi dari sumber untuk menilai tingkat keselamatannya. Maka dari itu, penelitian ini dilakukan agar implementasi preventif tersebut bisa dipermudah dengan melakukan modernisasi sebuah sistem dengan menambahkan machine learning pada sebuah sistem. Hasil analisis menunjukkan kedua algoritma memiliki performa yang baik. Model CNN dengan transformasi Upscaling memiliki performa terbaik dengan akurasi sebesar 96.1%, presisi sebesar 0.963, recall sebesar 0.957, dan F1-score sebesar 0. 960.

A radiation exposure has a good and bad impact on human life, hence the need for a tool to detect the presence of harmful radiation rays or not. This is a preventive form of a catastrophe. An incident in Chernobyl that made humans unable to inhabit the place again. Therefore, it is necessary to learn that the incident could not have happened if preventive measures were prepared. One of the preventive measures is to identify the radiation from the source to assess its safety level. Therefore, this research was conducted so that the preventive implementation can be facilitated by modernizing a system by adding machine learning to a system. The analysis results show that both algorithms have good performance. CNN model with Upscaling transformation has the best performance with accuracy of 96.1%, precision of 0.963, recall of 0.957, and F1-score of 0. 960."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Andri Apriyana SA
"ABSTRAK
Sebagai proses alamiah dalam mencapai titik ekuilibrium, perkembangan ekonomi digital akan selalu diikuti oleh peningkatan risiko keamanan cyber. Penelitian ini membahas analisis big data percakapan media sosial Twitter dengan tipe data yang tidak terstruktur untuk memprediksi risiko cyber berupa keberhasilan serangan exploit terhadap kerentanan sistem informasi yang dipublikasikan pada situs kerentanan global cvedetails.com common vulnerabilities and exposures CVE . Penelitian ini mengeksplorasi aspek kualitatif dan kuantitatif atas data yang bersumber dari twitter dan CVE menggunakan metode pemodelan algoritmik statistical machine learning. Prediksi dilakukan dengan membandingkan beberapa model klasifikasi yang dipilih dari sepuluh algoritma yang paling banyak digunakan dalam data mining berdasarkan survey yang dilakukan oleh IEEE pada International Conference on Data Mining tahun 2006. Hasil prediksi terbaik dihasilkan melalui model algoritma Artificial Neural Networks dengan tingkat akurasi 96,73 . Model prediksi dapat dimanfaatkan oleh perusahaan asuransi dengan produk perlindungan risiko cyber untuk mengurangi potensi penyebaran klaim terjadinya risiko. Model juga dapat dimanfaatkan oleh perusahaan umum untuk melakukan mitigasi risiko cyber secara efektif dan efisien dengan menghindari situasi false-negatives error dalam pengelolaan risiko.

ABSTRACT
As a natural process in achieving equilibrium state, digital economic progress will always be followed by the increase of cyber security risk exposure. This research is focusing on unstructured Twitter social media big data analytics to predict cyber risks event in terms of successful attack on exploit based software vulnerability published in global vulnerability information websites cvedetails.com common vulnerabilities and exposures CVE . This research explores qualitative and quantitative aspect of data extracted from Twitter and CVE using statistical machine learning algorithmic modeling method. Prediction result obtained by comparing and selecting classification model from several statistical machine learning algorithm based on top ten algorithms in data mining survey produced by IEEE in 2006 International Conference on Data Mining. The best prediction results provided through Artificial Neural Networks algorithm with 96,73 accuracy rate. This prediction model offers advantages for insurance company with cyber liability product by reducing claim spread probability over cyber risk loss event. Prediction model can also be beneficial for company in general by providing an effective and efficient way to mitigate cyber risks through false negatives error avoidance in risk management."
2017
T-Pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Witten, I.H. (Ian H.)
"Part I. Machine Learning Tools and Techniques: 1. What?s iIt all about?; 2. Input: concepts, instances, and attributes; 3. Output: knowledge representation; 4. Algorithms: the basic methods; 5. Credibility: evaluating what?s been learned -- Part II. Advanced Data Mining: 6. Implementations: real machine learning schemes; 7. Data transformation; 8. Ensemble learning; 9. Moving on: applications and beyond -- Part III. The Weka Data MiningWorkbench: 10. Introduction to Weka; 11. The explorer -- 12. The knowledge flow interface; 13. The experimenter; 14 The command-line interface; 15. Embedded machine learning; 16. Writing new learning schemes; 17. Tutorial exercises for the weka explorer."
Amsterdam: Elsevier , 2011
006.312 WIT d
Buku Teks SO  Universitas Indonesia Library
cover
Ajeng Dwi Asti
"Ujaran kebencian dapat menyebabkan terjadinya konflik dan pembantaian di masyarakat sehingga harus segera ditangani. Indonesia memiliki lebih dari 700 bahasa daerah dengan karakteristik masing-masing. Ujaran kebencian yang ada di Indonesia juga pernah dilakukan menggunakan bahasa daerah. Media sosial Twitter paling sering digunakan dalam menyebarkan ujaran kebencian. Identifikasi target, kategori, serta level ujaran kebencian dapat membantu Polri dan Kemenkominfo dalam menentukan prioritas penanganan ujaran kebencian sehingga dapat meminimalisir dampaknya. Penelitian ini melakukan identifikasi ujaran kasar dan ujaran kebencian beserta target, kategori, dan level ujaran kebencian pada data Twitter berbahasa daerah menggunakan algoritma classical machine learning dan deep learning. Penelitian ini menggunakan data lima bahasa daerah di Indonesia dengan penutur terbanyak yaitu Jawa, Sunda, Madura, Minang, dan Musi. Pada data Bahasa Jawa performa terbaik diperoleh menggunakan algoritma Support Vector Machine (SVM) dengan transformasi data Classifier Chains (CC) serta kombinasi fitur word unigram, bigram, dan trigram dengan F1-score 70,43%. Algoritma SVM dengan transformasi data CC serta kombinasi fitur word unigram dan bigram memberikan performa terbaik pada data Bahasa Sunda dan Madura dengan masing-masing F1-score 68,79% dan 78,81%. Sementara itu, pada data Bahasa Minang dan Musi hasil terbaik diperoleh menggunakan algoritma SVM dengan transformasi data CC serta fitur word unigram dengan F1-score 83,57% dan 80,72%. Penelitian ini diharapkan dapat digunakan sebagai masukan bagi Polri dan Kemenkominfo dalam pembangunan sistem identifikasi ujaran kasar, ujaran kebencian serta target, kategori, dan level ujaran kebencian pada media sosial.

Hate speech can lead to conflict and massacres in society so it must be dealt immediately. Indonesia has more than 700 regional languages with their own characteristics. Hate speech in Indonesia has also been carried out using regional languages. Twitter is the most frequently used social media to spread hate speech. Identification of targets, categories, and levels of hate speech can help the National Police and the Ministry of Communication and Information to determine priorities for handling hate speech to minimize its impact. This study identifies abusive speech and hate speech along with the target, category, and level of hate speech on regional language Twitter data using classical machine learning and deep learning algorithms. This study uses data from five regional languages in Indonesia with the most speakers, namely Javanese, Sundanese, Madurese, Minang, and Musi. In Java language data, the best performance is obtained using the Support Vector Machine (SVM) algorithm with Classifier Chains (CC) data transformation and a combination of unigram, bigram, and trigram word features with an F1-score of 70.43%. The SVM algorithm with CC data transformation and the combination of unigram and bigram word features provides the best performance on Sundanese and Madurese data with F1-scores of 68.79% and 78.81%, respectively. Meanwhile, in Minang and Musi language data, the best results were obtained using the SVM algorithm with CC data transformation and word unigram features with F1-scores of 83.57% and 80.72%, respectively. This research is expected to be used as input for the National Police and the Ministry of Communication and Information in developing a system for identifying harsh speech, hate speech and the target, category, and level of hate speech on social media."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2022
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Khalid Muhammad
"ABSTRAK
Machine learning dapat digunakan untuk menganalisis berbagai macam jenis data, termasuk data yang umumnya bersifat rahasia. Sebuah model machine learning yang sudah dilatih dapat dibungkus dalam sebuah aplikasi web sehingga model tersebut dapat diakses dengan mudah via internet. Namun, jika data yang ingin dianalisis bersifat pribadi atau rahasia seperti data medis atau keuangan maka hal ini menjadi masalah, pengelola aplikasi itu dapat saja membaca data rahasia yang di-input. Skema enkripsi homomorfis dapat digunakan untuk menghadapi masalah ini. Salah satu skema enkripsi yang memiliki sifat homomorfis ialah skema enkripsi Paillier. Pada peneltitian ini ditunjukkan bahwa suatu jenis model machine learning tertentu dapat menerima input data yang terenkripsi dengan skema enkripsi Paillier dan menghasilkan output yang terenkripsi dengan kunci yang sama. Konsep ini didemonstrasikan dengan melatih sebuah model machine learning dengan database MNIST. Kemudian, model ini diuji dengan data test yang terenkripsi dengan skema enkripsi Paillier. Hasil percobaan menunjukkan akurasi model mencapai 92,92.

ABSTRACT
Machine learning can be used to analyze various kinds of data, including confidential data such us medical or financial data. A trained machine learning model can be wrapped in a web application so that people can access it easily via internet. But if the data to be analyzed is private or confidential, this will cause a problem, the application administrator may read our input. Homomorphic encryption scheme can be used to overcome this kind of problem. Paillier encryption scheme is one kind of encryption scheme that has homomorphic property. In this research, it will be shown that one type of machine learning model can take an input encrypted by Paillier encryption scheme and produce an output encrypted with the same key. This concept is demonstrated by training a machine learning model with the MNIST database of hand written digits. This model will be tested with the test data encrypted with Paillier encryption scheme. The experiment shows that the model achieved 92.92 accuracy."
2018
S-Pdf
UI - Skripsi Membership  Universitas Indonesia Library
<<   1 2 3 4 5 6 7 8 9 10   >>