Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 98999 dokumen yang sesuai dengan query
cover
Akmal
"Dalam perkembangan teknologi saat ini, perlindungan jaringan komputer sangat diperlukan, maka kita membutuhkan sebuah sistem untuk melindunginya jaringan dari serangan, salah satu serangan paling sering di jaringan Komputer adalah DDoS. Proteksi DDoS ini dapat dilakukan dengan cara: menggunakan Supervised Learning atau Unsupervised Learning. Diawasi Pembelajaran adalah suatu metode dimana sistem diberi label data sehingga mampu mengklasifikasikan data uji yang diberikan, dan pembelajaran tanpa pengawasan maka jika data tidak berlabel diberikan, maka sistem harus klasifikasi tanpa bantuan label, keuntungan dari sistem tanpa label apakah sistem mampu mengidentifikasi serangan yang tidak sistem pembelajaran yang aktif. Sistem untuk mendeteksi ini membutuhkan efisiensi
agar dapat merespon dengan cepat terhadap serangan yang dilakukan.
Maka dimungkinkan untuk membuat suatu sistem yang dapat menghilangkan data tersebut tidak ada kemampuan serangan, sistem ini dapat dikonfigurasi dengan menggunakan LSTM. Studi ini mencoba keefektifan Sistem pembelajaran tanpa pengawasan melalui implementasi sistem penghapusan data, eksperimen pada sistem kepunahan data untuk menentukan arsitektur terbaik, dan melakukan modifikasi pada sistem pembelajaran tanpa pengawasan. Hasil penelitian ini menunjukkan efek sistem data terhadap sistem deteksi DDoS dan
potensi keuntungan dan kerugian dari penerapan sistem dilakukan pada kemampuan deteksi sistem DDoS

In today's technological developments, computer network protection
indispensable, then we need a system to protect it network from attacks, one of the most frequent attacks on the network Computers are DDoS. This DDoS protection can be done by: using Supervised Learning or Unsupervised Learning. Supervised Learning is a method in which the system is labeled data so that able to classify the test data given, and unsupervised learning then if unlabeled data is given, then the system must labelless classification, the advantages of the labelless system whether the system is able to identify attacks that are not active learning system. The system to detect this requires efficiency in order to be able to respond quickly to attacks carried out.Then it is possible to create a system that can eliminate data no attack capability, this system can be configured with using LSTM. This study tested the effectiveness Unsupervised learning system through system implementation data deletion, experiment on extinction system data to determine the best architecture, and make modifications to unsupervised learning system. The results of this study indicate the effect of data system against DDoS detection system and potential advantages and disadvantages of implementing the system performed on the DDoS detection capability. system
"
Depok: Fakultas Teknik Universitas Indonesia, 2019
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Adhimas Yudha Prawira
"Twitter merupakan salah satu media sosial yang digunakan secara massive di Indonesia. Para pengguna Twitter ini membicarakan berbagai macam hal, salah satunya terkait pencalonan presiden. Perbincangan para pengguna Twitter ini memiliki nilai sentimen baik positif maupun negatif. Dukungan masyarakat terhadap masing-masing kandidat calon presiden dapat diketahui dengan melihat sentimen masyarakat melalui perbincangan mereka di Twitter, hal ini sering disebut juga sebagai analisis sentimen. Namun, jumlah pengguna dan obrolan para pengguna Twitter yang sangat banyak mengakibatkan data yang akan diproses membutuhkan waktu yang cukup lama. Untuk melakukan proses analisis sentimen para pengguna Twitter secara cepat dan otomatis dapat digunakan bantuan mesin. Salah satu metode yang digunakan untuk melakukan proses analisis sentimen adalah Support Vector Machine (SVM). Pada dasarnya, semakin banyak data yang digunakan sebagai data training dalam pemilihan model fungsi klasifikator maka akan memberikan generalisasi akurasi analisis sentimen untuk data testing yang tinggi pula. Namun di sisi lain, semakin banyaknya data training juga akan menyebabkan besarnya dimensi ruang fitur. Hal ini membuat mesin membutuhkan waktu yang cukup lama dalam melakukan pembentukan fungsi klasifikator. Untuk menanggulangi hal ini, akan dilakukan metode optimasi fitur sehingga mesin dapat tetap membentuk fungsi klasifikator dengan akurasi yang tinggi namun dengan dimensi ruang fitur yang rendah.

Twitter is a social media that used in Indonesia massively. Twitter users talk (tweet) about various things, one of them is about presidential nomination. Twitter user conversations have a positive or negative sentiment. Community support for each presidential candidate can be determined by looking at the public sentiment through their conversations on Twitter, this is often referred to sentiment analysis. However, the number of users and tweets cause the data to be processed requires quite a long time. Machine can be used to make the process of Twitter sentiment analysis quickly and automatically. One method that used to perform the sentiment analysis process is a Support Vector Machine (SVM). Basically, the more data that used as data training in the model selection function will give a high accuracy generalization sentiment analysis on data testing. On the other hand, the increasing number of training data will also cause large dimensional feature space. This makes the machine takes a long time to perform model selection. To overcome this problem, feature optimization will be performed. Feature optimization will preserve the high accuracy of the model, but with a low dimensional feature space."
Universitas Indonesia, 2014
S57179
UI - Skripsi Membership  Universitas Indonesia Library
cover
Raden Arfanto Chalawathal Iman
"Dalam perkembangan teknologi saat ini, kemampuan mesin untuk dapat belajar memiliki peranan yang sangat penting. Berbagai upaya telah dilakukan untuk mengembangkan kecerdasan buatan terhadap mesin sehingga mesin dapat melakukan pembelajaran. Salah satu macam pembelajaran mesin (machine learning) adalah dengan Brain Emotional Learning (BEL). BEL merupakan metode pembelajaran mesin yang terinspirasi dari fungsi kerja sistem limbik mamalia yang memiliki kemampuan untuk menyimpan memori, membuat keputusan dan memberi respon emosi. Dalam penerapannya, BEL telah terbukti dapat menyelesaikan berbagai masalah pembelajaran, seperti dalam masalah klasisfikasi, masalah prediksi, dan pengendalian. Pada skripsi ini, akan dilakukan perancangan dengan BEL untuk dapat mengkategorikan data melalui metode pembelajaran supervised learning dan diuji dengan data iris.
Hasil pengujian menunjukkan bahwa BEL dapat digunakan untuk klasifikasi beberapa macam kelas, terdapat hubungan yang tidak linear dari faktor-faktor yang mempengaruhi proses pembelajaran terhadap hasil, konstanta β dan konstanta γ memberikan hasil akurasi rendah ketika keduanya bernilai besar, dan hasil akurasi terbaik sebesar 93,33% untuk jenis data iris. Selain itu, perbandingan dengan paper rujukan menunjukkan bahwa hasil rancangan memberikan hasil yang lebih baik daripada algoritma GDBP MLP pada epoch rendah meskipun hasil rancangan belum sebaik rujukan.

In todays technological development, the ability of machines to be able to learn has a very important role. Various efforts have been made to develop artificial intelligence on the machine so that the machine can do learning. One type of machine learning is with Brain Emotional Learning (BEL). BEL is a machine learning method inspired by the work function of the limbic system of mammals that has the ability to store memory, make decisions and give emotional responses. In its application, BEL has been proven to be able to solve various learning problems, such as problems in classification, prediction problems, and control. In this thesis, BEL will be designed to be able to categorize data through supervised learning methods and tested with iris data.
The test results show that BEL can be used to classify several types of classes, there is a non-linear relationship of the factors that influence the learning process to results, constants and constants give low accuracy results when both are of great value, and the best accuracy results are 93, 33% for iris data types. In addition, the comparison with the reference paper shows that the design results have better results than the MLP GDBP algorithm at the lower epoch even though the design results have not been as good as the references."
Depok: Fakultas Teknik Universitas Indonesia, 2019
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Nadya Asanul Husna
"Inhibitor DPP-4 adalah pendekatan baru yang menjanjikan untuk pengobatan diabetes tipe-2 dengan risiko rendah hipoglikemia. Pemodelan hubungan kuantitatif struktur-aktivitas (QSAR) adalah pemodelan yang digunakan untuk menyaring basis data besar suatu senyawa untuk menentukan sifat biologis molekul kimia berdasarkan struktur kimianya. Pada tesis ini pemodelan QSAR yang digunakan adalah QSAR klasifikasi dan QSAR regresi. Sebelum membuat model QSAR akan melakukan esktraksi ciri pada struktur molekul (SMILES). Hasil ekstraksi ciri tersebut kemudian akan digunakan sebagai masukan untuk metode rotation forest kasus klasifikasi dan kasus regresi. Model QSAR klasifikasi akan memprediksi molekul aktif dan tidak aktif pada inhibitor DPP-IV. Sedangkan model QSAR regresi akan memprediksi nilai aktivitas IC50 inhibitor DPP-IV. Pada penelitian ini untuk kasus klasifikasi dan regresi juga membandingkan performa model rotation forest menggunakan matriks rotasi PCA dengan rotation forest menggunakan matriks rotasi Sparse PCA.
Hasil penelitian ini menunjukkan bahwa model QSAR regresi menggunakan rotation forest dengan matriks rotasi PCA (RFR(PCA)) memperoleh koefisien korelasi kuadrat 29.2% dengan RMSE 45%. Sementara itu, menggunakan rotation forest dengan matriks rotasi Sparse PCA (RFR(SPCA)) memperoleh koefisien korelasi kuadrat 27.1% dengan RMSE 45.6%. Pada QSAR klasifikasi persentase banyaknya molekul yang aktif sangat besar dibandingkan yang molekul tidak aktif, hal ini dapat menyebabkan nilai evaluasi berbeda. SMOTE (Synthetic Minority Oversampling Technique) merupakan salah satu metode untuk menangani data tidak seimbang tersebut dengan cara membangkitkan data buatan. Hasil penelitian ini menunjukkan bahwa model QSAR klasifikasi menggunakan rotation forest dengan matriks rotasi PCA (RFC(PCA)) memperoleh performa tertinggi dalam memprediksi molekul aktif dan tidak aktif, yaitu nilai MCC 77.7% dengan nilai akurasi sebesar 89%, sensitivitas 89.6%, dan spesifisitas 88.1%. Sementara itu, model QSAR klasifikasi menggunakan rotation forest dengan matriks rotasi SPCA (RFC(SPCA)) memperoleh performa tertinggi, yaitu nilai MCC 80.9% dengan nilai akurasi sebesar 90.5%, sensitivitas 90.8%, dan spesifisitas 90.2%.

DPP-4 inhibitors are a new approach for the treatment of type 2 diabetes with a low risk of hypoglycemia. The Quantitative Structure-Activity Relationship (QSAR) model is a model used to filter large databases of compounds to determine the biological properties of chemical molecules based on their chemical structure. The QSAR modeling that is used in this research is QSAR classification and QSAR regression. Before creating the model, QSAR will perform feature extraction on the molecular structure (SMILES). The results of the feature extraction will be used as inputs for the rotation forest method of the classification and regression cases. The QSAR classification model predicts active and inactive molecules in DPP-IV inhibitors, while the regression QSAR model predicts the value of IC50 DPP-IV inhibitor activity. In this study, the classification and regression cases are also comparing the performances between the rotation forest model using the PCA rotation matrix and the rotation forest model using the Sparse PCA rotation matrix. 
The results of this study indicate that the QSAR regression model using rotation forest with the rotation matrix PCA (RFR (PCA)) obtained a squared correlation coefficient of 29.2% with RMSE 45%. Meanwhile, using rotation forest regression with the Sparse PCA (RFR (SPCA)) rotation matrix obtained a quadratic correlation coefficient of 27.1% with RMSE 45.6%. In the QSAR classification, the percentage of active molecules is very large compared to inactive molecules, this can cause different evaluation values. SMOTE (Synthetic Minority Oversampling Technique) is one method for handling such unbalanced data by generating artificial data. The results of this study indicate that the classification QSAR model using rotation forest classification with PCA (RFC (PCA)) rotation matrix obtained the highest performance in predicting active and inactive molecules as follows: MCC value of 77.7% with an accuracy value of 89%, sensitivity value of 89.6% and specificity value of 88.1%. Meanwhile, the QSAR classification model using rotation forest classification with the SPCA rotation matrix (RFC (SPCA)) obtained the highest performance as follows: MCC value of 80.9% with an accuracy value of 90.5%, sensitivity value of 90.8%, and specificity value of 90.2%.
"
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2020
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Muhammad Fauzi Rahmad
"Arsitektur model deep learning kini sudah semakin kompleks setiap harinya. Namun semakin besar model maka dibutuhkan kekuatan komputasi yang cukup besar juga dalam menjalankan model. Sehingga tidak semua perangkat Internet of Things (IoT) dapat menjalankan model yang begitu besar secara efisien. Untuk itu teknik model optimization sangat diperlukan. Pada penelitian kali ini penulis menggunakan metode optimasi menggunakan layer weight regularization, serta penyederhanaan arsitektur model pada hybrid deep learning model. Dataset yang digunakan pada penelitian kali ini adalah N-BaIoT. Sementara evaluasi performa model yang digunakan adalah accuracy, confussion matrix, dan detection time. Dengan tingkat accuracy yang sama, model yang diusulkan berhasil meningkatkan waktu deteksi model lebih cepat 0,8 ms dibandingkan dengan model acuan.

The deep learning model architecture is getting more complex every day. However, the larger the model, the greater the computational power is needed to run the model. So not all Internet of Things (IoT) devices can run such a large model efficiently. For this reason, model optimization techniques are needed. In this study, the author uses an optimization method using layer weight regularization, as well as simplification of the model architecture on the hybrid deep learning model. The dataset used in this research is N-BaIoT. While the evaluation of the performance of the model used is accuracy, confusion matrix, and detection time. With the same level of accuracy, the proposed model succeeded in increasing the detection time of the model by 0.8 ms faster than the reference method."
Depok: Fakultas Teknik Universitas Indonesia, 2022
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Hakim Amarullah
"Proses training model membutuhkan sumber daya komputasi yang akan terus meningkat seiring dengan bertambahnya jumlah data dan jumlah iterasi yang telah dicapai. Hal ini dapat menimbulkan masalah ketika proses training model dilakukan pada lingkungan komputasi yang berbagi sumber daya seperti pada infrastruktur komputasi berbasis klaster. Masalah yang ditimbulkan terutama terkait dengan efisiensi, konkurensi, dan tingkat utilisasi sumber daya komputasi. Persoalan efisiensi muncul ketika sumber daya komputasi telah tersedia, tetapi belum mencukupi untuk kebutuhan job pada antrian ter- atas. Akibatnya sumber daya komputasi tersebut menganggur. Penggunaan sumber daya tersebut menjadi tidak efisien karena terdapat kemungkinan sumber daya tersebut cukup untuk mengeksekusi job lain pada antrian. Selain itu, pada cluster computing juga mem- butuhkan sistem monitoring untuk mengawasi dan menganalisis penggunaan sumber daya pada klaster. Penelitian ini bertujuan untuk menemukan resource manager yang sesuai untuk digunakan pada klaster komputasi yang memiliki GPU agar dapat meningkatkan efisiensi, implementasi sistem monitoring yang dapat membantu analisis penggunaan sumber daya sekaligus monitoring proses komputasi yang sedang dijalankan pada klaster, dan melayani inference untuk model machine learning. Penelitian dilakukan dengan cara menjalankan eksperimen penggunaan Slurm dan Kubernetes. Hasil yang diperoleh adalah Slurm dapat memenuhi kebutuhan untuk job scheduling dan mengatur penggunaan GPU dan resources lainnya pada klaster dapat digunakan oleh banyak pengguna sekaligus. Sedangkan untuk sistem monitoring, sistem yang dipilih adalah Prometheus, Grafana, dan Open OnDemand. Sementara itu, sistem yang digunakan untuk inference model adalah Flask dan Docker.

The amount of computational power needed for the model training process will keep rising along with the volume of data and the number of successful iterations. When the model training process is conducted in computing environments that share resources, such as on cluster-based computing infrastructure, this might lead to issues. Efficiency, competition, and the level of resource use are the three key issues discussed.Efficiency problems occur when there are already computing resources available, yet they are insufficient to meet the demands of high-level workloads. The power of the machine is subsequently wasted. The utilization of such resources becomes inefficient because it’s possible that they would be adequate to complete other tasks on the front lines. A monitoring system is also necessary for cluster computing in order to track and assess how resources are used on clusters. The project seeks to set up a monitoring system that can assist in analyzing the usage of resources while monitoring the com- puting processes running on the cluster and locate a suitable resource manager to be utilized on a computing cluster that has a GPU in order to increase efficiency, also serve inference model in production. Slurm and Kubernetes experiments were used to conduct the investigation. The findings show that Slurm can handle the demands of job scheduling, manage the utilization of GPUs, and allow for concurrent use of other cluster resources. Prometheus, Grafana, and Open OnDemand are the chosen moni- toring systems. Else, inference model is using Flask and Docker as its system constructor.
"
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Muhammad Anis Abdul Aziz
"Proses training model membutuhkan sumber daya komputasi yang akan terus meningkat seiring dengan bertambahnya jumlah data dan jumlah iterasi yang telah dicapai. Hal ini dapat menimbulkan masalah ketika proses training model dilakukan pada lingkungan komputasi yang berbagi sumber daya seperti pada infrastruktur komputasi berbasis klaster. Masalah yang ditimbulkan terutama terkait dengan efisiensi, konkurensi, dan tingkat utilisasi sumber daya komputasi. Persoalan efisiensi muncul ketika sumber daya komputasi telah tersedia, tetapi belum mencukupi untuk kebutuhan job pada antrian ter- atas. Akibatnya sumber daya komputasi tersebut menganggur. Penggunaan sumber daya tersebut menjadi tidak efisien karena terdapat kemungkinan sumber daya tersebut cukup untuk mengeksekusi job lain pada antrian. Selain itu, pada cluster computing juga mem- butuhkan sistem monitoring untuk mengawasi dan menganalisis penggunaan sumber daya pada klaster. Penelitian ini bertujuan untuk menemukan resource manager yang sesuai untuk digunakan pada klaster komputasi yang memiliki GPU agar dapat meningkatkan efisiensi, implementasi sistem monitoring yang dapat membantu analisis penggunaan sumber daya sekaligus monitoring proses komputasi yang sedang dijalankan pada klaster, dan melayani inference untuk model machine learning. Penelitian dilakukan dengan cara menjalankan eksperimen penggunaan Slurm dan Kubernetes. Hasil yang diperoleh adalah Slurm dapat memenuhi kebutuhan untuk job scheduling dan mengatur penggunaan GPU dan resources lainnya pada klaster dapat digunakan oleh banyak pengguna sekaligus. Sedangkan untuk sistem monitoring, sistem yang dipilih adalah Prometheus, Grafana, dan Open OnDemand. Sementara itu, sistem yang digunakan untuk inference model adalah Flask dan Docker.

The amount of computational power needed for the model training process will keep rising along with the volume of data and the number of successful iterations. When the model training process is conducted in computing environments that share resources, such as on cluster-based computing infrastructure, this might lead to issues. Efficiency, competition, and the level of resource use are the three key issues discussed.Efficiency problems occur when there are already computing resources available, yet they are insufficient to meet the demands of high-level workloads. The power of the machine is subsequently wasted. The utilization of such resources becomes inefficient because it’s possible that they would be adequate to complete other tasks on the front lines. A monitoring system is also necessary for cluster computing in order to track and assess how resources are used on clusters. The project seeks to set up a monitoring system that can assist in analyzing the usage of resources while monitoring the com- puting processes running on the cluster and locate a suitable resource manager to be utilized on a computing cluster that has a GPU in order to increase efficiency, also serve inference model in production. Slurm and Kubernetes experiments were used to conduct the investigation. The findings show that Slurm can handle the demands of job scheduling, manage the utilization of GPUs, and allow for concurrent use of other cluster resources. Prometheus, Grafana, and Open OnDemand are the chosen moni- toring systems. Else, inference model is using Flask and Docker as its system constructor.
"
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Mayang Nurul Aulia
"Performa akademik adalah bagian penting dari suatu sekolah. Saat ini, sebagian besar sekolah di Indonesia masih jarang melakukan klasifikasi performa akademik siswa, sehingga diperlukan metode yang tepat untuk mengklasifikasikan siswa berdasarkan perfroma akademiknya.  Pada peneltian ini digunakan metode Nave Bayes Classifier (NBC) dan metode Support Vector Machine (SVM) untuk mengklasifikasikan performa akademik siswa SMAN 38 Jakarta. Metode NBC menghasilkan tingkat akurasi tertinggi sebesar 96%, recall 100%, precision 92.68% dan %. Sedangkan metode SVM dengan kernel linier menghasilkan tingkat akurasi tertinggi sebesar 98%, recall 100%, precision 96.42% dan f1-score.

Academic performance is an important part of a school. At present, most schools in Indonesia rarely classify students’ academic performance, so we need the right method to classify students based on their academic performance. In this research, the Nave Bayes Classifier (NBC) and Support Vector Machine (SVM) methods are used to classify academic performance of SMAN 38 Jakarta students’. The NBC method produces the highest accuracy 96%, recall 100%, precision 92.68% and f1-score  While the SVM method produces the highest accuracy 98%, recall 100%, precision 96.42% and f1-score  on linear kernels."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Tri Kushartadi
"Teknologi Dense Wavelength Division Multiplexing (DWDM) telah mengalami perkembangan pesat, di mana beberapa vendor telah meningkatkan kapasitas per frekuensi hingga mencapai 1 Tbps (Tera Bit Per Second). Dalam tesis ini, penelitian dilakukan untuk menentukan pola data yang digunakan oleh engineer guna mencapai hasil yang optimal dengan menggunakan kecerdasan buatan. Penelitian ini berfokus pada simulasi jaringan DWDM di Microsoft di Amerika Utara, yang melibatkan beberapa repeater dan mempertimbangkan berbagai faktor yang terjadi dalam jaringan tersebut. Dengan menggunakan data hasil performansi lapangan, ditemukan data yang paling optimal untuk jaringan DWDM tersebut. Dengan mencapai kinerja Q-Factor yang baik, diperoleh juga margin pada jaringan berdasarkan perhitungan kabel optiknya. Estimasi kinerja Q-Factor dapat diperoleh melalui fungsi regresi linear yang bergantung pada perangkat yang dilalui dalam jaringan, seperti Transponder, EDFA, dan media transmisi berupa serat optik. Data hasil pengukuran merupakan data perubahan daya transmisi pada sisi penguat, yang menyebabkan perubahan daya per kanal pada setiap transponder di sisi penerima. Setiap perubahan nilai kinerja Q-Factor pada setiap kanal dianalisis polanya menggunakan machine learning. Data tersebut akan dilakukan proses pelatihan berulang kali guna meminimalkan kesalahan dan mencapai kinerja Q-Factor yang lebih baik. Secara keseluruhan, hasil yang dicapai dalam tesis ini membentuk dasar bagi skema pemodelan kinerja Q-Factor yang akurat serta mendapatkan nilai Q-Factor yang optimal. Hasil penelitian ini memberikan wawasan tentang penggunaan machine learning di masa depan dalam perencanaan jaringan optik DWDM.

This research investigates the development of Dense
Wavelength Division Multiplexing (DWDM) technology in
conjunction with 6G technology to meet the growing demands for
high-speed data transmission. Vendors have significantly
increased the capacity per channel enabling speeds of up to 1 Tera Bit Per Second. The Q-Factor is one of the indicators that
determines the quality of the optical system. Q-Factor plays a
crucial role in evaluating these technological advancements. In
actual practice, engineers need to conduct manual field tests to
obtain the Q-factor value. Engineers must calibrate the equipment
manually onsite. This procedure is time consuming and inefficient. Machine learning can be used to calculate and forecast the Qfactor quickly and automatically. This study designs a machine learning algorithm to forecast the Q-factor value based on the equipment parameters in the field. This study evaluates 4 machine learning algorithms. The data used is obtained from the Microsoft optical network in North America. The Decision tree model archives the best results with an impressive accuracy of 99.5% and low mean squared error (MSE) of 0,00104. The proposed algorithm achieved better results than the previous research.
"
Depok: Fakultas Teknik Universitas Indonesia, 2023
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Amanda Nydia Augustizhafira
"Analisis sentimen merupakan bagian dari data mining text mining , yaitu proses memahami, mengekstrak, dan mengolah data tekstual secara otomatis untuk mendapatkan informasi. Pada penelitian ini, analisis sentimen diterapkan pada salah satu media sosial, yaitu Twitter. Analisis sentimen tergolong sebagai masalah klasifikasi yang dapat diselesaikan menggunakan salah satu metode machine learning, yaitu Neural Network. Pada machine learning, data dibagi menjadi data pelatihan dan data pengujian yang berasal dari domain yang sama.
Permasalahan utama pada penelitian ini adalah data pelatihan dan data pengujian berasal dari dua domain yang berbeda, sehingga perlu diterapkan pembelajaran lain selain machine learning. Masalah tersebut dapat diselesaikan dengan menggunakan transfer learning. Transfer learning merupakan suatu pembelajaran model yang dibangun oleh suatu data pelatihan dari suatu domain dan diuji oleh suatu data pengujian dari domain yang berbeda dari domain data pelatihan. Simulasi dalam penelitian ini menghasilkan suatu akurasi transfer learning dengan metode Neural Network yang nantinya akan diuji dengan fitur n-gram bi-gram dan tri-gram serta satu metode seleksi fitur, yaitu Extra-Trees Classifier.
Dalam penelitian ini, nilai akurasi transfer learning tertinggi didapat saat hidden layer berjumlah satu. Sebagian besar nilai akurasi tertinggi didapat saat penggunaan 250 neuron pada hidden layer. Fungsi aktivasi ReLU dan tanh menghasilkan nilai akurasi yang lebih tinggi dibandingkan fungsi aktivasi logistic sigmoid. Penggunakan metode seleksi fitur dapat meningkatkan kinerja transfer learning sehingga nilai akurasinya lebih tinggi dibandingkan simulasi tanpa penggunaan metode seleksi fitur.

Sentiment analysis is a part of data mining text mining , which is the process of understanding, extracting, and processing textual data automatically to obtain information. In this research, sentiment analysis is applied to one social media called Twitter. Sentiment analysis is categorized as a classification problem that can be solved using one of machine learning methods, namely Neural Network. In machine learning, data is divided into training data and test data from the same domain.
The main problem in this research is training data and test data come from two different domains, so it is necessary to apply other learning beside machine learning. The problem can be solved by using transfer learning. Transfer learning is a model learning constructed by a training data from a domain and tested by a test data from a different domain from the training data domain. The simulation in this research resulted in an accuracy of learning transfer with Neural Network method which will be tested using n grams bi grams and tri grams and one feature selection method called Extra Trees Classifier.
In this research, the highest value of transfer learning accuracy is obtained when one hidden layer is used. Most of the highest accuracy values are obtained from the use of 250 neurons on the hidden layer. The activation function of ReLU and tanh yield a higher accuracy value than the logical activation function sigmoid . The use of feature selection method can improve the transfer learning performance so that the accuracy value is higher than simulation without the use of feature selection method.
"
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2018
S-Pdf
UI - Skripsi Membership  Universitas Indonesia Library
<<   1 2 3 4 5 6 7 8 9 10   >>