Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 8 dokumen yang sesuai dengan query
cover
Donny Hamdani Hamid
"Latar Belakang: Sebagian besar pendenita Bell's palsy sembuh sempurna, sisanya tetap mengalam paralisis atau sembuh dengan cacat Secara klinis kecepatan penyembuhan Bell's palsy berbeda-beda, bila terjadi perbaikan yang nyata dalam 3-4 minggu, maka dalam beberapa minggu kemudian akan tercapai kesembuhan sempurna Pemeriksaan Elektrofisiologis antara lain MLP (masa laten proksimal) dan CMAP (compound muscle action potential) diharapkan dapat memprediksi kemungkinan kesembuhan lebih dini Namun terdapat perbedaan mengenai waktu yang tepat untuk melakukan pemeriksaan Elektrofisiologis Pada penelitian ini akan dilihat apakah terdapat korelası antara derajat kelumpuhan dengan MLP dan CMAP minggu pertama maupun minggu ke 5. Metodologi: Dilakukan pemeriksaan elektrofisiologıs yakni masa laten proksimal dan compound muscle action potential dengan menggunakan alat EMG Medelec Sapphire pada 55 orang penderita Bell's palsy di laboratorum EMG bagian Neurologi RSUPNCM, yang derajat kelumpuhan otot fasialisnya telah ditentukan menurut metode modifikasi House Brackmann Evaluasi klinis, pemenksaan MLP dan CMAP pada sisi sakit dan sehat dilakukan 2 kali yakni pada minggu pertama dan minggu ke 5 Selanjutnya diadakan uyi statistik untuk menilai adakah perbedaan antara sisi sakit dan sehat pada minggu pertama maupun minggu ke 5 dan dinilai pula adakah hubungan antara derajat kelumpuhan klinis dengan MLP dan CMAP dengan tingkat kemaknaan p 0.05 Dinilai pula korelasi antara gambaran MLP dan CMAP minggu pertama dengan kesembuhan dalam 1 bulan. Hasil Penelitian: Bell's palsy sedikit lebih banyak ditemukan pada wanita dibanding pria dan lebih sering ditemukan pada usia 20-29 tahun dibanding usia lebih tua Tidak tedapat perbedaan kekerapan timbulnya Bell's palsy pada sisi kin dengan sisı kanan Umumnya didahului kontak udara dingin beberapa han sebelum timbulnya Bell's palsy Terdapat perbedaan bermakna antara MLP dan CMAP sisi sakit dengan sisi schat Nilai CMAP sisi sakit dengan sisi sehat minggu pertama maupun minggu ke 5 berhubungan dengan derajat kelumpuhan secara klinis sedang MLP tidak Terdapat korelasi secara statistik baik antara derajat kelumpuhan klinis, MLP maupun CMAP dengan kesembuhan dalam 1 bulan. Kesimpulan: Terdapat korelasi antara derajat kelumpuhan dengan CMAP minggu pertama maupun minggu ke 5 sedangkan MLP tidak Terdapat korelasi antara derajat kelumpuhan klinis maupun gambaran MLP dan CMAP minggu pertama dengan kesembuhan penderita dalam 1 bulan."
Jakarta: Fakultas Kedokteran Universitas Indonesia, 1998
T57301
UI - Tesis Membership  Universitas Indonesia Library
cover
Dio Fajrie Fadlullah
"Skripsi ini membahas mengenai pengembangan Sistem Penilaian Esai Otomatis (SIMPLE-O) yang dirancang dengan menerapkan Regularization pada model MLP(Multilayer Perceptron) untuk penilaian esai Bahasa Jepang. Sistem dirancang dengan menggunakan bahasa pemrograman Python. Penilaian otomatis oleh sistem dilakukan dengan cara membandingkan jawaban 43 mahasiswa dan kunci jawaban dari dosen yang telah diproses sebelumnya sedemikian rupa hingga berbentuk token. Jawaban mahasiswa dan dosen akan diproses menggunakan model MLP sehingga menghasilkan vector jawaban yang akhirnya akan dibandingkan menggunakan Manhattan Distance. Dari variasi model pada beberapa skenario yang diuji, model yang memiliki performa terbaik dari segi akurasi dan kekonsistenan tingkat akurasi terjadi pada model MLP yang menggunakan L1 Regularization dengan learning rate optimizer sebesar 0,00001 dan lambda 0,001. Model mendapatkan rata-rata nilai perbedaan antara nilai sistem dengan nilai asli sebesar 22,40% dan standar deviasi 11,54.

This thesis discusses the development of an Automated Essay Scoring System (SIMPLE-O) designed by applying Regularization to the MLP (Multilayer Perceptron) model for Japanese Language essay scoring. System is developed using the Python programming language. Automatic assessment by the system is carried out by comparing the answers of 43 students and the answer keys from lecturers who have been processed previously in such a way that they are in the form of tokens. Student and lecturer answers will be processed using the MLP model, resulting in an answer vector that will eventually be compared using Manhattan Distance. From the model variations on some of the scenarios tested, model that has the best performance in terms of accuracy and consistency occurs in MLP models that use L1 Regularization with a optimizer learning rate of 0.00001 and lambda of 0.001. The model obtains an average value of the difference between the system value and the original value of 22.40% and a standard deviation of 11.54."
Depok: Fakultas Teknik Universitas Indonesia, 2022
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Hartina Hiromi Satyanegara
"Serangan MitM ini memiliki dampak yang cukup besar dan dapat membuka jalan untuk serangan selanjutnya, seperti Phishing. Penelitian ini membahas tentang pendekatan metode hybrid deep learning yang dapat membantu pendeteksian serangan MitM secara efektif. Metode hybrid deep learning yang digunakan dalam penelitian ini adalah CNN-MLP dan CNN-LSTM, yaitu merupakan gabungan dari CNN, MLP, dan LSTM. Selain itu, dalam skenario eksperimennya menggunakan berbagai metode feature scaling (StandardScaler, MinMaxScaler, dan MaxAbsScaler) dan tanpa menggunakan metode feature scaling sebelum melakukan pemodelan, yang kemudian akan ditentukan metode hybrid deep learning yang terbaik untuk mendeteksi serangan MitM dengan baik. Dataset yang digunakan dalam penelitian ini yaitu Kitsune Network Attack Dataset (ARP MitM Ettercap). Hasil dari penelitian ini yaitu metode CNN-MLP dengan 10 epoch menggunakan MaxAbsScaler memiliki nilai accuracy tertinggi, yaitu 99.93%. Pada urutan kedua, CNN-MLP dengan 10 epoch menggunakan StandardScaler memiliki nilai accuracy sebesar 99.89%.

Man in the Middle (MitM) has a sizeable impact because it could make the attackers will do another attacks, such as Phishing. This research is discussing about hybrid deep learning methods-approach on detecting MitM attacks effectively. We were used 2 (two) combinations of the Deep Learning methods (CNN, MLP, and LSTM), which are CNN-MLP and CNN-LSTM. Besides that, in the experiment scenarios, we also used various Feature Scaling methods (StandardScaler, MinMaxScaler, and MaxAbsScaler) and without using any Feature Scaling methods before building the models and will determine the better hybrid Deep Learning methods for detecting MitM attack. Kitsune Network Attack Dataset (ARP MitM Ettercap) is the dataset used in this study. The results of this research proves that CNN-MLP that with 10 epoch using MaxAbsScaler has the highest accuracy rate of 99.93%. In second place, CNN-MLP with 10 epoch using StandardScaler has the accuracy rate of 99.89%."
Depok: Fakultas Teknik Universitas Indonesia, 2022
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Wike Ulfiani Aresa
"Saat ini credit scoring calon nasabah produk Kreasi Pegadaian masih menggunakan scorecard konvensional berupa pembobotan pertanyaan. Model credit scoring tersebut dibangun berdasarkan pengalaman pakar (expert scorecard) dan kemungkinan ada unsur subjektivitas dalam penilaian kelayakan kredit. Untuk mengatasi masalah tersebut, penelitian ini membangun model credit scoring dengan pendekatan data mining menggunakan data riwayat kredit nasabah produk Kreasi (data driven scoring) menggunakan algoritma klasifikasi, diantaranya: support vector machine (SVM), naïve bayes, decision tree dan neural network. Pengembangan model dilakukan dengan menggunakan metodologi CRISP-DM (The Cross Industry Standard Process for Data Mining). Model dibangun dengan kriteria tanpa penggunaan feature selection dan dengan feature selection. Teknik SMOTE (Synthetic Minority Over Sampling Technique) dan Oversampling dipilih untuk menyeimbangkan class data. Dari hasil evaluasi kinerja model menunjukan model SVM dengan feature selection dan penyeimbangan class menggunakan teknik Oversampling dipilih sebagai model dengan kinerja terbaik.

Currently, the credit worthiness of Pegadaian prospective customers still uses a conventional scorecard in the form of weighting questions. The model is built based on expert experience which is called expert scorecard. There might be an element of subjectivity in credit assessment. To resolve that problem, in this research data mining classification techniques are used to build credit scoring models. There are four classification algorithms, namely SVM (Support Vector Machine), Naïve Bayes, Decision Tree and Neural Network as a classification algorithm. Modelling uses the historical customer credit data of Pegadaian Kreasi product. CRISP-DM (The Cross Industry Standard Process for Data Mining) is used as a development methodology. Modeling is done with two criteria, by considering the use of feature selection and without feature selection. The SMOTE (Synthetic Minority Over Sampling Technique) and Oversampling techniques are chosen to balance the class data. The result of this research shows the SVM model with feature selection and data balancing using the Oversampling technique was chosen as the model with the best performance."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2020
TA-pdf
UI - Tugas Akhir  Universitas Indonesia Library
cover
Mohammad Darrel Tristan Budiroso
"Penelitian ini menangani masalah pengenalan emosi dalam percakapan berbahasa Indonesia, yang penting untuk aplikasi seperti pengenalan ucapan, interaksi manusiamesin, dan analisis sentimen. Untuk mengatasi kompleksitas data suara dan teks, penelitian ini menggabungkan Word Embedding (Word2Vec) dan spektrum suara (MFCC) menggunakan Convolutional Neural Network (CNN). Word2Vec mengubah dataset suara menjadi representasi teks vektor, sementara MFCC digunakan untuk ekstraksi fitur dari spektrum suara. Model yang dikembangkan dievaluasi dengan dataset percobaan berbahasa Indonesia, dan pendekatan Weighted Average Ensemble yang mengintegrasikan kedua metode ini mencapai akurasi 70%. Hasil ini menunjukkan bahwa integrasi teknologi Word Embedding dan analisis spektrum suara dapat meningkatkan akurasi pengenalan emosi dalam bahasa Indonesia. Penelitian ini berkontribusi signifikan terhadap teknologi pengenalan emosi dan berpotensi meningkatkan interaksi manusia dengan teknologi serta aplikasi dalam analisis sentimen dan pengolahan bahasa alami.

This research addresses the issue of emotion recognition in Indonesian language conversations, which is crucial for applications such as speech recognition, humanmachine interaction, and sentiment analysis. To tackle the complexity of voice and text data, this study combines Word Embedding (Word2Vec) and sound spectrum analysis (MFCC) using Convolutional Neural Network (CNN). Word2Vec is used to convert voice datasets into vector text representations, while MFCC is employed for feature extraction from the sound spectrum. The developed models were evaluated using an experimental dataset in Indonesian, and the Weighted Average Ensemble approach, which integrates both methods, achieved an accuracy of 70%. These results indicate that integrating Word Embedding technology and sound spectrum analysis can significantly enhance the accuracy of emotion recognition in Indonesian conversations. This research contributes significantly to the development of emotion recognition technology and has the potential to improve human interaction with technology, as well as applications in sentiment analysis and natural language processing."
Depok: Fakultas Teknik Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Gemilang Ananda Nizola
"

Vehicle Routing Problem (VRP) adalah masalah optimasi yang melibatkan pengaturan rute dan penjadwalan kendaraan untuk mengantarkan barang dari titik asal ke titik tujuan dengan efisien. VRP merupakan salah satu masalah yang kompleks dan sering muncul dalam bidang logistik dan transportasi. PT. Tridi Oasis adalah sebuah perusahaan daur ulang plastik yang sedang mengekspansi bisnisnya dengan melakukan pengangkutan sampah plastik berjenis Multi-Layer Plastic pada mitra yang telah bekerja sama dengan mereka. Dalam melakukan pengangkutan sampah tersebut, pihak perusahaan merasa perlu memiliki rute optimal dan menginginkan total waktu operasional mereka dapat dioptimalkan. PT. Tridi Oasis juga ingin meminimalkan biaya operasional agar bisa meningkatkan keuntungan mereka. Penelitian ini bertujuan untuk mendapatkan rancangan rute pengambilan sampah MLP yang optimal dengan meminimalkan waktu tempuh yang optimal untuk pengambilan tersebut. Dengan menggunakan Vehicle Routing Problem diperoleh 2 rute untuk 2 unit kendaraan pengangkut MLP, dengan total sampah MLP 38.551 Kg, total waktu operasional 392.33 menit, dan memerlukan biaya minimal Rp. 153,476 dalam menjalankan operasional mereka.


The Vehicle Routing Problem (VRP) is an optimization problem that involves route planning and vehicle scheduling to efficiently deliver goods from the origin point to the destination point. VRP is a complex problem that often arises in the fields of logistics and transportation. PT. Tridi Oasis is a plastic recycling company that is expanding its business by transporting Multi-Layer Plastic (MLP) waste to partners they have collaborated with. In carrying out the waste transportation, the company feels the need to have optimal routes and aims to optimize their overall operational time. PT. Tridi Oasis also wants to minimize operational costs to increase their profits. This research aims to obtain an optimal route design for collecting MLP waste by minimizing the optimal travel time for the collection. By utilizing the Vehicle Routing Problem, two routes for two MLP waste collection vehicles were obtained, with a total of 38,551 kg of MLP waste, a total operational time of 392.33 minutes, and requiring a minimal cost of Rp. 153,476 to carry out their operations.

"
Depok: Fakultas Teknik Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Widya Apriyani S
"Pemeriksaan yang paling tepat dalam menentukan volume jaringan lemak visceral dilakukan dengan menggunakan modalitas CT-scan. Namun karena setiap slice citra memiliki bentuk dan lokasi lemak visceral yang berbeda-beda, maka penentuan volume menjadi tidak mudah. Sehingga, Computer Aided Diagnosis (CAD) dapat dijadikan salah satu solusi untuk membantu tenaga ahli dalam pembacaan citra dan menganalisa area lemak terutama area lemak visceral pada citra abdomen dengan lebih akurat. Dalam penelitian ini, sistem CAD dikembangkan dengan menggunakan metode segmentasi Thresholding, ekstrasi ciri berbasis Gray Level Co-Occurrence Matrix (GLCM) dan klasifikasi citra lemak visceral menggunakan Multilayer Perceptron (MLP). Penelitian ini mengolah data 665 citra CT-scan abdomen dari 38 pasien yang diperoleh dari Rumah Sakit Persahabatan Jakarta. Data tersebut dibagi menjadi 70% citra sebagai data pelatihan dan 30% citra sebagai data pengujian. Hasil performa sistem CAD yang direpresentasikan sebagai tingkat keakurasian dengan nilai sebesar 98.73% untuk data pelatihan dan 95.58% untuk data pengujian. Selain itu, juga diperoleh informasi bahwa hasil kalkulasi volume area jaringan lemak visceral dengan nilai terbesar yaitu sebesar 1238.89 dengan tebal slice sebesar 5 mm. Sedangkan ketebalan 10 mm diperoleh volume sebesar 1072.91 Sementara untuk hasil kalkulasi volume area jaringan lemak visceral terkecil sebesar 107.57 pada ketebalan 5 mm. Sedangkan ketebalan 10 mm diperoleh volume sebesar 47.43 . Evaluasi pada proses segmentasi dilakukan menggunakan metode SSIM dengan mengahasilkan nilai rata-rata SSIM untuk keseluruhan data sebesar 0.843 pada data latih dan 0.838 pada data uji. Dari hasil penelitian ini, sistem CAD berhasil dikembangkan untuk membantu dalam proses mengestimasi volume area jaringan lemak visceral. Namun, tingkat keakurasian antara kalkulasi volume lemak visceral menggunakan sistem CAD dan software CT-scan belum dapat diperoleh dengan baik.

The most precise examination in determining the volume of abdominal fat tissue is using a CT-scan modality. However, because each slice image has a different shape and location of visceral fat, it is not easy to determine the volume. So that, Computer Aided Diagnosis (CAD) can be used as a solution to assist experts in reading images and analyzing fat areas, especially visceral fat areas on abdominal images more accurate. In this study, a CAD system was developed using the Thresholding segmentation method, feature extraction based on Gray Level Co-Occurrence Matrix (GLCM) for the identification of abdominal fat. Next, in the classification process, the visceral fat area is separated from the subcutaneous fat area using Multilayer Perceptron (MLP). This study processed data from 665 abdominal CT-scan images from 38 patients obtained from Persahabatan Hospital. The data is divided into 70% images as training data and 30% images as test data. The results of the CAD system performance are represented as the level of accuracy with a value of 98.73% for training data and 95.58% for test data. In addition, information was also obtained that the calculation of the volume of visceral fat tissue areas with the largest value of 1238.89 with a slice thickness of 5 mm. While the thickness of 10 mm obtained a volume of 1072.91 Calculation of the volume of the volume area of ​​the smallest visceral fat tissue of 107.57 at 5 mm thickness. While the thickness of 10 mm obtained a volume of 47.43 . Evaluation of the segmentation process was carried out using the SSIM method by producing an average SSIM value for the entire data of 0.843 in the training data and 0.838 in the test data. From the results of this study, a CAD system was successfully developed to assist in the process of estimating the volume of visceral fat tissue area. However, the level of accuracy between the calculation of visceral fat volume using CAD systems and CT-scan software has not been obtained properly.
"
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2022
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Fahri Alamsyah
"Dunia digital khususnya image processing berkembang seiring waktu berjalan dikarenakan kebutuhan masyarakat dan pentingnya keamanan sistem berbasis digital. Salah satu teknologi yang sangat mengalami kemajuan pesat adalah pengenalan wajah (face recognition) menggunakan artificial intelligence. Wajah seseorang yang sudah terdaftar di dalam database akan dikenali oleh sistem untuk keperluan validasi atau verifikasi. Di dalam penelitian ini dirancang sistem pengenalan wajah (face recognition) menggunakan algoritma machine learning dan Principal Component Analysis (PCA) sebagai pereduksi dimensi. Pengujian dilakukan dengan menggunakan beberapa metode, yakni: Support Vector Machine (SVM), Decision Tree (DT), K-Nearest Neighbour (K- NN), Logistic Regression (LR), Multi-Layer Perceptron (MLP) dan Convolutional Neural network (CNN). CNN berfokus pada layer dan tidak memerlukan reduksi dimensi, sehingga hasilnya lebih akurat. Model machine learning yang digunakan untuk classifier selain CNN adalah standar/default, sedangkan CNN menggunakan arsitektur LeNet-5, dengan dropout rate sebesar 0.25. Training dilakukan selama 60 epoch dengan loss function crosscategorical entropy, optimizer Adam, dan batch size sebesar 20. Data masukan adalah citra wajah berukuran 64 × 64 × 1 yang diperoleh dari dataset olivetti faces. Akurasi tertinggi metode PCA, SVM, maupun LR sebesar 91.25%, sementara akurasi terbaik CNN mencapai 98.75%. Selain akurasi, pemakaian confusion matrix dan classification report digunakan untuk menguji performa metode yang ada melalui evaluasi model klasifikasi.

The digital world, especially image processing, is evolving due to the needs of society and the importance of digital-based system security. One of the technologies that are rapidly progressing is face recognition using artificial intelligence. The system will recognize a person's face already registered in the database for validation or verification purposes. A face recognition system was designed using machine learning algorithms and Principal Component Analysis (PCA) as dimension reduction in this study. Testing is conducted using several methods: Support Vector Machine (SVM), Decision Tree (DT), K-Nearest Neighbour (K-NN), Logistic Regression (LR), Multi-Layer Perceptron (MLP) and Convolutional Neural network (CNN). CNN focuses on layers and does not require dimensional reduction to increase the accuracy of the result. The machine learning model used for classifiers other than CNN is standard/default settings, while CNN uses the LeNet-5 architecture, with a dropout rate of 0.25. The training was conducted for 60 epochs with loss function cross-categorical entropy, optimizer Adam, and batch size of 20. Input data is a 64 × 64 × 1 facial image obtained from the Olivetti faces database. The highest accuracy of PCA, SVM and LR methods was 91.25%, while CNN's best accuracy reached 98.75%. In addition to accuracy, the use of confusion matrix and classification report is used to test the performance of existing methods through the evaluation of classification models."
Depok: Fakultas Teknik Universitas Indonesia, 2021
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library