Vertical Roller Mill (VRM) merupakan tipe baru peralatan grinding, yang mengkombinasikan berbagai fungsi proses dalam pengoperasiannya termasuk proses grinding, proses pengeringan, dan proses pemisahan, dan merupakan peralatan grinding yang memiliki efisisensi energi yang tinggi. Stabilitas pengendalian operasi dan kehalusan raw meal yang sesuai dengan kualitas merupakan factor penting untuk mendapatkan kondisi operasi normal pada VRM.
Penelitian ini bertujuan mendapatkan metode pemodelan bagi VRM untuk memprediksi residu 90 mikron dan residu 200 mikron dari produk raw meal menggunakan Back Propagation Neural Network (BPNN). Pembuatan model BPNN dapat dilakukan dalam beberapa langkah, yaitu persiapan data input, menentukan sturuktur BPNN, pemilihan optimizer dan loss function, dan pelatihan BPNN serta evaluasi model yang dibuat.
Normalisasi data merupakan bagian dari persiapan data input, yang mana metode ini mengubah nilai output kedalam nilai kisaran baru. Sedangkan untuk arsitektur model, pada penelitian ini BPNN dirancang dengan menggunakan 4 variabel dan 6 variabel pada lapisan masukan, 4 lapisan tersembunyi dengan 52 neuron untuk setiap lapisannya. Sedangkan lapisan keluaran memiliki 2 variabel keluaran.
Pada penelitian ini menggunakan 3 tipe optimizer untuk mengoptimalkan parameter loss function, yaitu Adagrad, Adam, dan RMSprop. Dari hasil evaluasi pada model, penggunaan RMSprop optimizer dan MSE sebagai loss function memberikan hasil yang lebih baik dalam memprediksi data kualitas residu produk VRM dibandingkan optimizer lainnya.
Vertical Roller Mill (VRM) is a new type of grinding equipment, which combines multiple functions that include grinding, drying, and separating, and is energy efficient grinding equipmen. Stability of the process control and suitable raw meal fineness are the key factors to determine the normal operation of the VRM.
This study proposes a method for modeling the VRM to predict residue 90 micron and residue 200 micron of the raw meal product using Back Propagation Neural Network (BPNN). Making a neural network model in BPNN can be done in a few steps. The modelling step is input preparation, BPNN structure determination, optimizer and loss function selection, training BPNN and model evaluation.
Normalization is part of input preparation. This method resets the feature or output to a range of new values. For structure architecture, BPNN Modeling VRM Raw Meal uses one input layer with 4 and 6 input variables, with 4 hidden layers with 52 neuron for each hidden layers. While the output consists of one layer with 2 target output variables.
In this research, the modeling using 3 optimizers to optimize parameter of loss function. The optimizers are Adagrad, Adam, and RMSprop. From model evaluation, RMSprop optimizer and MSE loss function show better modelling results than others to predict residue data quality of the VRM raw meal products.
Selama masa pandemi COVID-19, teknologi Automatic Speech Recognition (ASR) menjadi salah satu fitur yang sering digunakan pada komputer untuk mencatat di kelas online secara realtime. Teknologi ini akan bekerja dimana setiap suara yang muncul akan langsung dikenali dan dicatat pada halaman terminal. Dalam penelitian ini, model ASR Wav2Letter akan digunakan menggunakan CNN (Convolution Neural Network) dengan loss function CTC (Connectionist Temporal Classification) dan ASG (Auto Segmentation Criterion). Selama proses pembuatannya, berbagai hyperparameter acoustic model dan language model dari model ASR Wav2Letter terkait dengan implementasi batch normalization¸ learning-rate, window type, window size, n-gram language model, dan konten language model diuji pengaruh variasinya terhadap performa model Wav2Letter. Dari pengujian tersebut, ditemukan bahwa model ASR Wav2Letter menunjukkan performa paling baik ketika acoustic model menggunakan metode ASG dengan learning-rate 9 × 10−5 , window size 0.1, window type Blackman, serta 6-gram language model. Berdasarkan hasil akurasi WER CTC unggul 1,2% dengan 40,36% berbanding 42,11% dibandingkan ASG, namun jika dilihat lamanya epoch dan ukuran file model, loss function ASG memiliki keunggulan hampir dua kalinya CTC, dimana ASG hanya membutuhkan setengah dari jumlah epoch yang dibutuhkan oleh CTC yakni 24 epoch berbanding dengan 12 epoch dan ukuran file model ASG setengah lebih kecil dibandingkan CTC yakni 855,2 MB berbanding dengan 427,8 MB. Pada pengujian terakhir, model ASR Wav2Letter dengan loss function ASG mendapatkan hasil terbaik dengan nilai WER 29,30%. Berdasarkan hasil tersebut, model ASR Wav2Letter dengan loss function ASG menunjukkan perfoma yang lebih baik dibandingkan dengan CTC.
During the COVID-19 pandemic, Automatic Speech Recognition technology (ASR) became one of features that most widely used in computer to note down online class in real-time. This technology works by writing down every word in terminal from voice that is recognized by the system. ASR Wav2Letter model will use CNN (Convolutional Neural Network) with loss function CTC (Connectionist Temporal Classification) and ASG (Auto Segmentation Criterion). While developing Wav2Letter, various hyperparameter from acoustic model and language model is implemented such as batch normalization, learning rate, window type, window size, n-gram language model, and the content of language model are examined against the performance of Wav2Letter model. Based on those examination, Wav2Letter shows best performance when it uses ASG loss function learning rate 9 × 10−5 , window size 0.1, window type Blackman, and 6-gram language model. With that configuration, WER of CTC outplay ASG around 1.2% with 40.36% compare to 42,11%, but another parameter shows ASG are way more superior than CTC with less time epoch training which are 24 epoch for CTC against 12 epoch for ASG and the size of memory model shows CTC has bigger size than ASG with 855.2 MB against 427.8 MB. In the last test, ASR Wav2Letter model with ASG loss function get the best WER value around 29.3%. Based on those results, ASR Wav2Letter Model shows its best performance with ASG loss function than CTC.