Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 59394 dokumen yang sesuai dengan query
cover
Tryan Aditya Putra
"ABSTRAK
Studi literatur yang dilakukan pada Tesis ini adalah untuk merancang, menguji, dan menganalisa algoritma identifikasi manusia berdasarkan analisa gait menggunakan deterministic learning. Pelatihan dan pengujian pada algoritma akan dilakukan dengan menggunakan basis data CASIA. Basis data tersebut merupakan basis data gambar dan video yang berisi beberapa orang yang berjalan. Variasi kondisi objek berjalan akan menjadi variable yang diukur keberhasilanya. Hasil literatur pada tesis ini menunjukan bahwa pengenalan identitas manusia akan dapat dilakukan dengan baik. Tujuan pengidentifikasian manusia ini akan digunakan dalam sistem keamanan yang dapat dengan aktif mengidentifikasi siapapun yang dilihat kamera. Dengan metode deterministic learning identifikasi manusia dapat dilakukan hingga mencapai 91,25% dengan pengujian menggunakan cross validation.

ABSTRACT
Literature study has done on this tesis to design, test, and analyze human identification algorithm based on gait analysis using deterministic learning. Algorithm will be trained and tested using database CASIA. The database is a database of images and videos that contains some people walking. Variations walking object conditions will be variable being measured its successfulness. Results of the literatur on this tesis showed that the intification of human identity can be done well. Human identification purposes will be used in a security system that can actively identify anyone who visits the camera. Deterministic learning method can identified human with accuration up to 91.25% and tested by cross validation method."
2016
T46237
UI - Tesis Membership  Universitas Indonesia Library
cover
Suryani
"[Pada tesis ini dibahas suatu model terorisme di Indonesia. Model matematika ini dikembangkan dengan membagi populasi manusia ke dalam empat kelas, yaitu kelas umum (G), kelas bibit (S), kelas teroris aktif (FA), dan kelas teroris yang ada di lembaga pemasyarakatan (FP ). Analisis dinamik model berupa kajian titik ekuilibrium seperti jaminan eksistensi, kestabilan dan bifurkasi dibahas dalam tesis ini. Analisis bifurkasi terhadap model yang telah dikonstruksi dilakukan dengan menggunakan software Matcont. Dari hasil kajian eksistensi titik ekuilibrium diperoleh tiga titik ekuilibrium, yaitu titik ekuilibrium bebas teroris E0 = (1; 0; 0), titik ekuilibrium teroris yang berupa E1 = (g1; s1; v1) dan E2 = (g2; s2; v2). Titik ekuilibrium E0 ada tanpa syarat, sedangkan E1 dan E2 ada dengan syarat tertentu. Berdasarkan hasil analisis kestabilan diperoleh E0 stabil asimtotis, E2 stabil, sedangkan E1 tak stabil. Simulasi numerik diberikan dalam beberapa kondisi dengan memanfaatkan software Mathematica 10.0.

In this thesis a model of terrorism in Indonesia is discussed. This model is developed by dividing the human population into four classes, namely general class (G), seed of terrorist class (S), active terrorist class (FA), and terrorist who are in a prison (FP ). Dynamical analysis such as study about equilibrium point such as existence, stability, and bifurcation are discussed in this thesis. A bifurcation analysis of the model is performed using software Matcont. From the results of the study of the existence of the equilibrium point, it is obtained three equilibrium points, namely terrorism-free equilibrium point E0 = (1; 0; 0), and terrorism equilibrium points E1 = (g1; s1; v1) and E2 = (g2; s2; v2). The equilibrium point E0 exists unconditionally, whereas E1 and E2 exist with certain conditions. From the analysis of stability equilibrium points obtained that E0 is asymptotically stable, E2 is stable, and E1 is unstable. Numerical simulation is given in some conditions by using software Mathematica 10.0., In this thesis a model of terrorism in Indonesia is discussed. This model is
developed by dividing the human population into four classes, namely general
class (G), seed of terrorist class (S), active terrorist class (FA), and terrorist who
are in a prison (FP ). Dynamical analysis such as study about equilibrium point
such as existence, stability, and bifurcation are discussed in this thesis. A
bifurcation analysis of the model is performed using software Matcont. From the
results of the study of the existence of the equilibrium point, it is obtained three
equilibrium points, namely terrorism-free equilibrium point E0 = (1; 0; 0), and
terrorism equilibrium points E1 = (g1; s1; v1) and E2 = (g2; s2; v2). The
equilibrium point E0 exists unconditionally, whereas E1 and E2 exist with
certain conditions. From the analysis of stability equilibrium points obtained that
E0 is asymptotically stable, E2 is stable, and E1 is unstable. Numerical
simulation is given in some conditions by using software Mathematica 10.0]"
Depok: Universitas Indonesia, 2015
T43548
UI - Tesis Membership  Universitas Indonesia Library
cover
Dandung Sektian
"Pengendalian ketinggian atau biasa disebut Level Controller adalah hal yang penting di berbagai bidang industri, termasuk industri kimia, industri minyak bumi, industri pupuk, industri otomatif dan lain-lainnya. Pada penelitian ini, dirancang sebuah pengendali non-konvesional menggunakan Reinforcement Learning dengan Twin Delayed Deep Deterministic Polic Gradient (TD3). Agent ini diterapkan pada sebuah miniature plant yang berisi air sebagai fluidanya. Miniature plant ini disusun dengan berbagai komponen yaitu flow transmitter, level transmitter, ball-valve, control valve, PLC, dan pompa air. Kontroler agent TD3 dirancang menggunakan SIMULINK Matlab di computer. Data laju aliran dan ketinggian air diambil melalui flow transmitter dan level transmitter yang dikoneksikan dengan OPC sebagai penghubung antara Matlab ke SIMULINK. Penerapan agent TD3 pada sistem pengendalian ketinggian air digunakan pada dua kondisi yaitu secara riil plant dan simulasi. Dari penelitian ini didapatkan, bahwa kontroler agent TD3 dapat mengendalikan sistem dengan baik. overshoot yang didapatkan kecil yaitu 0,57 secara simulasi dan 0,97 secara riil plant.

In this study, the level controller is the most important in many industry fields, such as chemical industry, petroleum industry, automotive industry, etc., a non-conventional controller using Reinforcement Learning with Twin Delayed Deep Deterministic Policy Gradient (TD3) agent was designed. This agent was implemented in water contain the miniature plant. This miniature plant consists of many components: flow transmitter, level transmitter, ball-valve, control valve, PLC, and water pump. Agent controller was designed using SIMULINK Matlab on a computer, which obtained flow rate and height information comes from flow transmitter and level transmitter connected to OPC that link between Matlab to SIMULINK. Implementation of TD3 to control water level system used two conditions, in real plant and simulation. In this study, we obtain that the TD3 agent controller can control the designs with a slight overshoot value, namely 0,57 in the simulation and 0,97 in the real plant."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2021
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Annisa Khoirul Mumtaza
"Sistem coupled tank merupakan salah contoh penerapan sistem kontrol level industri yang memiliki karakteristik yang kompleks dengan non linieritas yang tinggi. Pemilihan metode pengendalian yang tepat perlu dilakukan untuk dapat diterapkan dalam sistem coupled tank agar dapat memberikan kinerja dengan presisi tinggi. Sejak awal kemunculannya, Reinforcement Learning (RL) telah menarik minat dan perhatian yang besar dari para peneliti dalam beberapa tahun terakhir. Akan tetapi teknologi ini masih belum banyak diterapkan secara praktis dalam kontrol proses industri. Pada penelitian ini, akan dibuat sebuah sistem pengendalian level pada sistem coupled tank dengan menggunakan Reinforcement Learning dengan menggunakan algoritma Twin Delayed Deep Deterministic Policy Gradient (TD3). Reinforcement Learning memiliki fungsi reward yang dirancang dengan sempurna yang diperlukan untuk proses training agent dan fungsi reward tersebut perlu diuji terlebih dahulu melalui trial and error. Performa hasil pengendalian ketinggian air pada sistem coupled tank dengan algoritma TD3 mampu menghasilkan pengendalian yang memiliki keunggulan pada rise time, settling time, dan peak time yang cepat serta nilai steady state eror sangat kecil dan mendekati 0%.

The coupled tank system is an example of the application of an industrial level control system that has complex characteristics with high non-linearity. It is necessary to select an appropriate control method to be applied in coupled tank systems in order to provide high-precision performance. Since its inception, Reinforcement Learning (RL) has attracted great interest and attention from researchers in recent years. However, this technology is still not widely applied practically in industrial process control. In this research, a level control system in a coupled tank system will be made using Reinforcement Learning using the Twin Delayed Deep Deterministic Policy Gradient (TD3) algorithm. Reinforcement Learning has a perfectly designed reward function that is required for the agent training process and the reward function needs to be tested first through trial and error. The performance of the results of controlling the water level in the coupled tank system with the TD3 algorithm is able to produce controls that have advantages in rise time, settling time, and peak time which are fast and the steady state error value is very small and close to 0%."
Depok: Fakultas Matematika Dan Ilmu Pengetahuan Alam Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Annisa Khoirul Mumtaza
"Sistem coupled tank merupakan salah contoh penerapan sistem kontrol level industri yang memiliki karakteristik yang kompleks dengan non linieritas yang tinggi. Pemilihan metode pengendalian yang tepat perlu dilakukan untuk dapat diterapkan dalam sistem coupled tank agar dapat memberikan kinerja dengan presisi tinggi. Sejak awal kemunculannya, Reinforcement Learning (RL) telah menarik minat dan perhatian yang besar dari para peneliti dalam beberapa tahun terakhir. Akan tetapi teknologi ini masih belum banyak diterapkan secara praktis dalam kontrol proses industri. Pada penelitian ini, akan dibuat sebuah sistem pengendalian level pada sistem coupled tank dengan menggunakan Reinforcement Learning dengan menggunakan algoritma Twin Delayed Deep Deterministic Policy Gradient (TD3). Reinforcement Learning memiliki fungsi reward yang dirancang dengan sempurna yang diperlukan untuk proses training agent dan fungsi reward tersebut perlu diuji terlebih dahulu melalui trial and error. Performa hasil pengendalian ketinggian air pada sistem coupled tank dengan algoritma TD3 mampu menghasilkan pengendalian yang memiliki keunggulan pada rise time, settling time, dan peak time yang cepat serta nilai steady state eror sama dengan 0%.

The coupled tank system is an example of the application of an industrial level control system that has complex characteristics with high non-linearity. It is necessary to select an appropriate control method to be applied in the coupled tank system in order to provide high-precision performance. Since its inception, Reinforcement Learning (RL) has attracted great interest and attention from researchers in recent years. However, this technology is still not widely applied practically in industrial process control. In this research, a level control system in a coupled tank system will be created using Reinforcement Learning using the Twin Delayed Deep Deterministic Policy Gradient (TD3) algorithm. Reinforcement Learning has a perfectly designed reward function that is required for the agent training process and the reward function needs to be tested first through trial and error. The performance of the results of controlling the water level in the coupled tank system with the TD3 algorithm is able to produce controls that have advantages in rise time, settling time, and peak time which are fast and the steady state error value is equal to 0%."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Nur Fadilah Yuliandini
"Sistem Coupled tank umum digunakan pada bidang industri otomatis, salah satu pengendalian yang umum terjadi pada coupled tank adalah pengendalian ketinggian air. Sistem pengendalian tersebut bertujuan untuk menjaga ketinggian air yang berada pada tangki. Penelitian ini melakukan simulasi pengendalian ketinggian air pada coupled tank dengan menerapkan Reinforcement Learning (RL) dengan algoritma Deep Deterministic Policy Gradient (DDPG). Proses simulasi tersebut dilakukan menggunakan simulink pada MATLAB. Algoritma DDPG melalui serangkaian training sebelum diimplementasikan pada sistem coupled tank. Kemudian pengujian algoritma DDPG dilakukan dengan memvariasikan nilai set point dari ketinggian air dan sistem diberikan gangguan berupa bertambahnya flow in dari control valve lain. Performa dari algorima DDPG dalam sistem pengendalian dilihat dari beberapa parameter seperti overshoot, rise time, settling time, dan steady state error. Hasil yang diperoleh pada penelitian ini bahwa algoritma DDPG memperoleh nilai settling time terbesar sebesar 109 detik, nilai steady state error terbesar sebesar 0.067%. Algoritma DDPG juga mampu mengatasi gangguan dengan waktu terbesar sebesar 97 detik untuk membuat sistem kembali stabil.

The Coupled Tank system is commonly used in the field of industrial automation, and one of the common controls implemented in this system is water level control. The purpose of this study is to simulate water level control in a coupled tank using Reinforcement Learning (RL) with the Deep Deterministic Policy Gradient (DDPG) algorithm. The simulation process is performed using Simulink in MATLAB. The DDPG algorithm undergoes a series of training sessions before being implemented in the coupled tank system. Subsequently, the DDPG algorithm is tested by varying the set point values of the water level and introducing disturbances in the form of increased flow from another control valve. The performance of the DDPG algorithm in the control system is evaluated based on parameters such as overshoot, rise time, settling time, and steady-state error. The results obtained in this study show that the DDPG algorithm achieves a maximum settling time of 109 seconds and a maximum steady-state error of 0.067%. The DDPG algorithm is also capable of overcoming disturbances, with the longest recovery time of 97 seconds to restore system stability."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Hans Budiman Yusuf
"Sistem pengendalian temperatur dan kelembaban merupakan bagian dari sistem HVAC (Heating, Ventilation, and Air Conditioning) yang merupakan salah satu contoh sistem pengendalian yang banyak digunakan dalam berbagai sektor industri. Pengaturan temperatur dan kelembaban tersebut mempengaruhi kondisi ruangan yang umumnya dalam sektor industri digunakan sebagai tempat penyimpanan. Pengendalian temperatur dan kelembaban yang baik akan menjaga kualitas dari objek yang disimpan. Namun penggunaan sistem HVAC juga memberikan tanggungan biaya yang cukup besar untuk dapat beroperasi, sehingga dibutuhkan suatu sistem yang mempunyai kinerja yang lebih baik dan dapat meminimalisir biaya yang dikeluarkan untuk pengoperasian sistem. Penelitian ini bertujuan untuk melakukan pengendalian temperatur dan kelembaban yang baik dengan menggunakan Agent Reinforcement Learning dengan algoritma Deep Determinisitic Policy Gradient (DDPG) pada perangkat lunak MATLAB dan SIMULINK serta membandingkan hasil pengendalian berupa respon transiennya terhadap pengendalian berbasis pengendali PI. Hasil penelitian ini menunjukan bahwa sistem HVAC dapat dikendalikan lebih baik oleh Agent RL DPPG dibandingkan dengan pengendali PI yang ditandai dengan respon transien seperti settling time yang lebih unggul 55,84% untuk pengendalian temperatur dan 96,49% untuk pengendalian kelembaban. Kemudian rise time yang lebih cepat mencapai < 3 detik untuk mencapai nilai set point temperatur dan kelembaban.

The temperature and humidity control system is a part of the HVAC (Heating, Ventilation, and Air Conditioning) system, which is an example of a control system widely used in various industrial sectors. The regulation of temperature and humidity significantly affects the conditions of indoor spaces commonly utilized as storage areas in industrial settings. Proper temperature and humidity control are essential to maintain the quality of stored objects. However, the use of HVAC systems also comes with substantial operational costs, necessitating the development of a more efficient system that can minimize operational expenses. This research aims to achieve effective temperature and humidity control using the Agent Reinforcement Learning approach with the Deep Deterministic Policy Gradient (DDPG) algorithm implemented in MATLAB and SIMULINK software. The study also compares the control results, particularly the transient response, with those obtained from the Proportional-Integral (PI) controller-based system. The research findings demonstrate that the HVAC system can be better controlled by the Agent RL DPPG, as evidenced by superior transient responses, with a 55.84% improvement in settling time for temperature control and a 96.49% improvement for humidity control. Additionally, the rise time achieved is less than 3 seconds to reach the set point for both temperature and humidity."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Deden Ari Ramdhani
"Sistem pengendalian temperatur campuran dan ketinggian air merupakan pengaplikasian yang umum ditemukan dalam bidang industri. Salah satu proses yang menggunakan sistem pengendalian tersebut adalah proses water thermal mixing. Proses tersebut bertujuan untuk menjaga nilai temperatur dan ketinggian air pada nilai yang diinginkan. Hal tersebut dapat diicapai dengan cara mengatur flow input air panas dan air dingin serta mengatur flow out dengan nilai konstan. Pada penelitian ini, diterapkan Reinforcement Learning (RL) dengan Deep Deterministic Policy Gradient (DDPG) Agent untuk melakukan simulasi proses tersebut pada Matlab dan Simulink. Proses training diperlukan untuk memberikan agent pengalaman dalam mengendalikan proses tersebut. Performa dari pengendali RL akan dilihat dari beberapa parameter seperti rise time, settling time, overshoot, dan steady-state error sebagai data kualitatif. Berdasarkan hasil pengendalian, didapatkan nilai overshoot dan steady-state error yang cukup kecil yaitu 1.3% dan 1.76%.

Mixture temperature and water level control systems are common applications in industrial field. One of the process that uses the control system is water thermal mixing process. The goal of the process is to maintain a temperature and water level at expected value. The goal can be achieved by adjusting the input flow of hot and cold water plus adjust flow out on a constant value. In this study, Reinforcement Learning (RL) with Deep Deterministic Policy Gradient (DDPG) agent was applied to simulate the process in Matlab and Simulink. The training process is needed to give agents experience in controlling the process. The performance of the RL controller will be seen from several parameters such as rise time, settling time, overshoot, and steady-state error as qualitative data. Based on the control results, the overshoot and steady-state error values are quite small, namely 1.3% and 1.76%."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2022
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Diva Kartika Larasati
"Roket reusable menjadi solusi dari tingginya biaya peluncuran roket. Dengan adanya roket yang dapat digunakan kembali, produsen roket tidak harus membuat roket baru untuk tiap peluncuran. Namun dengan banyaknya aspek yang perlu dikendalikan dalam pendaratan roket, diperlukan pengendalian yang rumit dengan pengetahuan mendalam mengenai model roket untuk menghasilkan pendaratan roket yang baik. Pada penelitian ini diajukan pengendali dengan proses perancangan yang lebih sederhana menggunakan reinforcement learning dengan algoritma Deep Deterministic Policy Gradient (DDPG) dengan fokus perancangan pada pencarian fungsi reward. Hasil pengendalian kemudian dibandingkan dengan pengendali PID dan pengendali DDPG dari penelitian terdahulu.

Reusable rocket is the ultimate solution of high rocket launch cost. With rockets being reusable, companies don’t have to make new rockets for every flight. But controlling rocket landing is not easy. With so many aspects needed to be controlled, complicated control system and in-depth knowledge about each rocket models are inevitable. This research proposes a controller with simpler design method using reinforcement learning with Deep Deterministic Policy Gradient (DDPG) algorithm which focuses on reward shaping. The result is then compared with PID and DDPG controllers from previous research."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2022
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Dessy Ana Laila Sari
"ABSTRAK
Klasifikasi emosi manusia merupakan salah satu topik hangat yang dapat dimanfaatkan dalam berbagai bidang, baik medis maupun militer. Emosi manusia sendiri dapat diklasifikasi dengan berbagai metode, salah satunya adalah Machine Learning (ML). Machine learning merupakan proses pembelajaran computer untuk menyelesaikan task tertentu, dengan menggunakan metode ini hasil yang didapatkan akan lebih akurat dan konstan. Dalam tesis ini akan dikembangkan sistem klasifikasi emosi manusia berdasarkan sinyal EEG dari DEAP yang berbasis ML dengan berbagai studi metode ML, seperti Backpropagation Neural Network (BPNN), k-Nearest Neighbor (k-NN), Support Vector Machine (SVM) hingga Random Forest (RF). Sistem klasifikasi kemudian akan dikembangkan kembali menggunakan metode Convolutional Neural Network (CNN). Dari penelitian ini didapatkan bahwa nilai recognition rate yang dihasilkan hanya berkisar 50% dengan nilai maksimal 62%. Sistem juga diberikan feature selection layer untuk memaksimalkan recognition rate, namun penambahan ini tidak memberikan hasil yang signifikan. Dengan demikian recognition rate pada sistem klasifikasi menggunakan sinyal EEG sangat bergantung pada pemrosesan sinyal raw.

ABSTRACT
The classification of human emotions is a hot topic that can be utilized in various fields, both medical and military. Human emotions themselves can be classified by various methods, one of which is Machine Learning (ML). Machine learning is a process of learning computers to complete certain tasks, using this method the results obtained will be more accurate and constant. In this thesis a human emotion classification system will be developed based on EEG signals from DEAP dataset using various ML method studies, such as Backpropagation Neural Network (BPNN), k-Nearest Neighbor (k-NN), Support Vector Machine (SVM) to Random Forest (RF). The classification system will be developed again using the Convolutional Neural Network (CNN) method. From this study it was found that the value of the recognition rate produced is only around 50% with a maximum value of 62%. The system is also given a feature selection layer to maximize recognition rate, but this addition does not provide significant results. Thus the recognition rate in the classification system using EEG signals is very dependent on raw signal processing."
Depok: Fakultas Teknik Universitas Indonesia, 2020
T-Pdf
UI - Tesis Membership  Universitas Indonesia Library
<<   1 2 3 4 5 6 7 8 9 10   >>