Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 22 dokumen yang sesuai dengan query
cover
Dandung Sektian
Abstrak :
Pengendalian ketinggian atau biasa disebut Level Controller adalah hal yang penting di berbagai bidang industri, termasuk industri kimia, industri minyak bumi, industri pupuk, industri otomatif dan lain-lainnya. Pada penelitian ini, dirancang sebuah pengendali non-konvesional menggunakan Reinforcement Learning dengan Twin Delayed Deep Deterministic Polic Gradient (TD3). Agent ini diterapkan pada sebuah miniature plant yang berisi air sebagai fluidanya. Miniature plant ini disusun dengan berbagai komponen yaitu flow transmitter, level transmitter, ball-valve, control valve, PLC, dan pompa air. Kontroler agent TD3 dirancang menggunakan SIMULINK Matlab di computer. Data laju aliran dan ketinggian air diambil melalui flow transmitter dan level transmitter yang dikoneksikan dengan OPC sebagai penghubung antara Matlab ke SIMULINK. Penerapan agent TD3 pada sistem pengendalian ketinggian air digunakan pada dua kondisi yaitu secara riil plant dan simulasi. Dari penelitian ini didapatkan, bahwa kontroler agent TD3 dapat mengendalikan sistem dengan baik. overshoot yang didapatkan kecil yaitu 0,57 secara simulasi dan 0,97 secara riil plant. ......In this study, the level controller is the most important in many industry fields, such as chemical industry, petroleum industry, automotive industry, etc., a non-conventional controller using Reinforcement Learning with Twin Delayed Deep Deterministic Policy Gradient (TD3) agent was designed. This agent was implemented in water contain the miniature plant. This miniature plant consists of many components: flow transmitter, level transmitter, ball-valve, control valve, PLC, and water pump. Agent controller was designed using SIMULINK Matlab on a computer, which obtained flow rate and height information comes from flow transmitter and level transmitter connected to OPC that link between Matlab to SIMULINK. Implementation of TD3 to control water level system used two conditions, in real plant and simulation. In this study, we obtain that the TD3 agent controller can control the designs with a slight overshoot value, namely 0,57 in the simulation and 0,97 in the real plant.
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2021
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Annisa Khoirul Mumtaza
Abstrak :
Sistem coupled tank merupakan salah contoh penerapan sistem kontrol level industri yang memiliki karakteristik yang kompleks dengan non linieritas yang tinggi. Pemilihan metode pengendalian yang tepat perlu dilakukan untuk dapat diterapkan dalam sistem coupled tank agar dapat memberikan kinerja dengan presisi tinggi. Sejak awal kemunculannya, Reinforcement Learning (RL) telah menarik minat dan perhatian yang besar dari para peneliti dalam beberapa tahun terakhir. Akan tetapi teknologi ini masih belum banyak diterapkan secara praktis dalam kontrol proses industri. Pada penelitian ini, akan dibuat sebuah sistem pengendalian level pada sistem coupled tank dengan menggunakan Reinforcement Learning dengan menggunakan algoritma Twin Delayed Deep Deterministic Policy Gradient (TD3). Reinforcement Learning memiliki fungsi reward yang dirancang dengan sempurna yang diperlukan untuk proses training agent dan fungsi reward tersebut perlu diuji terlebih dahulu melalui trial and error. Performa hasil pengendalian ketinggian air pada sistem coupled tank dengan algoritma TD3 mampu menghasilkan pengendalian yang memiliki keunggulan pada rise time, settling time, dan peak time yang cepat serta nilai steady state eror sangat kecil dan mendekati 0%. ......The coupled tank system is an example of the application of an industrial level control system that has complex characteristics with high non-linearity. It is necessary to select an appropriate control method to be applied in coupled tank systems in order to provide high-precision performance. Since its inception, Reinforcement Learning (RL) has attracted great interest and attention from researchers in recent years. However, this technology is still not widely applied practically in industrial process control. In this research, a level control system in a coupled tank system will be made using Reinforcement Learning using the Twin Delayed Deep Deterministic Policy Gradient (TD3) algorithm. Reinforcement Learning has a perfectly designed reward function that is required for the agent training process and the reward function needs to be tested first through trial and error. The performance of the results of controlling the water level in the coupled tank system with the TD3 algorithm is able to produce controls that have advantages in rise time, settling time, and peak time which are fast and the steady state error value is very small and close to 0%.
Depok: Fakultas Matematika Dan Ilmu Pengetahuan Alam Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Annisa Khoirul Mumtaza
Abstrak :
Sistem coupled tank merupakan salah contoh penerapan sistem kontrol level industri yang memiliki karakteristik yang kompleks dengan non linieritas yang tinggi. Pemilihan metode pengendalian yang tepat perlu dilakukan untuk dapat diterapkan dalam sistem coupled tank agar dapat memberikan kinerja dengan presisi tinggi. Sejak awal kemunculannya, Reinforcement Learning (RL) telah menarik minat dan perhatian yang besar dari para peneliti dalam beberapa tahun terakhir. Akan tetapi teknologi ini masih belum banyak diterapkan secara praktis dalam kontrol proses industri. Pada penelitian ini, akan dibuat sebuah sistem pengendalian level pada sistem coupled tank dengan menggunakan Reinforcement Learning dengan menggunakan algoritma Twin Delayed Deep Deterministic Policy Gradient (TD3). Reinforcement Learning memiliki fungsi reward yang dirancang dengan sempurna yang diperlukan untuk proses training agent dan fungsi reward tersebut perlu diuji terlebih dahulu melalui trial and error. Performa hasil pengendalian ketinggian air pada sistem coupled tank dengan algoritma TD3 mampu menghasilkan pengendalian yang memiliki keunggulan pada rise time, settling time, dan peak time yang cepat serta nilai steady state eror sama dengan 0%. ......The coupled tank system is an example of the application of an industrial level control system that has complex characteristics with high non-linearity. It is necessary to select an appropriate control method to be applied in the coupled tank system in order to provide high-precision performance. Since its inception, Reinforcement Learning (RL) has attracted great interest and attention from researchers in recent years. However, this technology is still not widely applied practically in industrial process control. In this research, a level control system in a coupled tank system will be created using Reinforcement Learning using the Twin Delayed Deep Deterministic Policy Gradient (TD3) algorithm. Reinforcement Learning has a perfectly designed reward function that is required for the agent training process and the reward function needs to be tested first through trial and error. The performance of the results of controlling the water level in the coupled tank system with the TD3 algorithm is able to produce controls that have advantages in rise time, settling time, and peak time which are fast and the steady state error value is equal to 0%.
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Anang Kristianto
Abstrak :
Detailing tulangan pengekang kolom balok persegi pada struktur kolom beton bertulang yang dibangun di daerah rawan gempa memerlukan perhatian khusus mengingat banyaknya kegagalan struktur yang terjadi di lapangan akibat kurangnya pemahaman yang benar mengenai konsep desainnya maupun kesalahan implementasinya di lapangan. Building Code Requirements for Reinforced Concrete and Comentary (ACI 318-14) yang diikuti oleh SNI 2847-2019 melakukan perubahan signifikan pada perhitungan luas tulangan pengekang yang memasukkan unsur tulangan longitudinal khususnya pada kolom dengan beban aksial yang tinggi atau mutu beton diatas 70 MPa untuk sistem rangka pemikul momen khusus dalam rangka meningkatkan kemampuan daktilitasnya. Penelitian ini merupakan studi parametrik menggunakan data eksperimental yang tersedia. 22 kolom persegi beton bertulang dari mutu beton 29-88 MPa serta konfigurasi tulangan mulai dari konfigurasi tanpa pengikat silang (cross ties) hingga kolom dengan 3 kaki pengikat silang pada tiap sisinya. Data penelitian yang ada dievaluasi dan analisis untuk mendapatkan daktilitas lateral maupun kurvaturnya. Hasil dari studi ini menekankan perlunya penggunaan pengikat silang yang mengekang secara lateral tulangan longitudinal, penggunaan pengikat silang memberikan peningkatan daktilitas yang signifikan, standar luas tulangan pengekang terbaru memberikan tingkat daktilitas yang lebih baik dari sebelumnya.
Bandung: Kementerian Pekerjaan Umum dan Perumahan Rakyat, 2020
728 JUPKIM 15:2 (2020)
Artikel Jurnal  Universitas Indonesia Library
cover
Lintang Adyuta Sutawika
Abstrak :
Karya ini menggunakan encoder visual berbasis Concept-Map yang menanggulangi masalah penghubungan informasi dari citra yang telah di-encode oleh sebuah jaringan saraf tiruan konvolusional ke dalam ranah semantik yang diproses oleh jarinagn saraf tiruan berbasis waktu. Pendekatan ini menggunakan komponen attention visual yang mengembangkan jaringan konvolusional sebelum dipropagasi ke jaringan berbasis waktu. Untuk meningkatkan pembelajaran cross-entropy, model dilatih dengan metode reinforcement learning dengan cara melatih value dan policy network berdasarkan jarak visual-semantic embedding distance dari representasi vector sebagai sinyal reward. Visual-semantic embedding space belajar dan menghasilkan vector space untuk citra dan teks, lalu digunakan sebagai tolak ukur qualitas suatu teks yang mendeskripsikan suatu citra. Sinyal reward membantu mengarahkan dan memaksimalkan probabilitas suatu deskripsi bagus muncul. Dataset yang digunakan adalah Flickr8k dan metric yang dilaporkan adalah BLEU-1 hingga BLEU-4 ......This work features a Concept-Map visual encoder that tackles the issue of linking encoded image information from convolutional neural networks to semantic domain processed by recurrent neural networks. The approach utilizes visual attention that extends the convolutional network before being propagated to through the recurrent network. To improve upon cross entropy learning, the model is then trained on reinforcement learning by training a value and policy network on visual-semantic embedding distance of vector representations as reward signals. The visual-semantic embedding space that jointly learns a common vector space for encoding image and caption is used to measure the quality of generated caption computing how close the vector representation is to the vector representation of the input image. The reward signal guides the policy to maximize the probability of producing good captions. The Flickr8K dataset is used and BLEU-1 to BLEU-4 for is reported.
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2019
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Filipus Heryanto
Abstrak :
ABSTRAK
Dalam perdagangan sekuritas, terdapat masalah keputusan dalam pengelolaan portofolio. Keputusan ini dapat ditentukan dengan reinforcement learning. Reinforcement learning bertujuan untuk mengoptimalkan cumulative reward (keuntungan kumulatif), dengan policy (kebijakan) yang memilih tindakan tertentu yang memberikan keuntungan yang lebih baik. Cumulative reward menggunakan discount rate yang mempengaruhi pertimbangan reward di masa depan. Pada skripsi ini, digunakan Actor Critic using Kronecker-Factored Trust Region (ACKTR) untuk masalah keputusan. Algoritma ini menggunakan model Actor-Critic, natural gradient descent, dan trust region optimization. Model Actor-Critic terdiri atas Actor, dan Critic, dimana Critic mengevaluasi cumulative reward (keuntungan kumulatif), dan Actor melakukan tindakan untuk mendapatkan reward (keuntungan). Natural gradient descent merupakan perkembangan gradient descent yang merepresentasikan steepest descent, dan digunakan untuk memeningkatkan efisiensi sampel. ACKTR memanfaatkan Kronecker-Factored Approximated Curvature (K-FAC) sebagai aproksimasi untuk natural gradient descent, dan trust region untuk memberikan minimum update pada backpropagation. Pada reinforcement learning, agen berinteraksi dengan lingkungan berdasarkan skema Markov Decision Process (MDP), yang mendeskripsikan permasalahan. Pada skripsi ini, agen bertujuan untuk mengoptimalkan keuntungan pada MDP personal retirement portfolio dengan discount rate yang berbeda, dan hasil pembelajaran dari ACKTR akan dianalisis.
ABSTRACT
There are various decision problems in portfolio management. Reinforcement learning can be used to solve decision problems. Reinforcement learning optimizes cumulative reward with policy, which chooses specific actions for a better reward. Cumulative reward has a discount rate that influences reward in the future. In this study, Actor Critic Using Kronecker-Factored Trust Region (ACKTR) is used to solve a decision problem. This algorithm adopts Actor-Critic model, natural gradient descent and trust region optimization. Actor-Critic model composed of Actor and Critic, where Critic evaluates cumulative reward obtained, and Actor outputs action for a reward. Natural gradient descent is a modification from gradient descent that gives steepest descent and is used to improves sample eficiency. ACKTR uses Kronecker-Factored Approximated Curvature (K-FAC) to approximate natural gradient. Trust region update keeps a minimum update for backpropagation. In reinforcement learning, agent interacts with environment based on Markov Decision Process (MDP), which describes the problem. In this study, the agent needed to optimize reward in personal retirement portfolio with different discount rates and learning results from the ACKTR will be analyzed.
Universitas Indonesia, 2019
S-Pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Nur Fadilah Yuliandini
Abstrak :
Sistem Coupled tank umum digunakan pada bidang industri otomatis, salah satu pengendalian yang umum terjadi pada coupled tank adalah pengendalian ketinggian air. Sistem pengendalian tersebut bertujuan untuk menjaga ketinggian air yang berada pada tangki. Penelitian ini melakukan simulasi pengendalian ketinggian air pada coupled tank dengan menerapkan Reinforcement Learning (RL) dengan algoritma Deep Deterministic Policy Gradient (DDPG). Proses simulasi tersebut dilakukan menggunakan simulink pada MATLAB. Algoritma DDPG melalui serangkaian training sebelum diimplementasikan pada sistem coupled tank. Kemudian pengujian algoritma DDPG dilakukan dengan memvariasikan nilai set point dari ketinggian air dan sistem diberikan gangguan berupa bertambahnya flow in dari control valve lain. Performa dari algorima DDPG dalam sistem pengendalian dilihat dari beberapa parameter seperti overshoot, rise time, settling time, dan steady state error. Hasil yang diperoleh pada penelitian ini bahwa algoritma DDPG memperoleh nilai settling time terbesar sebesar 109 detik, nilai steady state error terbesar sebesar 0.067%. Algoritma DDPG juga mampu mengatasi gangguan dengan waktu terbesar sebesar 97 detik untuk membuat sistem kembali stabil. ......The Coupled Tank system is commonly used in the field of industrial automation, and one of the common controls implemented in this system is water level control. The purpose of this study is to simulate water level control in a coupled tank using Reinforcement Learning (RL) with the Deep Deterministic Policy Gradient (DDPG) algorithm. The simulation process is performed using Simulink in MATLAB. The DDPG algorithm undergoes a series of training sessions before being implemented in the coupled tank system. Subsequently, the DDPG algorithm is tested by varying the set point values of the water level and introducing disturbances in the form of increased flow from another control valve. The performance of the DDPG algorithm in the control system is evaluated based on parameters such as overshoot, rise time, settling time, and steady-state error. The results obtained in this study show that the DDPG algorithm achieves a maximum settling time of 109 seconds and a maximum steady-state error of 0.067%. The DDPG algorithm is also capable of overcoming disturbances, with the longest recovery time of 97 seconds to restore system stability.
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Hans Budiman Yusuf
Abstrak :
Sistem pengendalian temperatur dan kelembaban merupakan bagian dari sistem HVAC (Heating, Ventilation, and Air Conditioning) yang merupakan salah satu contoh sistem pengendalian yang banyak digunakan dalam berbagai sektor industri. Pengaturan temperatur dan kelembaban tersebut mempengaruhi kondisi ruangan yang umumnya dalam sektor industri digunakan sebagai tempat penyimpanan. Pengendalian temperatur dan kelembaban yang baik akan menjaga kualitas dari objek yang disimpan. Namun penggunaan sistem HVAC juga memberikan tanggungan biaya yang cukup besar untuk dapat beroperasi, sehingga dibutuhkan suatu sistem yang mempunyai kinerja yang lebih baik dan dapat meminimalisir biaya yang dikeluarkan untuk pengoperasian sistem. Penelitian ini bertujuan untuk melakukan pengendalian temperatur dan kelembaban yang baik dengan menggunakan Agent Reinforcement Learning dengan algoritma Deep Determinisitic Policy Gradient (DDPG) pada perangkat lunak MATLAB dan SIMULINK serta membandingkan hasil pengendalian berupa respon transiennya terhadap pengendalian berbasis pengendali PI. Hasil penelitian ini menunjukan bahwa sistem HVAC dapat dikendalikan lebih baik oleh Agent RL DPPG dibandingkan dengan pengendali PI yang ditandai dengan respon transien seperti settling time yang lebih unggul 55,84% untuk pengendalian temperatur dan 96,49% untuk pengendalian kelembaban. Kemudian rise time yang lebih cepat mencapai < 3 detik untuk mencapai nilai set point temperatur dan kelembaban. ......The temperature and humidity control system is a part of the HVAC (Heating, Ventilation, and Air Conditioning) system, which is an example of a control system widely used in various industrial sectors. The regulation of temperature and humidity significantly affects the conditions of indoor spaces commonly utilized as storage areas in industrial settings. Proper temperature and humidity control are essential to maintain the quality of stored objects. However, the use of HVAC systems also comes with substantial operational costs, necessitating the development of a more efficient system that can minimize operational expenses. This research aims to achieve effective temperature and humidity control using the Agent Reinforcement Learning approach with the Deep Deterministic Policy Gradient (DDPG) algorithm implemented in MATLAB and SIMULINK software. The study also compares the control results, particularly the transient response, with those obtained from the Proportional-Integral (PI) controller-based system. The research findings demonstrate that the HVAC system can be better controlled by the Agent RL DPPG, as evidenced by superior transient responses, with a 55.84% improvement in settling time for temperature control and a 96.49% improvement for humidity control. Additionally, the rise time achieved is less than 3 seconds to reach the set point for both temperature and humidity.
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Ranya Andjani Khairunnisa Johan
Abstrak :
Proses industri banyak melibatkan penggunaan coupled tank, salah satu proses yang dilakukan adalah pengendalian ketinggian cairan. Pada penelitian ini dilakukan pengendalian ketinggian air pada sistem coupled tank menggunakan Reinforcement Learning berbasis algoritma Soft Actor Critic (SAC) menggunakan MATLAB dan Simulink. Sebelum diimplementasikan ke dalam sistem coupled tank dilakukan serangkaian proses training pada algoritma SAC. Hasil dari proses training ini merupakan action dalam bentuk besar bukaan control valve. Kinerja pengendali dievaluasi menggunakan nilai rise time, settling time, overshoot, dan steady state error. Berdasarkan parameter ini, algoritma SAC dapat mengendalikan sistem dengan baik dengan rise time kurang dari 47 sekon, settling time kurang dari 62 sekon, overshoot dibawah 10%, dan steady state error kurang dari 1%. Ketika diberikan gangguan algoritma SAC dapat kembali ke keadaan stabil dalam waktu kurang dari 45 sekon. ......A lot of industrial processes utilize the use of coupled tanks, with one of the processes being liquid level control. In this study, Reinforcement Learning is implemented to control the water level in the coupled tank system using Soft Actor Critic (SAC) algorithm through MATLAB and Simulink. Before being implemented into the coupled tank system, the SAC algorithm went through a series of training processes. The result of this training process is an action in the form of adjusting control valve opening percentage. The controller performance is evaluated using parameters such as rise time, settling time, overshoot, and steady state error. Based on these parameters, the SAC algorithm manages to perform well in controlling the system with a rise time of less than 47 seconds, a settling time of less than 62 seconds, overshoot of less than 10%, and steady state error below 1%. When the system received a disturbance the SAC algorithm can return to a steady state in less than 45 seconds.
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
<<   1 2 3   >>