Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 163546 dokumen yang sesuai dengan query
cover
Anang Kristianto
"Detailing tulangan pengekang kolom balok persegi pada struktur kolom beton bertulang yang dibangun di daerah rawan gempa memerlukan perhatian khusus mengingat banyaknya kegagalan struktur yang terjadi di lapangan akibat kurangnya pemahaman yang benar mengenai konsep desainnya maupun kesalahan implementasinya di lapangan. Building Code Requirements for Reinforced Concrete and Comentary (ACI 318-14) yang diikuti oleh SNI 2847-2019 melakukan perubahan signifikan pada perhitungan luas tulangan pengekang yang memasukkan unsur tulangan longitudinal khususnya pada kolom dengan beban aksial yang tinggi atau mutu beton diatas 70 MPa untuk sistem rangka pemikul momen khusus dalam rangka meningkatkan kemampuan daktilitasnya. Penelitian ini merupakan studi parametrik menggunakan data eksperimental yang tersedia. 22 kolom persegi beton bertulang dari mutu beton 29-88 MPa serta konfigurasi tulangan mulai dari konfigurasi tanpa pengikat silang (cross ties) hingga kolom dengan 3 kaki pengikat silang pada tiap sisinya. Data penelitian yang ada dievaluasi dan analisis untuk mendapatkan daktilitas lateral maupun kurvaturnya. Hasil dari studi ini menekankan perlunya penggunaan pengikat silang yang mengekang secara lateral tulangan longitudinal, penggunaan pengikat silang memberikan peningkatan daktilitas yang signifikan, standar luas tulangan pengekang terbaru memberikan tingkat daktilitas yang lebih baik dari sebelumnya."
Bandung: Kementerian Pekerjaan Umum dan Perumahan Rakyat, 2020
728 JUPKIM 15:2 (2020)
Artikel Jurnal  Universitas Indonesia Library
cover
Annisa Khoirul Mumtaza
"Sistem coupled tank merupakan salah contoh penerapan sistem kontrol level industri yang memiliki karakteristik yang kompleks dengan non linieritas yang tinggi. Pemilihan metode pengendalian yang tepat perlu dilakukan untuk dapat diterapkan dalam sistem coupled tank agar dapat memberikan kinerja dengan presisi tinggi. Sejak awal kemunculannya, Reinforcement Learning (RL) telah menarik minat dan perhatian yang besar dari para peneliti dalam beberapa tahun terakhir. Akan tetapi teknologi ini masih belum banyak diterapkan secara praktis dalam kontrol proses industri. Pada penelitian ini, akan dibuat sebuah sistem pengendalian level pada sistem coupled tank dengan menggunakan Reinforcement Learning dengan menggunakan algoritma Twin Delayed Deep Deterministic Policy Gradient (TD3). Reinforcement Learning memiliki fungsi reward yang dirancang dengan sempurna yang diperlukan untuk proses training agent dan fungsi reward tersebut perlu diuji terlebih dahulu melalui trial and error. Performa hasil pengendalian ketinggian air pada sistem coupled tank dengan algoritma TD3 mampu menghasilkan pengendalian yang memiliki keunggulan pada rise time, settling time, dan peak time yang cepat serta nilai steady state eror sangat kecil dan mendekati 0%.

The coupled tank system is an example of the application of an industrial level control system that has complex characteristics with high non-linearity. It is necessary to select an appropriate control method to be applied in coupled tank systems in order to provide high-precision performance. Since its inception, Reinforcement Learning (RL) has attracted great interest and attention from researchers in recent years. However, this technology is still not widely applied practically in industrial process control. In this research, a level control system in a coupled tank system will be made using Reinforcement Learning using the Twin Delayed Deep Deterministic Policy Gradient (TD3) algorithm. Reinforcement Learning has a perfectly designed reward function that is required for the agent training process and the reward function needs to be tested first through trial and error. The performance of the results of controlling the water level in the coupled tank system with the TD3 algorithm is able to produce controls that have advantages in rise time, settling time, and peak time which are fast and the steady state error value is very small and close to 0%."
Depok: Fakultas Matematika Dan Ilmu Pengetahuan Alam Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Annisa Khoirul Mumtaza
"Sistem coupled tank merupakan salah contoh penerapan sistem kontrol level industri yang memiliki karakteristik yang kompleks dengan non linieritas yang tinggi. Pemilihan metode pengendalian yang tepat perlu dilakukan untuk dapat diterapkan dalam sistem coupled tank agar dapat memberikan kinerja dengan presisi tinggi. Sejak awal kemunculannya, Reinforcement Learning (RL) telah menarik minat dan perhatian yang besar dari para peneliti dalam beberapa tahun terakhir. Akan tetapi teknologi ini masih belum banyak diterapkan secara praktis dalam kontrol proses industri. Pada penelitian ini, akan dibuat sebuah sistem pengendalian level pada sistem coupled tank dengan menggunakan Reinforcement Learning dengan menggunakan algoritma Twin Delayed Deep Deterministic Policy Gradient (TD3). Reinforcement Learning memiliki fungsi reward yang dirancang dengan sempurna yang diperlukan untuk proses training agent dan fungsi reward tersebut perlu diuji terlebih dahulu melalui trial and error. Performa hasil pengendalian ketinggian air pada sistem coupled tank dengan algoritma TD3 mampu menghasilkan pengendalian yang memiliki keunggulan pada rise time, settling time, dan peak time yang cepat serta nilai steady state eror sama dengan 0%.

The coupled tank system is an example of the application of an industrial level control system that has complex characteristics with high non-linearity. It is necessary to select an appropriate control method to be applied in the coupled tank system in order to provide high-precision performance. Since its inception, Reinforcement Learning (RL) has attracted great interest and attention from researchers in recent years. However, this technology is still not widely applied practically in industrial process control. In this research, a level control system in a coupled tank system will be created using Reinforcement Learning using the Twin Delayed Deep Deterministic Policy Gradient (TD3) algorithm. Reinforcement Learning has a perfectly designed reward function that is required for the agent training process and the reward function needs to be tested first through trial and error. The performance of the results of controlling the water level in the coupled tank system with the TD3 algorithm is able to produce controls that have advantages in rise time, settling time, and peak time which are fast and the steady state error value is equal to 0%."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Dandung Sektian
"Pengendalian ketinggian atau biasa disebut Level Controller adalah hal yang penting di berbagai bidang industri, termasuk industri kimia, industri minyak bumi, industri pupuk, industri otomatif dan lain-lainnya. Pada penelitian ini, dirancang sebuah pengendali non-konvesional menggunakan Reinforcement Learning dengan Twin Delayed Deep Deterministic Polic Gradient (TD3). Agent ini diterapkan pada sebuah miniature plant yang berisi air sebagai fluidanya. Miniature plant ini disusun dengan berbagai komponen yaitu flow transmitter, level transmitter, ball-valve, control valve, PLC, dan pompa air. Kontroler agent TD3 dirancang menggunakan SIMULINK Matlab di computer. Data laju aliran dan ketinggian air diambil melalui flow transmitter dan level transmitter yang dikoneksikan dengan OPC sebagai penghubung antara Matlab ke SIMULINK. Penerapan agent TD3 pada sistem pengendalian ketinggian air digunakan pada dua kondisi yaitu secara riil plant dan simulasi. Dari penelitian ini didapatkan, bahwa kontroler agent TD3 dapat mengendalikan sistem dengan baik. overshoot yang didapatkan kecil yaitu 0,57 secara simulasi dan 0,97 secara riil plant.

In this study, the level controller is the most important in many industry fields, such as chemical industry, petroleum industry, automotive industry, etc., a non-conventional controller using Reinforcement Learning with Twin Delayed Deep Deterministic Policy Gradient (TD3) agent was designed. This agent was implemented in water contain the miniature plant. This miniature plant consists of many components: flow transmitter, level transmitter, ball-valve, control valve, PLC, and water pump. Agent controller was designed using SIMULINK Matlab on a computer, which obtained flow rate and height information comes from flow transmitter and level transmitter connected to OPC that link between Matlab to SIMULINK. Implementation of TD3 to control water level system used two conditions, in real plant and simulation. In this study, we obtain that the TD3 agent controller can control the designs with a slight overshoot value, namely 0,57 in the simulation and 0,97 in the real plant."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2021
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
cover
Deden Ari Ramdhani
"Sistem pengendalian temperatur campuran dan ketinggian air merupakan pengaplikasian yang umum ditemukan dalam bidang industri. Salah satu proses yang menggunakan sistem pengendalian tersebut adalah proses water thermal mixing. Proses tersebut bertujuan untuk menjaga nilai temperatur dan ketinggian air pada nilai yang diinginkan. Hal tersebut dapat diicapai dengan cara mengatur flow input air panas dan air dingin serta mengatur flow out dengan nilai konstan. Pada penelitian ini, diterapkan Reinforcement Learning (RL) dengan Deep Deterministic Policy Gradient (DDPG) Agent untuk melakukan simulasi proses tersebut pada Matlab dan Simulink. Proses training diperlukan untuk memberikan agent pengalaman dalam mengendalikan proses tersebut. Performa dari pengendali RL akan dilihat dari beberapa parameter seperti rise time, settling time, overshoot, dan steady-state error sebagai data kualitatif. Berdasarkan hasil pengendalian, didapatkan nilai overshoot dan steady-state error yang cukup kecil yaitu 1.3% dan 1.76%.

Mixture temperature and water level control systems are common applications in industrial field. One of the process that uses the control system is water thermal mixing process. The goal of the process is to maintain a temperature and water level at expected value. The goal can be achieved by adjusting the input flow of hot and cold water plus adjust flow out on a constant value. In this study, Reinforcement Learning (RL) with Deep Deterministic Policy Gradient (DDPG) agent was applied to simulate the process in Matlab and Simulink. The training process is needed to give agents experience in controlling the process. The performance of the RL controller will be seen from several parameters such as rise time, settling time, overshoot, and steady-state error as qualitative data. Based on the control results, the overshoot and steady-state error values are quite small, namely 1.3% and 1.76%."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2022
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Miftahur Roziqiin
"Sistem pengendalian merupakan suatu sistem yang banyak ditemukan dan berhubungan dengan beragam jenis proses yang ada pada berbagai bidang, terutama bidang industri. Proses pengendalian yang umum ditemukan dalam industri adalah proses thermal mixing. Salah satu contoh proses thermal mixing yang cukup sederhana adalah proses pencampuran air panas dan air dingin atau water thermal mixing, dengan tujuan untuk mencapai temperatur campuran yang diinginkan, tetapi tetap menjaga ketinggian air agar tidak melebihi kapasitas wadah. Nilai temperatur tersebut dapat dicapai dengan cara mengatur debit aliran air yang masuk ke dalam wadah pencampuran. Pada penelitian ini, diimplementasikan sistem pengendalian menggunakan Reinforcement Learning dengan algoritma Soft Actor-Critic pada simulasi pengendalian ketinggian dan temperatur air pada proses water thermal mixing menggunakan Simulink pada MATLAB. Agent dilatih agar dapat mengendalikan sistem secara cepat dan tepat dalam menentukan action berupa nilai untuk mengatur valve menghasilkan debit aliran air yang diperlukan. Hasil dari penelitian ini menunjukkan bahwa algoritma SAC dapat digunakan untuk mengendalikan sistem dengan baik, dengan nilai overshoot terbesar yaitu 1.33% untuk pengendalian ketinggian air dan steady-state error terbesar yaitu 0.33℃ saat mengendalikan temperatur campuran, dan nilai settling time terbesar yaitu 160 sekon saat terjadi perubahan set point untuk ketinggian air dari 2.5 dm menjadi 5 dm, serta mampu mengendalikan kestabilan sistem ketika mengalami gangguan dalam waktu 93 sekon.

The control system is a system that is widely found and relates to various types of processes that exist in various sector, especially the industrial sector. The control process commonly found in industry is the thermal mixing. One of the thermal mixing processes is the process of mixing hot and cold water or water thermal mixing, with the aim of reaching the desired temperature, but still maintaining the water level, so that it does not exceed the capacity of the container. This temperature value can be reached by adjusting the flow of water entering the mixing container. In this study, a control system was implemented using Reinforcement Learning with Soft Actor-Critic algorithm on a simulation of controlling water level and temperature in the water thermal mixing using Simulink in MATLAB. Agents are trained to be able to control the system quickly and precisely in determining the action in the form of a value to adjust the valve to produce the required water flow rate. The results of this study indicate that the SAC algorithm can be used to control the system properly, with the biggest overshoot of 1.33% for controlling water level and steady-state error of 0.33℃ when controlling the temperature of the mixture, and the settling time of 160 seconds when the set point value change for the water level from 2.5 dm to 5 dm, as well as being able to control the stability of the system when experiencing disturbances within 93 seconds."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2022
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
cover
Filipus Heryanto
"ABSTRAK
Dalam perdagangan sekuritas, terdapat masalah keputusan dalam pengelolaan portofolio. Keputusan ini dapat ditentukan dengan reinforcement learning. Reinforcement learning bertujuan untuk mengoptimalkan cumulative reward (keuntungan kumulatif), dengan policy (kebijakan) yang memilih tindakan tertentu yang memberikan keuntungan yang lebih baik. Cumulative reward menggunakan discount rate yang mempengaruhi pertimbangan reward di masa depan. Pada skripsi ini, digunakan Actor Critic using Kronecker-Factored Trust Region (ACKTR) untuk masalah keputusan. Algoritma ini menggunakan model Actor-Critic, natural gradient descent, dan trust region optimization. Model Actor-Critic terdiri atas Actor, dan Critic, dimana Critic mengevaluasi cumulative reward (keuntungan kumulatif), dan Actor melakukan tindakan untuk mendapatkan reward (keuntungan). Natural gradient descent merupakan perkembangan gradient descent yang merepresentasikan steepest descent, dan digunakan untuk memeningkatkan efisiensi sampel. ACKTR memanfaatkan Kronecker-Factored Approximated Curvature (K-FAC) sebagai aproksimasi untuk natural gradient descent, dan trust region untuk memberikan minimum update pada backpropagation. Pada reinforcement learning, agen berinteraksi dengan lingkungan berdasarkan skema Markov Decision Process (MDP), yang mendeskripsikan permasalahan. Pada skripsi ini, agen bertujuan untuk mengoptimalkan keuntungan pada MDP personal retirement portfolio dengan discount rate yang berbeda, dan hasil pembelajaran dari ACKTR akan dianalisis.

ABSTRACT
There are various decision problems in portfolio management. Reinforcement learning can be used to solve decision problems. Reinforcement learning optimizes cumulative reward with policy, which chooses specific actions for a better reward. Cumulative reward has a discount rate that influences reward in the future. In this study, Actor Critic Using Kronecker-Factored Trust Region (ACKTR) is used to solve a decision problem. This algorithm adopts Actor-Critic model, natural gradient descent and trust region optimization. Actor-Critic model composed of Actor and Critic, where Critic evaluates cumulative reward obtained, and Actor outputs action for a reward. Natural gradient descent is a modification from gradient descent that gives steepest descent and is used to improves sample eficiency. ACKTR uses Kronecker-Factored Approximated Curvature (K-FAC) to approximate natural gradient. Trust region update keeps a minimum update for backpropagation. In reinforcement learning, agent interacts with environment based on Markov Decision Process (MDP), which describes the problem. In this study, the agent needed to optimize reward in personal retirement portfolio with different discount rates and learning results from the ACKTR will be analyzed."
Universitas Indonesia, 2019
S-Pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Sanditya Larope Sutanto
"Skripsi ini mengatasi tantangan pelatihan agen Deep Reinforcement Learning (DRL) untuk mengemudi otonom dengan mengembangkan filter keselamatan prediktif berbasis model untuk mencapai pelatihan yang aman. Efektivitas pendekatan ini dievaluasi melalui analisis komparatif dari masalah mengemudi otonom yang diselesaikan menggunakan tiga skenario implementasi yang berbeda: pengendali berbasis pembelajaran konvensional, pengendali berbasis pembelajaran dengan filter keselamatan prediktif, dan pengendali prediktif berbasis model. Tujuan utama dari masalah mengemudi optimal dalam penelitian ini adalah meminimalkan waktu putaran pada lintasan tertutup, di mana agen tidak dibatasi oleh lintasan yang telah ditentukan tetapi dibatasi oleh batas lintasan. Oleh karena itu, filter keselamatan prediktif bertujuan untuk mempertahankan posisi agen dalam batas lintasan selama pelatihan, dengan intervensi minimal. Penelitian ini menyediakan desain dan implementasi dari pengendali prediktif berbasis model, pengendali berbasis pembelajaran konvensional, dan pengendali berbasis pembelajaran dengan filter keselamatan prediktif untuk masalah mengemudi optimal. Ditemukan bahwa filter keselamatan secara efektif mengurangi potensi kerusakan perangkat keras akibat tabrakan selama pelatihan dan meningkatkan efisiensi sampel. Dari segi kinerja, pengendali dengan filter keselamatan mencapai waktu putaran yang lebih cepat dibandingkan pengendali prediktif berbasis model, tetapi sedikit lebih lambat dibandingkan pengendali berbasis pembelajaran konvensional, terutama karena pendekatannya yang konservatif terhadap tikungan akibat penggunaan filter keselamatan prediktif berbasis model.

This thesis addresses the challenge of training Deep Reinforcement Learning (DRL) agents for autonomous driving with an emphasis on optimal performance and safety. The primary objective is to develop a model-based predictive safety filter to achieve safe training. The effectiveness of this approach is evaluated through a comparative analysis of an autonomous driving problem solved using three distinct implementation scenarios: a conventional learning-based controller, a learning-based controller with a predictive safety filter, and a model predictive controller. The core goal of the optimal driving problem in this research is to minimize lap times on a closed-loop track, where the agent is not restricted to predefined trajectories but is constrained by track boundaries. Consequently, the predictive safety filter aims to maintain the agent’s position within track boundaries throughout training, with minimal intervention This research provides implementation of a model predictive controller, a conventional learning-based controller, and a learning-based controller with a predictive safety filter for optimal driving problems. The findings reveal that the safety filter effectively reduces potential hardware damage from crashes during training and increases sample efficiency. Performance-wise, the safety filter-equipped controller achieves faster lap times than the traditional model predictive controller but is marginally slower than the conventional learning-based controller, primarily due to its conservative approach to turns because of using the model-based predictive safety filter."
Depok: Fakultas Teknik Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
<<   1 2 3 4 5 6 7 8 9 10   >>