Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 168533 dokumen yang sesuai dengan query
cover
Ardi Ferdyhana
"Sistem pengendalian ketinggian air merupakan aplikasi yang umum digunakan dalam bidang industri otomasi. Aplikasi dari sistem ini berguna untuk menjaga nilai ketinggian air yang dibutuhkan dalam proses kontrol. Pada penelitian ini, sistem pengendalian ketinggian air dibuat dalam skala lab dengan menerapkan sistem kendali menggunakan reinforcement learning dengan policy gradient agent. Pada plant yang dibuat ini terdapat perangkat keras programmable logic controller (PLC), control valve, flow transmitter dan water level transmitter. Perangkat keras tersebut dihubungkan ke MATLAB dan Simulink menggunakan OPC server sebagai jalur komunikasi dua arah. Implementasi policy gradient agent pada sistem pengendalian ketinggian air digunakan dalam dua kondisi yaitu simulasi dan plant. Parameter yang digunakan untuk menentukan performa pengendalian adalah overshoot, rise time, dan settling time. Berdasarkan hasil pengendalian yang didapatkan, terdapat nilai overshoot yang cukup kecil, yaitu 0.38 % pada simulasi dan sebesar 2,92 % pada plant.

Water level control system is a commonly used application in industrial automation. The application of this system is useful for maintaining the value of the water level needed in the control process. In this study, the water level control system was made on a lab-scale by implementing a control system using reinforcement learning with a policy gradient agent. In this plant, there is a programmable logic controller (PLC), control valve, flow transmitter, and water level transmitter. The hardware is connected to MATLAB and Simulink using an OPC server as a two-way communication line. The implementation of the policy gradient agent in the water level control system is used in two conditions, namely simulation and plant. The parameters used to determine the control performance are overshoot, rise time, and settling time. Based on the control results obtained, there is a fairly small overshoot value, namely 0.38% in the simulation and 2.92% in the plant."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2021
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Muhammad Ziyad Ain Nur Rafif
"Sistem coupled-tank merupakan konfigurasi yang digunakan pada industri dalam hal pengendalian ketinggian air, biasanya dengan metode pengendalian proportional, integral, derivative (PID). Namun, metode lain seperti reinforcement learning (RL) juga bisa diterapkan. Metode RL dapat dikombinasikan dengan programmable logic controller (PLC) yang sering digunakan dalam proses industri. PLC mengontrol ketinggian air dengan membaca data dari water level transmitter dan mengatur bukaan control valve berdasarkan algoritma RL yang sudah dilatih untuk mencapai kontrol optimal. Algoritma RL yang digunakan adalah twin-delayed deep deterministic (TD3) policy gradient. Performa algoritma ini diukur menggunakan parameter seperti overshoot, rise time, settling time, dan steady-state error, lalu dibandingkan dengan pengendali PID konvensional. Hasil simulasi dan pengujian pada hardware menunjukkan bahwa algoritma RL menghasilkan overshoot sebesar 6.59% dan steady-state error sebesar 3.53%, di mana steady-state error ini terjadi karena sensor yang sensitif sehingga data ketinggian air tidak pernah terekam konstan dan stabil. Sebagai perbandingan, pengendali PID memiliki overshoot sekitar 23.38% dan steady-state error terkecil berkisar pada 7.15%, yang berarti pengendali RL sudah memiliki performa yang lebih baik dibandingkan pengendali PID.

Coupled-tank system is a configuration commonly used in industry, mainly for water level control with proportional, integral, and derivative (PID) control method. But, other methods like reinforcement learning (RL) can be implemented for this control problem. This RL method can be combined with programmable logic controller (PLC) which is often used in industry process. PLC will control water level by reading data from water level transmitter and controlling a control valve opening according to a trained RL algorithm to gain an optimal control. The RL algorithm used is twin-delayed deep deterministic (TD3) policy gradient. The algorithm’s performance will be measured by parameters such as overshoot, rise time, settling time, and steady-state error, and then compared with the conventional PID control method. According to the results from simulation and from the real hardware, the overshoot value that happens is only in the range of 6.59% with the smallest steady-state error value ranged around 3.53%, which happens due to the sensitive sensor so that water level data never recorded at a constant and stable state. For comparison, the PID control has an overshoot around 23.38% and smallest steady-state error around 7.15%, which means that the RL control method has a better performance than the PID control method."
Depok: Fakultas Matematika Dan Ilmu Pengetahuan Alam Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Early Radovan
"Penelitian ini menyimulasikan sistem pengendalian temperatur dan ketinggian air pada sistem pengendali MIMO, yang bekerja dengan cara mengendalikan debit air dingin dan air panas untuk menghasilkan temperatur dan ketinggian air yang diinginkan. Simulasi ini dilakukan dengan menggunakan pengendali Reinforcement Learning dengan algoritma Proximal Policy Optimization (PPO) pada Simulink MATLAB. Tujuan dari penelitian ini, sistem dapat menjaga temperatur campuran dan ketinggian air yang terukur agar tetap berada di daerah set point yang ditentukan. Hasil training pengendali PPO diuji dengan melakukan perubahan set point, baik penambahan nilai ataupun pengurangan nilai set point. Pada penelitian ini diasumsikan bahwa proses pencampuran temperatur terdistribusi secara sempurna dan tangki tidak menyerap kalor. Penelitian ini memiliki batasan dimana temperatur air dingin 25℃ dan air panas 90℃ serta ketinggian maksimum tangki sebesar 7,5 dm. Kemampuan agent PPO dilihat dari beberapa parameter seperti overshoot, settling time, rise time, dan error steady state sebagai data kualitatif. Berdasarkan hasil simulasi, secara keseluruhan agent PPO meiliki hasil settling time dan rise time yang berbanding lurus dengan banyaknya perubahan set point. Nilai error steady state tertinggi sebesar 0.98%, terjadi pada pengendalian ketinggian air. Sedangkan nilai overshoot tertinggi sebesar 1,02% dan terjadi pada pengendalian ketinggian air juga.

This research simulates water level and temperature control system on MIMO control system, which works by controlling the flow of cold water and hot water to produce the desired temperature and water level. This simulation is carried out using Reinforcement Learning with Proximal Policy Optimization algorithm on Simulink MATLAB. The purpose of this research, the system can maintain measured temperature of mixture and water level in order to remain in the set point area. The results training of the PPO controller set point, either adding or reducing the set point. In this study, it is assumed that the temperature mixing process is perfectly distributed and the tank does not absorb heat. This research has a limit where the temperature of cold water is 25 and hot water is 90, and the maximum height of the tank is 7.5 dm. The ability agent of the PPO can be seen from overshoot, settling time, rise time, and steady state error as qualitative data. Based on the result of simulation, overall the agent PPO has settling time and rise time that is directly proportional to the number of changes at set point. The highest value of steady state error is 0.98%, occurred in controlling water level. While the highest value of overshoot is 1.02% and occurs in controlling water level as well.
"
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2022
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Muzhaffar Maruf Ibrahim
"Penelitian ini dilakukan dengan menyimulasikan pengendalian ketinggian air menggunakan sistem Reinforcement Learning dengan agent DDPG pada suatu tangki berkapasitas 36,4 liter menggunakan Simulink Matlab. Tujuan dari penelitian ini adalah untuk menjaga level air yang terukur pada tangki agar berada pada setpoint yang telah ditetapkan. Sistem akan diuji dengan melakukan perubahan setpoint secara increasing maupun decreasing. Plant ini terdiri atas control valve, flow transmitter, level transmitter, tangki dengan flow in serta flow out, dan Programmable Logic Controller. Komunikasi antara Simulink Matlab dan PLC dijembatani oleh OPC server. OPC merupakan perangkat lunak intreoperabilitas yang digunakan dalam pertukaran data menggunakan arsitektur client/server. Pada penelitian ini diberikan batasan bahwa ketinggian maksimal yang digunakan pada tangki adalah 60 cm. Penerapan sistem kendali RL menggunakan agen DDPG dapat digunakan sebagai metode alternatif dalam perancangan sistem kendali dengan melihat parameter-parameter seperti rise time, settling time, maximum overshoot, dan steady-state error sebagai data kualitatif. Berdasarkan hasil percobaan, RL DDPG memiliki nilai performasi dengan maximum overshoot sebesar 1,9 %, dan steady-state error maximum sebesar 1,29 %.

This research was conducted by simulating water level control using a Reinforcement Learning system with DDPG agent on a 36.4 liter tank using Simulink Matlab. The purpose of this study was to keep the measurable water level in the tank to be at a setpoint. The system will be tested by making setpoint changes in increasing and decreasing. This plant consists of control valve, flow transmitter, level transmitter, tank with flow in and flow out, and Programmable Logic Controller. Communication between Simulink Matlab and PLC is bridged by opc server. OPC is an interoperability software used in data exchange using client/server architecture. In this study, it was given a limit that the maximum height used in the tank was 60 cm. The implementation of the RL control system using the DDPG agent can be used as an alternative method in designing the control system by looking at parameters such as rise time, settling time, maximum overshoot, and steady-state error as qualitative data. Based on the test results, RL DDPG has a performance value with a maximum overshoot of 1.9 % and a steady-state error maximum of 1.29 %. "
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2021
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Dandung Sektian
"Pengendalian ketinggian atau biasa disebut Level Controller adalah hal yang penting di berbagai bidang industri, termasuk industri kimia, industri minyak bumi, industri pupuk, industri otomatif dan lain-lainnya. Pada penelitian ini, dirancang sebuah pengendali non-konvesional menggunakan Reinforcement Learning dengan Twin Delayed Deep Deterministic Polic Gradient (TD3). Agent ini diterapkan pada sebuah miniature plant yang berisi air sebagai fluidanya. Miniature plant ini disusun dengan berbagai komponen yaitu flow transmitter, level transmitter, ball-valve, control valve, PLC, dan pompa air. Kontroler agent TD3 dirancang menggunakan SIMULINK Matlab di computer. Data laju aliran dan ketinggian air diambil melalui flow transmitter dan level transmitter yang dikoneksikan dengan OPC sebagai penghubung antara Matlab ke SIMULINK. Penerapan agent TD3 pada sistem pengendalian ketinggian air digunakan pada dua kondisi yaitu secara riil plant dan simulasi. Dari penelitian ini didapatkan, bahwa kontroler agent TD3 dapat mengendalikan sistem dengan baik. overshoot yang didapatkan kecil yaitu 0,57 secara simulasi dan 0,97 secara riil plant.

In this study, the level controller is the most important in many industry fields, such as chemical industry, petroleum industry, automotive industry, etc., a non-conventional controller using Reinforcement Learning with Twin Delayed Deep Deterministic Policy Gradient (TD3) agent was designed. This agent was implemented in water contain the miniature plant. This miniature plant consists of many components: flow transmitter, level transmitter, ball-valve, control valve, PLC, and water pump. Agent controller was designed using SIMULINK Matlab on a computer, which obtained flow rate and height information comes from flow transmitter and level transmitter connected to OPC that link between Matlab to SIMULINK. Implementation of TD3 to control water level system used two conditions, in real plant and simulation. In this study, we obtain that the TD3 agent controller can control the designs with a slight overshoot value, namely 0,57 in the simulation and 0,97 in the real plant."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2021
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Nur Fadilah Yuliandini
"Sistem Coupled tank umum digunakan pada bidang industri otomatis, salah satu pengendalian yang umum terjadi pada coupled tank adalah pengendalian ketinggian air. Sistem pengendalian tersebut bertujuan untuk menjaga ketinggian air yang berada pada tangki. Penelitian ini melakukan simulasi pengendalian ketinggian air pada coupled tank dengan menerapkan Reinforcement Learning (RL) dengan algoritma Deep Deterministic Policy Gradient (DDPG). Proses simulasi tersebut dilakukan menggunakan simulink pada MATLAB. Algoritma DDPG melalui serangkaian training sebelum diimplementasikan pada sistem coupled tank. Kemudian pengujian algoritma DDPG dilakukan dengan memvariasikan nilai set point dari ketinggian air dan sistem diberikan gangguan berupa bertambahnya flow in dari control valve lain. Performa dari algorima DDPG dalam sistem pengendalian dilihat dari beberapa parameter seperti overshoot, rise time, settling time, dan steady state error. Hasil yang diperoleh pada penelitian ini bahwa algoritma DDPG memperoleh nilai settling time terbesar sebesar 109 detik, nilai steady state error terbesar sebesar 0.067%. Algoritma DDPG juga mampu mengatasi gangguan dengan waktu terbesar sebesar 97 detik untuk membuat sistem kembali stabil.

The Coupled Tank system is commonly used in the field of industrial automation, and one of the common controls implemented in this system is water level control. The purpose of this study is to simulate water level control in a coupled tank using Reinforcement Learning (RL) with the Deep Deterministic Policy Gradient (DDPG) algorithm. The simulation process is performed using Simulink in MATLAB. The DDPG algorithm undergoes a series of training sessions before being implemented in the coupled tank system. Subsequently, the DDPG algorithm is tested by varying the set point values of the water level and introducing disturbances in the form of increased flow from another control valve. The performance of the DDPG algorithm in the control system is evaluated based on parameters such as overshoot, rise time, settling time, and steady-state error. The results obtained in this study show that the DDPG algorithm achieves a maximum settling time of 109 seconds and a maximum steady-state error of 0.067%. The DDPG algorithm is also capable of overcoming disturbances, with the longest recovery time of 97 seconds to restore system stability."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Deden Ari Ramdhani
"Sistem pengendalian temperatur campuran dan ketinggian air merupakan pengaplikasian yang umum ditemukan dalam bidang industri. Salah satu proses yang menggunakan sistem pengendalian tersebut adalah proses water thermal mixing. Proses tersebut bertujuan untuk menjaga nilai temperatur dan ketinggian air pada nilai yang diinginkan. Hal tersebut dapat diicapai dengan cara mengatur flow input air panas dan air dingin serta mengatur flow out dengan nilai konstan. Pada penelitian ini, diterapkan Reinforcement Learning (RL) dengan Deep Deterministic Policy Gradient (DDPG) Agent untuk melakukan simulasi proses tersebut pada Matlab dan Simulink. Proses training diperlukan untuk memberikan agent pengalaman dalam mengendalikan proses tersebut. Performa dari pengendali RL akan dilihat dari beberapa parameter seperti rise time, settling time, overshoot, dan steady-state error sebagai data kualitatif. Berdasarkan hasil pengendalian, didapatkan nilai overshoot dan steady-state error yang cukup kecil yaitu 1.3% dan 1.76%.

Mixture temperature and water level control systems are common applications in industrial field. One of the process that uses the control system is water thermal mixing process. The goal of the process is to maintain a temperature and water level at expected value. The goal can be achieved by adjusting the input flow of hot and cold water plus adjust flow out on a constant value. In this study, Reinforcement Learning (RL) with Deep Deterministic Policy Gradient (DDPG) agent was applied to simulate the process in Matlab and Simulink. The training process is needed to give agents experience in controlling the process. The performance of the RL controller will be seen from several parameters such as rise time, settling time, overshoot, and steady-state error as qualitative data. Based on the control results, the overshoot and steady-state error values are quite small, namely 1.3% and 1.76%."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2022
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Dito Tunjung Parahyta
"Proses Thermal Mixing adalah jenis dari proses pencampuran yang penting di berbagai industri, seperti industri pangan, pupuk, farmasi, material sampai petrochemical. Proses Thermal Mixing merupakan proses Multi input multi ouput (MIMO), karena bekerja dengan mengendalikan dua flow air panas dan air dingin untuk mengendalikan temperatur dan level campuran. Meskipun memiliki respon yang kurang baik untuk mengendalikan MIMO, namun PID masih banyak digunakan karena kesederhanaannya. Algoritma non konvensional yang lebih baik seperti fuzzy control memiliki kerumitan yang tinggi dibanding PID. Algoritma Adaptive Fuzzy PID Controller (AFPIDC) merupakan gabungan dari keduanya, memiliki basis PID yang cukup sederhana namun ditambahkan aspek Fuzzy untuk mempercepat pengendalian dengan cara mengubah konstanta PID secara real-time (on the fly). Algoritma AFPIDC ini diterapkan pada simulasi sistem pengendalian temperatur dan level air pada proses water Thermal Mixing dan dilakukan pada program MATLAB/SIMULINK di PC. Fuzzy yang digunakan memiliki dua input berupa error dan perubahan error, dan memiliki tiga output berupa perubahan nilai konstanta PID. Pengujian sistem dilakukan dengan simulasi perubahan setpoint dan gangguan berupa kebocoran flow. Dari hasil pengujian sistem, pengendali AFPIDC memiliki performa yang lebih baik dari PID dalam mengendalikan temperatur dan level pada sistem. Dalam pengendalian temperatur, didapatkan nilai settling time PID sebesar 830 detik, AFPIDC sebesar 328 detik dan untuk nilai overshoot PID 6,3% dan AFPIDC 0%. Untuk pengendalian level didapatkan settling time PID 3221 detik dan AFPIDC 235 detik dengan nilai overshoot PID 10,5% dan AFPIDC 0%. Dari pengujian sistem terhadap gangguan kebocoran, pengendali temperatur membutuhkan waktu untuk kembali stabil pada PID 780 detik, AFPIDC 250 detik. Sedangkan untuk pengendalian level untuk kembali stabil membutuhkan waktu PID 4510 detik, AFPIDC 225 detik.

The Thermal Mixing Process is a type of mixing process that is important in various industries, such as the food, fertilizer, pharmaceutical, material to petrochemical industries. The Thermal Mixing Process is a multiple-input multiple-output process (MIMO), because it works by controlling hot water and cold-water flows to control the temperature and level of the mixture. Although it has a poor response to control MIMO system, PID is still widely used because of its simplicity. There are some better control algorithm, such as fuzzy control, but have higher complexity than PID. The Adaptive Fuzzy PID Control (AFPIDC) algorithm is a combination of the two, has a simple PID basis with added Fuzzy aspects to speed up control by changing the PID constant in realtime. The AFPIDC algorithm is applied to the simulation of temperature and water level control systems in the process of water Thermal Mixing and is done on the MATLAB/SIMULINK program on a PC. The fuzzy algorithm uses two inputs in the form of errors and changes in errors and has three outputs in the form of changes in the value of the PID constant. System testing is done by simulating setpoint changes and disruption in the form of leakage flow. From the results of system testing, AFPIDC controllers have better performance than PID in controlling temperature and level in the system. In temperature control, the PID settling time is 830 seconds, AFPIDC is 328 seconds and the PID overshoot is 6,3% and AFPIDC is 0%. In level control, the settling time of PID is 3221 seconds while AFPIDC is 235 seconds with PID overshoot is 10,5% while AFPIDC 0%. From testing the system with leakage disturbance, the temperature controller needs time to regain stability at PID 780 seconds, AFPIDC 250 seconds. Meanwhile the level controlling stabilizes at PID 4510 seconds, and AFPIDC at 225 seconds."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2020
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Ranya Andjani Khairunnisa Johan
"Proses industri banyak melibatkan penggunaan coupled tank, salah satu proses yang dilakukan adalah pengendalian ketinggian cairan. Pada penelitian ini dilakukan pengendalian ketinggian air pada sistem coupled tank menggunakan Reinforcement Learning berbasis algoritma Soft Actor Critic (SAC) menggunakan MATLAB dan Simulink. Sebelum diimplementasikan ke dalam sistem coupled tank dilakukan serangkaian proses training pada algoritma SAC. Hasil dari proses training ini merupakan action dalam bentuk besar bukaan control valve. Kinerja pengendali dievaluasi menggunakan nilai rise time, settling time, overshoot, dan steady state error. Berdasarkan parameter ini, algoritma SAC dapat mengendalikan sistem dengan baik dengan rise time kurang dari 47 sekon, settling time kurang dari 62 sekon, overshoot dibawah 10%, dan steady state error kurang dari 1%. Ketika diberikan gangguan algoritma SAC dapat kembali ke keadaan stabil dalam waktu kurang dari 45 sekon.

A lot of industrial processes utilize the use of coupled tanks, with one of the processes being liquid level control. In this study, Reinforcement Learning is implemented to control the water level in the coupled tank system using Soft Actor Critic (SAC) algorithm through MATLAB and Simulink. Before being implemented into the coupled tank system, the SAC algorithm went through a series of training processes. The result of this training process is an action in the form of adjusting control valve opening percentage. The controller performance is evaluated using parameters such as rise time, settling time, overshoot, and steady state error. Based on these parameters, the SAC algorithm manages to perform well in controlling the system with a rise time of less than 47 seconds, a settling time of less than 62 seconds, overshoot of less than 10%, and steady state error below 1%. When the system received a disturbance the SAC algorithm can return to a steady state in less than 45 seconds."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Rayhan Ghifari Andika
"Pengendalian proses di industri desalinasi sangat penting untuk mengoptimalkan operasi dan mengurangi biaya produksi. Pengendali proporsional, integral, dan derivatif (PID) umum digunakan, namun tidak selalu efektif untuk sistem coupled-tank yang kompleks dan nonlinier. Penelitian ini mengeksplorasi penggunaan algoritma reinforcement learning (RL) dengan algoritma Deep Deterministic Policy Gradient (DDPG) untuk mengendalikan ketinggian air pada sistem coupled-tank. Tujuan penelitian ini adalah merancang sistem pengendalian ketinggian air menggunakan RL berbasis programmable logic controller (PLC) untuk mencapai kinerja optimal. Sistem diuji pada model coupled-tank dengan dua tangki terhubung vertikal, di mana aliran air diatur untuk menjaga ketinggian air dalam rentang yang diinginkan. Hasil menunjukkan bahwa pengendalian menggunakan RL berhasil dengan tingkat error steady-state (SSE) antara 4,63% hingga 9,6%. Kinerja RL lebih baik dibandingkan PID, dengan rise time dan settling time yang lebih singkat. Penelitian ini menyimpulkan bahwa RL adalah alternatif yang lebih adaptif untuk pengendalian level cairan di industri dibandingkan dengan metode konvensional.

Process control in the desalination industry is crucial for optimizing operations and reducing production costs. Proportional, integral, and derivative (PID) controllers are commonly used but are not always effective for complex and nonlinear coupled-tank systems. This study explores the use of reinforcement learning (RL) with the Deep Deterministic Policy Gradient (DDPG) algorithm to control the water level in a coupled-tank system. The objective of this research is to design a water level control system using RL based on a programmable logic controller (PLC) to achieve optimal performance. The system was tested on a coupled-tank model with two vertically connected tanks, where the water flow is regulated to maintain the water level within the desired range. Results show that control using RL achieved a steady-state error (SSE) between 4.63% and 9.6%. RL performance was superior to PID, with faster rise and settling times. This study concludes that RL is a more adaptive alternative for liquid level control in industrial settings compared to conventional methods."
Depok: Fakultas Matematika Dan Ilmu Pengetahuan Alam Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
<<   1 2 3 4 5 6 7 8 9 10   >>