Thiết kế điều khiển hệ truyền động xoay chiều với kỹ thuật học tăng cường
67 lượt xemDOI:
https://doi.org/10.54939/1859-1043.j.mst.97.2024.33-40Từ khóa:
Học tăng cường; Actor-Critic; Máy điện không đồng bộ; Tác nhân; DDPG.Tóm tắt
Máy điện không đồng bộ 3 pha (IM) được biết đến rộng rãi trong các ứng dụng công nghiệp do chi phí thấp và giảm thiểu việc bảo trì. Điều khiển máy điện xoay chiều dựa trên điều khiển tựa từ thông (FOC) và điều khiển véc tơ với qui luật điều khiển kinh điển PID là những kỹ thuật tin cậy được ưa dùng trong công nghiệp. Tuy nhiên, do bản chất phi tuyến của máy điện và khi chúng chịu tác động của nhiễu bên ngoài hoặc thay đổi tham số bên trong thì các bộ điều khiển thông thường này khó có thể đáp ứng được các yêu cầu điều khiển. Học tăng cường (RL) là một kỹ thuật học trực tuyến, không cần mô hình, có thể xử lý các biến đổi của tham số. Những đặc tính này làm cho việc học tăng cường trở thành một ứng cử viên tiềm năng, hoạt động như một bộ điều khiển thích nghi có thể thay thế các bộ điều khiển thông thường.
Bài báo này đề xuất việc thiết kế điều khiển hệ truyền động động cơ không đồng bộ 3 pha dựa trên kỹ thuật học tăng cường. Bộ điều khiển đề xuất sử dụng một tác nhân học tăng cường với thuật toán DDPG thay thế cho các bộ điều khiển PI của mạch vòng dòng điện trong điều khiển FOC thông thường. Hiệu suất của bộ điều khiển đã được xác minh trong các điều kiện hoạt động khác nhau bằng mô phỏng máy tính trong MATLAB/SIMULINK..
Tài liệu tham khảo
[1]. Kushwaha, Ashish and Gopal, Madan, “Reinforcement learning-based controller for field-oriented control of induction machine”, Soft Computing for Problem Solving, pp. 737—749, (2019).
[2]. Ayesha, Attaullah Y. Memon “Reinforcement Learning Based Field Oriented Control Of An Induction Motor” 2022 Third International Conference on Latest trends in Electrical Engineering and Computing Technologies, IEEE, pp. 315-343, (2022). DOI: 10.1109/INTELLECT55495.2022.9969403
[3]. S. A. A. Rizvi and Z. Lin, ”Output Feedback Optimal Tracking Control Using Reinforcement Q-Learning” 2018 Annual American Control Conference (ACC), pp. 3423-3428, (2018), doi: 10.23919/ACC.2018.8430997
[4]. Bhagat, Sarthak and Banerjee, Hritwick and Ren, Hongliang, “Deep Reinforcement Learning for Soft Robotic Applications: Brief Overview with Impending Challenges”, Preprints, (2018).
[5]. T. Pajchrowski , P. Siwek , and A. Wójcik, “Adaptive controller design for electric drive with variable parameters by Reinforcement Learning method” Bulletin of the Polish Academy of Sciences Technical Sciences, Vol. 68, No. 5, (2020). DOI: 10.24425/bpasts.2020.XXXX
[6]. C HUNHUA L IU, K. T. C HAU, C HRISTOPHER H. T. L EE, Z AIXIN S ONG, “Critical Review of Advanced Electric Machines and Control Strategies for Electric Vehicles” Proceedings of the IEEE | Vol. 109, no. 6, (2021).
[7]. Krishnan, R., “Electric Motor Drives: Modeling, Analysis, and Control”, Prentice Hall, (2001).
[8]. O’Rourke, Colm J. and Qasim, Mohammad M. and Overlin, Matthew R.and Kirtley, James L., “A Geometric Interpretation of Reference Frames and Transformations: dq0, Clarke, and Park”, IEEE Transactions on Energy Conversion, pp. 2070-2083, (2019).
[9]. Rushikesh Kamalapurkar • Patrick Walters Joel Rosenfeld • Warren Dixon “Reinforcement Learning for Optimal Feedback Control” Springer, (2018).
[10]. Memon, A.Y., “Sensorless Speed Control of Induction Motors Using Sliding Mode Control Strategy”, Michigan State University. Department of Electrical and Computer Engineering, (2004).
[11]. Chan, Tze Fun and Shi, Keli, “Applied intelligent control of induction motor drives”, John Wiley & Sons, (2011).
[12]. Bose, B.K., “Modern Power Electronics and AC Drives”, Prentice Hall PTR, (2002).