Phương pháp tăng cường dữ liệu cho huấn luyện bài toán điều hướng robot tự hành trong môi trường đông người
DOI:
https://doi.org/10.54939/1859-1043.j.mst.CSCE9.2025.92-100Từ khóa:
Học tăng cường sâu; Điều hướng robot; Dữ liệu mô phỏng; Dữ liệu lộ trình di chuyển thực tế.Tóm tắt
Điều hướng robot tự hành qua đám đông dày đặc vẫn là bài toán khó do hành vi người đi bộ vừa phức tạp vừa mang yếu tố xã hội. Dù học tăng cường sâu (DRL) đã đạt nhiều tiến bộ, phần lớn mô hình hiện tại chỉ được huấn luyện trên dữ liệu mô phỏng, dẫn đến khả năng tổng quát kém trong môi trường thực. Trong nghiên cứu này, chúng tôi giới thiệu SCGA (Synthetic Crowd Generation with Grounded Augmentation) – một phương pháp huấn luyện tích hợp các đặc trưng chuyển động thực tế vào quá trình huấn luyện DRL trong môi trường mô phỏng. Bằng cách bổ sung linh hoạt các mẫu di chuyển từ dữ liệu quỹ đạo thật vào môi trường giả lập, SCGA giúp mô hình học được hành vi người thật mà không cần huấn luyện trực tiếp ngoài thực tế, giảm thiểu chi phí và rủi ro. Thực nghiệm cho thấy SCGA giúp mô hình điều hướng an toàn và hiệu quả hơn trong cả môi trường mô phỏng lẫn trên bộ dữ liệu thực tế. Ngoài việc cải thiện hiệu quả huấn luyện, SCGA còn cung cấp môi trường có thể tái sử dụng để phát triển và đánh giá các mô hình điều hướng trong tương lai, mở ra hướng đi thiết thực cho việc ứng dụng DRL vào thực tế.
Tài liệu tham khảo
[1]. C. Chen, Y. Liu, S. Kreiss, and A. Alahi, “Crowd-robot interaction: Crowd-aware robot navigation with attention-based deep reinforcement learning”, Proceedings of the IEEE International Conference on Robotics and Automation (ICRA), pp. 6015–6022, (2019).
[2]. S. Liu, D. Sun, M. Tomizuka, and C. Liu, “Decentralized Structural-RNN for robot crowd navigation with deep reinforcement learning”, Proceedings of the IEEE International Conference on Robotics and Automation (ICRA), pp. 6166–6172, (2021).
[3]. S. Liu, J. Wang, C. Liu, and D. Sun, “Intention-aware robot crowd navigation with attention-based interaction graph”, Proceedings of the IEEE International Conference on Robotics and Automation (ICRA), (2023).
[4]. W. Wang, R. Wang, L. Mao, and B.-C. Min, “NaviSTAR: Socially aware robot navigation with hybrid spatio-temporal graph transformer and preference learning”, Proceedings of the IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), (2023).
[5]. Bingxin Xue, et al., “Crowd-aware socially compliant robot navigation via deep reinforcement learning”, International Journal of Social Robotics, vol. 16, no. 1, pp. 197–209, (2024).
[6]. W. Zhao, J. P. Queralta, and T. Westerlund, “Sim-to-real transfer in deep reinforcement learning for robotics: A survey”, Proceedings of the IEEE Symposium Series on Computational Intelligence (SSCI), pp. 737–744, (2020).
[7]. H. Karnan, D. Everett, M. C. Yip, and G. S. Sukhatme, “Socially compliant navigation dataset (SCAND): A large-scale dataset of demonstrations for social navigation”, arXiv preprint, arXiv:2203.15041, (2022).
[8]. Ess, B. Leibe, and L. Van Gool, “Depth and appearance for mobile scene analysis”, Proceedings of the IEEE International Conference on Computer Vision (ICCV), pp. 1–8, (2007).
[9]. Lerner, Y. Chrysanthou, and D. Lischinski, “Crowds by example”, Computer Graphics Forum, vol. 26, no. 3, pp. 655–664, (2007).
[10]. P. Kothari, S. Kreiss, and A. Alahi, “Human trajectory forecasting in crowds: A deep learning perspective”, IEEE Transactions on Intelligent Transportation Systems, pp. 1–15, (2021).
[11]. M. H. Dang, V. B. Do, T. C. Tan, L. A. Nguyen, and X. T. Truong, “A synthetic crowd generation framework for socially aware robot navigation”, Proceedings of ICISN 2023 – Intelligent Systems and Networks, Lecture Notes in Networks and Systems, vol. 752, pp. 811–821, (2023).
[12]. J. van den Berg, S. J. Guy, M. Lin, and D. Manocha, “Reciprocal n-body collision avoidance”, Springer Tracts in Advanced Robotics, vol. 70, pp. 3–19, (2011).
[13]. M. Moussaïd, N. Perozo, S. Garnier, D. Helbing, and G. Theraulaz, “The walking behaviour of pedestrian social groups and its impact on crowd dynamics”, PLoS ONE, vol. 5, no. 4, e10047, (2010).