Ứng dụng mô hình học sâu trong thị giác máy tính cho hệ bắt-bám mục tiêu của khí cụ bay tự dẫn vác vai huấn luyện
132 lượt xemDOI:
https://doi.org/10.54939/1859-1043.j.mst.94.2024.159-165Từ khóa:
Hệ bắt-bám mục tiêu; Hệ camera số; Mô hình học sâu; Thuật toán YOLO.Tóm tắt
Bài báo trình bày nội dung nghiên cứu ứng dụng mô hình học sâu trong thị giác máy tính cho hệ bắt-bám mục tiêu của khí cụ bay tự dẫn vác vai huấn luyện. Mục đích của nghiên cứu là sử dụng hệ camera số như một hệ bắt-bám giả lập có tính năng phù hợp với tính năng của đầu tự dẫn khí cụ bay vác vai, làm cơ sở xây dựng các khí cụ bay tự dẫn vác vai huấn luyện. Để bắt-bám được mục tiêu di động ngoài thực địa, khả năng nhận dạng mục tiêu 3D phải đáp ứng yêu cầu về độ chính xác, tuy nhiên, khi áp dụng thuật toán xử lý ảnh truyền thống đã không hiệu quả. Để giải quyết vấn đề này, bài báo tập trung nghiên cứu ứng dụng mô hình học sâu YOLO cho hệ bắt-bám camera số. Trên cơ sở sử dụng mô hình YOLO phiên bản 8, nhóm nghiên cứu đã thử nghiệm thu thập dữ liệu, xử lý hình ảnh, huấn luyện mô hình và xem xét khả năng bắt-bám mục tiêu của một hệ camera số. Đồng thời, chế thử thiết bị khí cụ bay tự dẫn vác vai huấn luyện cỡ 72 mm với hệ bắt-bám camera số và thử nghiệm ngoài thực địa. Kết quả, khả năng bắt-bám mục tiêu của hệ camera số phù hợp theo chức năng đầu tự dẫn hồng ngoại được xây dựng trên cơ sở con quay điện từ trong phạm vi giới hạn về khoảng cách.
Tài liệu tham khảo
[1]. K. Kumar et al., “Comparative study on object detection in visual scenes using deep learning,” World Journal of Advanced Engineering Technology and Sciences, Vol. 12, No. 2, pp. 045-050, (2023). DOI: https://doi.org/10.30574/wjaets.2023.10.2.0262
[2]. J. Jiang et al., “Research on moving object tracking technology of sports video based on deep learning algorithm,” 4th International Conference on Information Systems and Computer Aided Education, pp. 2376-2380, (2021). DOI: https://doi.org/10.1145/3482632.3487433
[3]. V. G. Dhanya et al., “Deep learningbased computer vision approaches for smart agricultural applications,” Artificial Intelligence in Agriculture, pp. 211-229, (2022). DOI: https://doi.org/10.1016/j.aiia.2022.09.007
[4]. M. H. Koresh, “Computer vision based traffic sign sensing for smart transport,” Journal of Innovative Image Processing, Vol. 1, No.1, pp. 11-19, (2019). DOI: https://doi.org/10.36548/jiip.2019.1.002
[5]. L. M. Belmonte et al., “Computer vision in autonomous unmanned aerial vehicles a systematic mapping study,” Applied Sciences, Vol. 9, No.15, pp. 3196, (2019). DOI: https://doi.org/10.3390/app9153196
[6]. E. Shreyas et al., “3D object detection and tracking methods using deep learning for computer vision applications,” International Conference on Recent Trends on Electronics, Information, Communication & Technology (RTEICT). IEEE, (2021). DOI: https://doi.org/10.1109/RTEICT52294.2021.9573964
[7]. J. Redmon et al., “You only look once: Unified, real-time object detection,” In Proceedings of the IEEE conference on computer vision and pattern recognition, pp. 779-788, (2016). DOI: https://doi.org/10.1109/CVPR.2016.91
[8]. J. F. Henriques et al., “High-speed tracking with kernelized correlation filters,” IEEE transactions on pattern analysis and machine intelligence, Vol. 37, No.3, pp. 583-596, (2014). DOI: https://doi.org/10.1109/TPAMI.2014.2345390
[9]. Cục Kỹ thuật PK-KQ, “Thuyết minh kỹ thuật và hướng dẫn sử dụng phối bộ tên lửa tầm thấp A72 (9M32M),” (2003).
[10]. T. V. Dực, N.V. Sơn, P. V. Uy, “Động học bay và nguyên lý dẫn khí cụ bay điều khiển một kênh,” NXB Khoa học Kỹ thuật (2006).
[11]. M. Ed. Schumann, “A Book about Colab:(and Related Activities),” Printed Matter (2015).