PHÂN LOẠI ẢNH NỘI SOI ĐẠI TRÀNG SỬ DỤNG PHƯƠNG PHÁP TỰ HỌC CÁC ĐẶC TRƯNG THỊ GIÁC
400 lượt xemDOI:
https://doi.org/10.54939/1859-1043.j.mst.CSCE5.2021.3-13Từ khóa:
Tự học các đặc trưng hình ảnh trực quan; Học chuyển giao; Phân loại ảnh nội soi đại tràng; Nhận dạng polyp.Tóm tắt
Phân loại ảnh nội soi đại tràng là tác vụ nhằm dự đoán ảnh nội soi đại tràng có hoặc không có polyp. Đây là một tác vụ quan trọng trong hệ thống tự động phát hiện polyp trên ảnh nội soi đại tràng. Trong những năm gần đây, các phương pháp học sâu thường được sử dụng cho tác vụ này vì chúng có khả năng tự động trích rút các đặc trưng của ảnh nội soi sử dụng để phân loại ảnh với độ chính xác vượt trội. Tuy nhiên để huấn luyện được các mô hình học sâu với độ chính xác cao cần một số lượng lớn các dữ liệu được gán nhãn thủ công bởi các chuyên gia y tế, việc này đòi hỏi chi phí cao và tốn rất nhiều công sức. Nhằm khắc phục khó khăn này, chúng tôi đề xuất một phương pháp mới để huấn luyện mạng học sâu cho phân vùng ảnh nội soi sử dụng phương pháp tự học các đặc trưng thị giác của ảnh. Chúng tôi đã dùng tác vụ khử nhiễu của ảnh (image denoising) làm tác vụ giả định (pretext task) cho hệ thống tự học các đặc trưng thị giác của ảnh nội soi đại tràng từ dữ liệu không được gán nhãn. Mạng mạng học sâu khử nhiễu được huấn luyện bằng một bộ dữ liệu không được gán nhãn gồm 8.500 ảnh nội soi đại tràng được thu thập từ hệ thống lưu trữ và truyền dữ liệu hình ảnh (PACS) của Bệnh viện Quân y 103. Các ảnh ban đầu được thêm nhiễu để trở thành đầu vào cho mạng khử nhiễu, nhãn đầu ra chính là các ảnh ban đầu. Bộ trích xuất đặc trưng của mạng khử nhiễu sau đó được sử dụng lại cho bộ phân loại ảnh bằng phương pháp học chuyển giao. Để huấn luyện mạng phân loại ảnh nội soi, chúng tôi đã sử dụng một bộ dữ liệu có gán nhãn nhỏ được trích xuất từ bộ dữ liệu ảnh nội soi Kvarsir (là bộ dữ liệu ảnh soi chuẩn được công bố cho các mô hình học máy). Kết quả thí nghiệm cho thấy bộ phân loại được huấn luyện theo phương pháp tự học của chúng tôi đã cho độ chính xác vượt trội so với bộ phân loại cơ sở, đặc biệt với bộ dữ liệu huấn luyện nhỏ. Cụ thể với bộ dữ liệu huấn luyện chỉ gồm 200 ảnh được gán nhãn, phương pháp đề xuất đã nâng cao được độ chính xác của bộ phân loại từ 72,16% lên 93,15%.
Tài liệu tham khảo
[1]. A. M. Leufkens, M. G. H. van Oijen, F. P. Vleggaar, and P. D. Siersema. "Factors influencing the miss rate of polyps in a back-to-back colonoscopy study," Endoscopy, 44(05):470475, 2012.
[2]. D. Vázquez, J. Bernal, F. J. Sánchez, G. Fernández-Esparrach, A. M. López, A. Romero, M. Drozdzal, and A. Courville, “A benchmark for endoluminal scene segmentation of colonoscopy images,” Journal of healthcare engineering, vol. 2017, 2017.
[3]. Jing, Longlong, and Yingli Tian. "Self-supervised visual feature learning with deep neural networks: A survey." IEEE transactions on pattern analysis and machine intelligence (2020).
[4]. Doersch, Carl, Abhinav Gupta, and Alexei A. Efros. "Unsupervised visual representation learning by context prediction." Proceedings of the IEEE international conference on computer vision. 2015.
[5]. Pathak, Deepak, et al. "Context encoders: Feature learning by inpainting." Proceedings of the IEEE conference on computer vision and pattern recognition. 2016.
[6]. Zhang, Richard, Phillip Isola, and Alexei A. Efros. "Colorful image colorization." European conference on computer vision. Springer, Cham, 2016.
[7]. Komodakis, Nikos, and Spyros Gidaris. "Unsupervised representation learning by predicting image rotations." International Conference on Learning Representations (ICLR). 2018.
[8]. Bengio, Yoshua, et al. "Generalized denoising auto-encoders as generative models." arXiv preprint arXiv:1305.6663 (2013).
[9]. D. Jha et al., "Kvasir-seg: A segmented polyp dataset" in Proc. Int. Conf. Multimedia Model., 2020, pp. 451–462.
[10]. Sandler, Mark, et al. "Mobilenetv2: Inverted residuals and linear bottlenecks." Proceedings of the IEEE conference on computer vision and pattern recognition. 2018.
[11]. Jamaludin, Amir, Timor Kadir, and Andrew Zisserman. "Self-supervised learning for spinal MRIs." Deep Learning in Medical Image Analysis and Multimodal Learning for Clinical Decision Support. Springer, Cham, 2017. 294-302.
[12]. Tajbakhsh, Nima, et al. "Surrogate supervision for medical image analysis: Effective deep learning from limited quantities of labeled data." 2019 IEEE 16th International Symposium on Biomedical Imaging (ISBI 2019). IEEE, 2019.
[13]. Ross, Tobias, et al. "Exploiting the potential of unlabeled endoscopic video data with self-supervised learning." International journal of computer assisted radiology and surgery 13.6 (2018): 925-933.
[14]. Kim, Young Jae, et al. "New polyp image classification technique using transfer learning of network-in-network structure in endoscopic images." Scientific Reports 11.1 (2021): 1-8.
[15]. Hsu, Chen-Ming, et al. "Colorectal Polyp Image Detection and Classification through Grayscale Images and Deep Learning." Sensors 21.18 (2021): 5995.
[16]. Wang, Yan, et al. "Multiclassification of endoscopic colonoscopy images based on deep transfer learning." Computational and Mathematical Methods in Medicine 2021 (2021).
[17]. Taha, Dima, et al. "Automated Colorectal Polyp Classification Using Deep Neural Networks with Colonoscopy Images." International Journal of Fuzzy Systems (2021): 1.