NGHIÊN CỨU MÔ HÌNH HỌC SÂU FASTER R-CNN ĐỂ PHÁT HIỆN VÀ PHÂN LOẠI CÁC TỔN THƯƠNG KHU TRÚ THƯỜNG GẶP Ở GAN TRÊN ẢNH CHỤP CẮT LỚP VI TÍNH

Nguyễn Hoàng Thái1,, Phù Trí Nghĩa1, Dương Quốc Thanh1, Nguyễn Thanh Hùng1, Mai Quốc Trường1, Trần Thị Bích Phương1, Cao Tấn Phát1, Huỳnh Đăng Khoa1
1 Trường Đại học Y Dược Cần Thơ

Nội dung chính của bài viết

Tóm tắt

Đặt vấn đề: Sự cần thiết của việc phát hiện, phân loại sớm tổn thương gan và việc nghiên cứu ứng dụng mô hình học sâu vào xử lý ảnh y khoa. Mục tiêu nghiên cứu: Thu thập dữ liệu, xây dựng, huấn luyện mô hình Faster R-CNN để phát hiện, phân loại các tổn thương khu trú thường gặp ở gan; Kiểm thử, đánh giá hiệu quả mô hình theo tiêu chí về thời gian, độ chính xác. Đối tượng và phương pháp nghiên cứu: Bộ dữ liệu ảnh chụp cắt lớp vi tính tiêm thuốc cản quang vùng bụng có tổn thương gồm nang gan, u mạch máu, ung thư tế bào gan nguyên phát; Áp dụng mô hình Faster R-CNN để phát hiện, phân loại tổn thương. Kết quả: Bộ dữ liệu thu thập tại Bệnh viện Trường Đại học Y Dược Cần Thơ gồm 51 người bệnh có tổn thương khu trú thường gặp ở gan, với 2828 ảnh, 2836 vùng tổn thương được xác định bởi bác sĩ chẩn đoán hình ảnh. Trong đó, 11 người bệnh thuộc nhóm nang gan (440 vùng), 18 người bệnh thuộc nhóm u mạch máu (648 vùng), 21 người bệnh thuộc nhóm ung thư tế bào gan nguyên phát (1748 vùng) và 01 người bệnh có cả nang và u mạch máu; Mô hình Faster R-CNN cho kết quả độ chính xác mAP là 94%, thời gian huấn luyện 583 phút và thời gian xử lý 0,13 giây. Kết luận: Bộ dữ liệu đã thu thập là nền tảng cho các nghiên cứu tiếp theo; Mô hình Faster R-CNN có thời gian huấn luyện ngắn, thời gian xử lý nhanh, độ chính xác cao, phù hợp và có thể áp dụng để triển khai các ứng dụng thực tế.

Chi tiết bài viết

Tài liệu tham khảo

1. Amit, Y., P. Felzenszwalb, and R. Girshick, Object detection. Computer Vision: A Reference Guide, 2020: pp. 1-9.
2. Bisong, E., Google colaboratory, in Building Machine Learning and Deep Learning Models on Google Cloud Platform. 2019, Springer. pp. 59-64.
3. Dillon, J.V., et al., Tensorflow distributions. arXiv preprint arXiv:1711.10604, 2017.
4. He, K., et al. Deep residual learning for image recognition. in Proceedings of the IEEE conference on computer vision and pattern recognition. 2016.
5. Lee, S.-g., et al. Liver lesion detection from weakly-labeled multi-phase CT volumes with a grouped single shot multibox detector. in International Conference on Medical Image Computing and Computer-Assisted Intervention. 2018. Springer.
6. Liang, D., et al. Residual convolutional neural networks with global and local pathways for classification of focal liver lesions. in Pacific Rim International Conference on Artificial Intelligence. 2018. Springer.
7. Lin, T.-Y., et al. Microsoft coco: Common objects in context. in European conference on computer vision. 2014. Springer.
8. Ren, S., et al., Faster r-cnn: Towards real-time object detection with region proposal networks. arXiv preprint arXiv:1506.01497, 2015.
9. Sun, C., et al., Automatic segmentation of liver tumors from multiphase contrast-enhanced CT images based on FCNs. Artificial intelligence in medicine, 2017. 83: pp. 58-66.
10. Zhou, J., et al., Automatic Detection and Classification of Focal Liver Lesions Based on Deep Convolutional Neural Networks: A Preliminary Study. Frontiers in oncology, 2021. 10: pp. 3261.