Lọc theo danh mục
  • Năm xuất bản
    Xem thêm
  • Lĩnh vực
liên kết website
Lượt truy cập
 Lượt truy cập :  22,700,241
  • Công bố khoa học và công nghệ Việt Nam

Kỹ thuật và thiết bị y học

Đào Việt Hằng(1), Lê Quang Hưng, Nguyễn Phúc Bình, Nguyễn Mạnh Hùng, Mạnh Xuân Huy, Nguyễn Hồng Anh, Vũ Hải

Đánh giá độ chính xác và khả năng ứng dụng của phần mềm hỗ trợ khoanh đường Z tự động sử dụng thuật toán trí tuệ nhân tạo

Accuracy and applicability of the artificial intelligence integrated software in Z-line segmentation

Khoa học & Công nghệ Việt Nam

2021

02

10-15

1859 - 4794

Nghiên cứu nhằm khảo sát hiệu quả của công cụ phần mềm khi có/không có sự tương tác của các bác sỹ trong việc khoanh đường Z, được tiến hành từ 4/2019 đến 7/2020. Nhóm nghiên cứu thu thập 533 ảnh đường Z ở chế độ ánh sáng thường, đa dạng về hình thái, đảm bảo độ phân giải và chất lượng để xây dựng thuật toán xác định đường Z. Nhóm nghiên cứu đã xây dựng công cụ phần mềm khoanh đường Z với 4 chế độ bao gồm chế độ thủ công, chế độ đánh dấu vùng, chế độ tự động toàn bộ, chế độ tích hợp giữa tự động và đánh dấu vùng có chọn lựa thông minh. Hai nhóm bác sĩ (nhóm có kinh nghiệm 1-2 năm và nhóm ≥5 năm) sử dụng phần mềm ở 4 chế độ để xác định đường Z trên tập kiểm thử gồm 30 ảnh độc lập với ảnh thu thập cho quá trình huấn luyện. So sánh kết quả thực hiện của các bác sĩ khi sử dụng công cụ có/không có tương tác thông qua các tiêu chí như độ chính xác của đường Z, mức độ hài lòng, thời gian thực hiện ở các chế độ khoanh. Độ chính xác của mỗi kỹ thuật được đánh giá bằng chỉ số IoU (Intersection-over-Union). Kết quả nghiên cứu cho thấy mức điểm trung bình ở cả 4 chế độ đều cao, từ 86,7 đến 90,8%. Chỉ số IoU trên tập ảnh thực nghiệm của 2 chế độ đánh dấu vùng và tích hợp trung bình là 88% và không có sự khác biệt về thống kê so với chế độ khoanh vùng bằng tay. Tương tự, không có sự khác biệt về thời gian các bác sĩ khoanh vùng xác định đường Z ở chế độ đánh dấu vùng và chế độ tích hợp so với chế độ khoanh vùng bằng tay. Trung vị của số lần tương tác ở chế độ đánh dấu vùng và chế độ tích hợp lần lượt là 24,5 và 15,5 lần. Phần mềm được các bác sĩ đánh giá khá tốt, với mức điểm trung bình là 7,2, 7,3 và 7,2 tương ứng với chế độ tự động, chế độ đánh dấu vùng và chế độ tích hợp. Xây dựng phần mềm hỗ trợ xác định mốc giải phẫu ảnh nội soi là một hướng nghiên cứu rất mới và khả thi tại Việt Nam, hướng tiếp theo có thể tập trung là phát hiện, khoanh vùng cho một số loại tổn thương theo vị trí giải phẫu.

Conducted from April 2019 to July 2020, this study aimed to assess the software accuracy in assisting Z-line segmentation by comparing with medical doctors’ detection results and by recording doctors’ satisfaction in scale, time-of-implementation in interactive mode, and integrated mode. For the development of the Z-line detection algorithm, a dataset of 533 high-definition endoscopic WLI (white-light) images in diverse forms of Z-line were collected. The software was subsequently developed in 4 modes, including manual mode, interactive mode (using Superpixels-BPT), automatic mode (using AI algorithm), and integrated mode (the combination of BPT and U-Net). 30 endoscopic images were assigned to 2 groups of doctors (under 2-year experience and over 5-year experience) for the Z-line detection using the software in 4 modes. Time-of-implementation, number of mouse clicks, satisfaction in scales, and IoU (Interception over Union) metric with expert’s ground-truth are used for assessment. The results showed that IoU metrics of interactive and integrated modes in the experimental dataset was 88% with no statistical difference to the IoU value of manual mode, and mean IoU metrics from the results of 4 modes were high, from 86.7 to 90.8%. The mean values of time-of-implementation in interactive mode and integrated mode were not statistically different from manual mode. The median number of mouse-clicks each use in the interactive mode and the integrated mode were 24.5 and 15.5 times, respectively. The software received good feedbacks from the doctors, with the mean values of satisfaction scores of automatic mode, interactive mode and integrated mode are 7.2, 7.3, and 7.2 respectively. The development of the software for detecting endoscopic anatomy landmarks is a novel and feasible research direction in Vietnam. Further studies could focus on detecting some specific lesions classified according to anatomy landmarks.

TTKHCNQG, CVv 8

  • [1] J.J.G.H.M. Bergman (2019), An interactive web- based educational tool improves detection and delineation of barrett’s esophagus-related neoplasia,Gastroenterology, 156(5), pp.1299- 1308.e3, DOI: 10.1053/j.gastro.2018.12.021.
  • [2] H. Takiyama (2018), Automatic anatomical classification of esophagogastroduodenoscopy images using deep convolutional neural networks,Sci. Rep., 8(1), DOI: 10.1038/ s41598-018-25842-6.
  • [3] A. Waschke Kevin (2019), ASGE principles of endoscopic training,Gastrointestinal Endoscopy, 90(1), pp.27-34.
  • [4] Sonnenberg; Amnon (2017), Limitations of teaching endoscopy,European Journal of Gastroenterology & Hepatology, 30(3), DOI: 10.1097/MEG.0000000000001041.
  • [5] S.G. Patel (2015), Status of competency-based medical education in endoscopy training: a nationwide survey of US ACGME-accredited gastroenterology training programs,Am. J. Gastroenterol., 110(7), pp.956-962.
  • [6] (2016), Intersection over Uni-on (IoU) for Object Detection,,https://www.pyimagesearch.com/2016/11/07/ intersection-over-uni-on-iou-for-object-detection/.
  • [7] M.A. Rahman; Wang Yang (2016), Optimizing intersection- over-uni-on in deep neural networks for image segmentation,International Symposium on Visual Computing Conference, pp.234- 244, DOI: 10.1007/978-3-319-50835-1_22.
  • [8] P. Salembier; L. Garrido (2000), Binary partition tree as an efficient representation for image processing, segmentation, and information retrieval,IEEE Transactions on Image Processing, 9(4), pp.561-576.
  • [9] Achanta; Radhakrishna (2010), SLIC superpixels,EPFL TechnicalReport 149300, 15pp.
  • [10] Ronneberger; Olaf; Fischer; Philipp; Brox; Thomas (2015), U-net: convolutional networks for biomedical image segmentation,Medical Image Computing and Computer-Assisted Intervention - MICCAI 2015, Springer International Publishing, Cham, pp.234-241.
  • [11] Đào Việt Hằng (2019), Xác định vị trí giải phẫu của dạ dày qua nội soi đường tiêu hóa trên sử dụng mạng noron tích chập,Tạp chí Y học Thực hành, 1120(12), tr.10-12.
  • [12] Hoang Trung-Hieu (2019), Enhancing endoscopic image classification with symptom localization and data augmentation,Proceedings of the 27th ACM International Conference on Multimedia, Association for Computing Machinery, Nice, France, pp.2578-2582.
  • [13] Hà Văn Đến; Quách Trọng Đức (2018), Tần suất và đặc điểm carcinôm dạ dày giai đoạn tiến triển ở bệnh nhân đã từng được nội soi dạ dày nhưng chưa xác định bệnh,Y học TP Hồ Chí Minh, 22(6), tr.56-62.
  • [14] P.G. Delgado Guillena (2019), Gastric cancer missed at esophagogastroduodenoscopy in a well-defined Spanish population,Dig. Liver Dis., 51(8), pp.1123-1129.
  • [15] Menon; Shyam; Trudgill; Nigel (2014), How commonly is upper gastrointestinal cancer missed at endoscopy? a meta-analysis,Endoscopy International Open, 2(2), pp.E46-E50.
  • [16] S. Yalamarthi (2004), Missed diagnoses in patients with upper gastrointestinal cancers,Endoscopy, 36(10), pp.874-879.
  • [17] M.E. Voutilainen; M.T. Juhola (2005), Evaluation of the diagnostic accuracy of gastroscopy to detect gastric tumours: clinicopathological features and prognosis of patients with gastric cancer missed on endoscopy,Eur. J. Gastroenterol. Hepatol., 17(12), pp.1345-1349.
  • [18] A.R. Pimenta-Melo (2016), Missing rate for gastric cancer during upper gastrointestinal endoscopy: a systematic review and meta-analysis,Eur. J. Gastroenterol. Hepatol., 28(9), pp.1041-1049.