



- Công bố khoa học và công nghệ Việt Nam
76
Kỹ thuật và thiết bị y học
BB
Nguyen Thanh Thu, Dinh Binh Duong, Tran Thi Thao, Pham Van Truong, Trần Thị Thảo(1)
Ac-mlp: bộ trộn tích chập trục-mlp để phân đoạn nhân trong hình ảnh bệnh lý học
Ac-mlp: axial convolution-mlp mixer for nuclei segmentation in histopathological images
Tạp chí Khoa học và Công nghệ - Đại học Đà Nẵng
2024
12
64-69
1859-1531
MLP-Mixer gần đây có khả năng xử lý tốt các phụ thuộc tầm xa, tuy nhiên, để có hiệu suất tốt, người ta cần dữ liệu lớn và cơ sở hạ tầng đắt tiền cho quá trình tiền đào tạo. Trong nghiên cứu này, chúng tôi đề xuất một mô hình mới cho phân đoạn ảnh hạt nhân, cụ thể là Axial Convolutional-MLP Mixer, bằng cách thay thế bộ trộn mã thông báo của MLP-Mixer bằng một toán tử mới, Axial Convolutional Token Mix. Cụ thể, trong Axial Convolutional Token Mix, chúng tôi kế thừa ý tưởng về tích chập theo chiều sâu trục để tạo ra một trường tiếp nhận linh hoạt. Chúng tôi cũng đề xuất một mô-đun Long-range Attention sử dụng tích chập giãn nở để mở rộng kích thước hạt nhân tích chập, do đó giải quyết vấn đề về các phụ thuộc tầm xa. Các thí nghiệm chứng minh rằng mô hình của chúng tôi có thể đạt được kết quả cao trên các tập dữ liệu y tế nhỏ, với điểm Dice là 90,20% trên tập dữ liệu GlaS, 80,43% trên tập dữ liệu MoNuSeg và không cần tiền đào tạo. Mã sẽ có tại https://github.com/thanhthu152/AC-MLP.
Recent MLP-Mixer has a good ability to handle long-range dependencies, however, to have a good performance, one requires huge data and expensive infrastructures for the pre-training process. In this study, we proposed a novel model for nuclei image segmentation namely Axial Convolutional-MLP Mixer, by replacing the token mixer of MLP-Mixer with a new operator, Axial Convolutional Token Mix. Specifically, in the Axial Convolutional Token Mix, we inherited the idea of axial depthwise convolution to create a flexible receptive field. We also proposed a Long-range Attention module that uses dilated convolution to extend the convolutional kernel size, thereby addressing the issue of long-range dependencies. Experiments demonstrate that our model can achieve high results on small medical datasets, with Dice scores of 90.20% on the GlaS dataset, 80.43% on the MoNuSeg dataset, and without pre-training. The code will be available at https://github.com/thanhthu152/AC-MLP.
TTKHCNQG, CVv 465